Antología 2. Ciclo de Conferencias. La Ciencia más allá del aula

Page 1



Antología 2 Ciclo de Conferencias La Ciencia más allá del Aula Coordinadora

Lena Ruiz Azuara

Autores

Alejandro Baeza Ronald Breslow Sergio Cuevas García José Luis Domínguez Torix Carmen Martha Elinos-Báez Bernardo A. Frontana Uribe Andoni Garritz Alicia Gorab Ramírez Guillermo Gosset Lagarda Guillermo Rogelio Ibáñez Duharte William H. Lee Mariano López de Haro María del Carmen Mejía Vázquez Elia Brosla Naranjo Rodríguez Joaquín Palacios Alquisira Miguel Ángel Pérez Angón Enrique Ruiz-Trejo Ángel Tamariz Mascarúa Víctor Manuel Urbina Bolland Eduardo Vivaldo Lima Primera edición 2014 © D.R. Universidad Nacional Autónoma de México. Ciudad Universitaria, Delegación Coyoacán, C.P. 04510, México, Distrito Federal. La publicación de esta obra fue posible gracias al apoyo de la Coordinación de Comunicación, a través de los Departamentos de Editorial, de Información (Taller de Imprenta) y de Diseño y Medios Audiovisuales. Hecho en México. Prohibida la reproducción total o parcial por cualquier medio, sin la autorización escrita del titular de los derechos patrimoniales.



2014

Coordinación y compilación: Dra. Lena Ruiz Azuara

Facultad de Química, Universidad Nacional Autónoma de México


Primera edición: 2014 Fecha de edición: 10 de septiembre de 2013. D.R. © 2014 Universidad Nacional Autónoma de México Ciudad Universitaria, Delegación Coyoacán, C.P. 04510, México, Distrito Federal. Prohibida su reproducción total o parcial por cualquier medio, sin la autorización escrita del titular de los derechos patrimoniales Impreso y hecho en México Tamaño: 26.3 MB Tipo de impresión: PDF Publicación autorizada por el Comité Editorial de la Facultad de Química


FACULTAD DE QUÍMICA Dr. Jorge M. Vázquez Ramos Director QFB Raúl Garza Velasco Secretario General Dr. Carlos Mauricio Castro Acuña Secretario Académico de Docencia Dr. Felipe Cruz García Secretario Académico de Investigación y Posgrado Mtra. Patricia E. Santillán de la Torre Secretaria Administrativa IQ Jorge Martínez Peniche Secretario de Extensión Académica Dr. Jesús Escamilla Salazar Secretario de Apoyo Académico Ing. Aída Alicia Hernández Quinto Secretaria de Planeación e Informática Dra. Lena Ruiz Azuara Coordinadora del Ciclo de Conferencias La Ciencia más allá del aula



Índice

Prefacio

11

Cáncer de pulmón Carmen Martha Elinos-Báez

15

Tuberculosis, una enfermedad que se trasmite por vía aérea Carmen Martha Elinos-Báez

25

Albert Einstein y el origen termodinámico de los cuantos de luz Enrique Ruiz-Trejo

39

Los infinitos, El paraíso de Cantor Ángel Tamariz Mascarúa

51

Entropía y optimización de procesos y dispositivos Mariano López de Haro, Sergio Cuevas García y Guillermo Rogelio Ibáñez Duharte

63

Cuatro muertes y un funeral Ma. del Carmen Mejía Vázquez

81

Melatonina y ansiedad Elia Brosla Naranjo Rodríguez

95

Química analítica a microescala total Alejandro Baeza

103

Ondas Gravitacionales: Una nueva ventana al universo William H. Lee

109

Síntesis biológica de compuestos aromáticos: Cómo modificar las bacterias para que se transformen en fábricas químicas Guillermo Gosset Lagarda

117

Photon finding Víctor Manuel Urbina Bolland

129


Índice

Tácticas y estrategias en electroquímica orgánica Alejandro Baeza

137

Ingeniería en polimerización: Pasado, presente y futuro Eduardo Vivaldo Lima

147

Síntesis orgánica electrocutando moléculas Bernardo A. Frontana Uribe

155

Polímeros conductores inteligentes Alejandro Baeza

165

Caracterización de sistemas poliméricos, para conocer a fondo a las macromoléculas y su comportamiento Joaquín Palacios Alquisira

175

Bosones de Higgs: El enigma de la masa Miguel Ángel Pérez Angón

185

Editorial. Algunos retos de la Química en el siglo XXI Ronald Breslow y Andoni Garritz

193

Situación del VIH-Sida José Luis Domínguez Torix y Alicia Gorab Ramírez

201


Prefacio

La importancia de difundir los avances de la ciencia en nuestro país es una tarea necesaria. Si aunamos a esto la posibilidad de hacerlo de manera amena y divertida, estaremos cubriendo un valioso espacio en la formación de nuestra comunidad, especialmente de los estudiantes de esta Universidad, que son el propósito principal de su labor. Desde principios de 1999 se inició esta serie, La Ciencia más Allá del Aula, en la Facultad de Química, todos los jueves a las 13:00 durante las semanas del semestre académico. Los temas han cubierto áreas afines a las ciencias exactas y naturales, han sido impartidas por profesores e investigadores del más alto nivel académico de la UNAM, UAM, CINVESTAV, ITAM, BUAP, entre otras instituciones. En el año 2002 se incluyeron algunas pláticas del área de humanidades, con el próposito de enriquecer la formación cultural de nuestros estudiantes. En la presente antología que compila la mayoría de las ponencias de los primeros años de esta Serie de Conferencias, se tienen temas de Química Analítica, Orgánica, Inorgánica y Bioinorgánica; Química y Físico Cuánticas; Física, Física Médica, Astronomía, Bioquímica, Biología, Fisicoquímica, Polímeros, Ingeniería Química, Tecnológicas, Corrosión, Electroquímica, Genética. Este volumen contiene 19 trabajos en el orden de su presentación y no por temas, lo que permite al lector viajar por las diferentes áreas sin un orden temático establecido y detenerse en aquellos puntos que más llamen su atención. Quisiera agradecer a las personas y dependencias que han hecho posible la edición de esta antología: La Sra. Alejandrina Mejía Vázquez por su apoyo en la coordinación de los trabajos; al excoordinador Lic. José Ruiz, y a la titular de la Coordinación de Comunicación, Verónica Ramón, por el apoyo editorial; al Dr. Eduardo Bárzana García, ex Director de la Facultad de Química y Secretario General de esta Máxima Casa de Estudios; al Dr. Jorge Vázquez Ramos, Director de la FQ; la Secretaría de Apoyo a la Comunidad Universitaria y al Proyecto PAPIME en 208704, por el financiamiento. A todos los autores por su incondicional devoción para la preparación de los manuscritos y la impartición de las conferencias. A los lectores esperando que disfruten de esta recopilación de la ciencia mexicana.

Atentamente Cd. Universitaria, D.F. a 16 de mayo de 2013. Dra. Lena Ruiz Azuara





Cáncer de pulmón Carmen Martha Elinos-Báez Departamento de Biología Molecular y Biotecnología Instituto de Investigaciones Biomédicas, UNAM

Resumen El cáncer pulmonar es una neoplasia que puede desarrollarse en las células basales totipotenciales del epitelio bronquial. Es la respuesta de la célula pulmonar a la exposición prolongada de un agente cancerígeno. La célula con el ADN mutado puede permanecer inactiva por mucho tiempo o toda la vida; o entrar en el proceso de carcinogénesis para dar lugar a un tumor maligno, porque cuando se diagnostica el cáncer pulmonar, 70% de los pacientes presentan metástasis, la respuesta a la quimioterapia es pobre y es polémico si esto ofrece beneficios en calidad de vida o del tiempo de sobrevida, ya que no se ha identificado un marcador bioquímico con la suficiente sensibilidad, especificidad y facilidad en su obtención (de saliva, sangre) para utilizarlo en el diagnóstico de la enfermedad. Sin embargo, se han identificado alteraciones en genes constitutivos de la célula pulmonar (estos genes también están presentes en la mayoría de las células del organismo) debido a la hipermetilación en su región promotora por cambios epigenéticos no mutagénicos inducidos por algún agente cancerígeno, lo cual se realiza en fase temprana del cáncer pulmonar. Estos genes se extraen de las células obtenidas por lavados bronquioalveolares. Los factores de riesgo que dan origen a las alteraciones del ADN son, entre otros: Inhalación del humo del tabaco o leña, contaminantes atmosféricos, factor genético, edad e infecciones por VIH que favorecen la formación de cáncer de pulmón, siendo más frecuentes en México el adenocarcinoma y el carcinoma epidermoide, con 40% y 38% de incidencias, respectivamente. El adenocarcinoma es de localización periférica, y suele cursar silencioso por tiempo prolongado; el carcinoma epidermoide es de localización central, se desarrolla en el bronquio principal y puede detectarse por el estudio citológico de la expectoración. La mayoría de los cánceres no se muestra en forma súbita, sino que se desarrolla después de algunos o muchos años, como resultado de cambios bioquímicos y genéticos que inducen a las células sanas hacia un estado precanceroso y posteriormente hacia un cáncer.

15


Cáncer de pulmón

Introducción El cáncer pulmonar es un problema de salud pública en todo el mundo. Las estadísticas proporcionadas por el Registro Histopatológico de Neoplasias en México1 nos indican que el cáncer pulmonar ocupó el tercer lugar en muertes por cáncer de 1997 a 1999. Las Gráficas 1, 2 y 3, muestran la distribución de la mortalidad de dicho trienio al tomar en cuenta edad y sexo. Las frecuencias que muestran los dos grupos (hombres y mujeres) son muy semejantes, lo que indica que el sexo no influye en la incidencia de la enfermedad, esto es el resultado, de los hábitos realizados por el paciente previo al desarrollo del cáncer pulmonar. Se tomó en cuenta la edad productiva de 18 a 65 años; sin embargo, estos pacientes no sólo no producen, sino que originan un estado de estrés a sus familiares, al proporcionarles los medicamentos para disminuir el dolor que esta enfermedad presenta en fase terminal.

16

Gráfica 1.

No es fácil el diagnóstico temprano de la enfermedad, porque no se conoce un modelo de orden cronológico en la identificación de los primeros síntomas y no es posible detectar las alteraciones moleculares iniciales, por lo que para el diagnóstico de esta enfermedad se toman en cuenta los factores de riesgo, exploración física, radiografía de tórax y estudio citológico de la expectoración. Sin embargo, al ser positivos los resultados, la enfermedad se encuentra en estado avanzado y el promedio de vida varía de dos a ocho años. Al observarse en una radiografía de tórax una lesión de 1 cm de diámetro aproximadamente, indica que se inició hace diez o quince años. Se ha comprobado lo anterior al realizar autopsias en cadáveres de individuos que muertos por accidente u otras causas, y que han presentado una lesión pequeña en el pulmón sin haber manifestado síntomas propios de la enfermedad, dicho por sus familiares. Se sabe que para el desarrollo de algunos tipos de cáncer, se necesita la adquisición progresiva de mutaciones en múltiples genes y la frecuencia de estas mutaciones involucra ciclos repetitivos de proliferación celular, selección y expansión clonal. Se considera que el desarrollo de inestabilidad genómica durante el proceso, incrementa la frecuencia de las mutaciones y acelera la progresión del tumor.

Gráfica 2.


Carmen Martha Elinos-Báez

• Infecciones virales (VIH).

Inhalación del humo del tabaco

Gráfica 3.

Factores de riesgo Alrededor de 70% de la incidencia de cáncer de pulmón son prevenibles, ya que la mayoría de los factores que determinan su incidencia son exógenos. Los factores de riesgo son: • Inhalación del humo del tabaco por fumadores activos y pasivos. • Contaminación atmosférica: • Desechos de vehículos automotores de transporte. • Desechos de industrias: Termoeléctricas, refinerías, fundidoras, huleras, cementeras, textiles, alimentarias, químicas, calderas, asbestos, extracción del asbesto de las minas que lo contienen, incineración de desechos, incendios, tolvaneras, complejos nucleares, irradiación propia del planeta a la corteza terrestre. • Factor genético. • Edad.

El humo del tabaco es un aerosol complejo formado por dos fases: La visible, que comprende partículas entre 0.1 y 0.8 de micra; la fase gaseosa está formada por moléculas alcaloides (nicotina), moléculas irritantes (aldehídos, cetonas), moléculas cancerígenas (hidrocarburos aromáticos policíclicos, benzopirenos, siendo el más tóxico el 3,4-benzopireno; nitrosaminas)2. La agresividad del humo del tabaco dependerá de la profundidad de la inspiración, del número de cigarrillos que fumen diariamente, del tiempo del hábito tabáquico y de la clase de tabaco, siendo más tóxico el humo del cigarro que el del puro y la pipa. Se sabe que el humo del tabaco disminuye la actividad ciliar, la actividad fagocítica de los macrófagos alveolares, disminuye la síntesis de proteínas por las células del pulmón y por lo tanto, de las proteínas que intervienen en la reparación del ADN dañado2.

Contaminación atmosférica La contaminación atmosférica está muy relacionada con la actividad del hombre y su progreso. Por ejemplo, en los últimos años se ha incrementado la industrialización del asbesto por sus características de gran resistencia al fuego y a los ácidos. El asbesto es una mezcla de silicatos de hierro, magnesio, níquel, calcio y aluminio; sin embargo, su extracción de las minas y su industrialización producen mucho polvo de asbesto, y los trabajadores, aunque estén protegidos, lo respiran, haciéndolos candidatos a desarrollar cáncer pulmonar.

Factor genético El factor genético está determinado por la susceptibilidad y la predisposición. La susceptibilidad va en función de los eventos genéticos de herencia mendeliana y los eventos epigenéticos heredados no mendelianos. La predisposición es favorecida por el polimorfismo y las impresiones genómicas, que se han identificado en genes supresores tumorales

17


Cáncer de pulmón

y en los protooncogenes, debido a cambios epigenéticos en la regulación de la expresión de un gen no parental. Se considera que cambios epigenéticos no mutagénicos contribuyen al proceso, alteran la expresión genética, y la diferenciación celular. La mayoría de los genes se expresan bialélicamente, pero por modificaciones epigenéticas específicas de gameto, se expresan genes autosomales monoalélicos en células somáticas, y en esta forma se elimina uno de los alelos, perdiéndose la heterocigosidad del gen3. Por ejemplo, p53, gen supresor tumoral llamado el vigilante del genoma celular, porque al detectar un daño en el ADN, la proteína p53 va a activar la transcripción de los genes, cuyos productos génicos intervienen en la reparación del ADN. Pero si el gen p53 pierde su heterocigosidad, no puede reparar el daño, y se ha observado que en muchos cánceres pulmonares el gen p53 está inactivo, lo cual también podría ser por mutaciones en el dominio central de la proteína p534.

Edad

18

La edad es otro factor de riesgo, no sólo por los cambios hormonales, sino por la disminución de la respuesta inmune. Aunque puede presentarse en cualquier edad, existen épocas en las que un individuo se expone a un agente carcinógeno que favorece una mutación en el ADN celular. Se sabe que una célula con una mutación en su ADN no puede originar un tumor maligno, pero el número de mutaciones que un individuo enfrenta toda su vida es enorme, y va desde genes heredados hasta la dieta habitual, el medio ambiente y el estilo de vida. Así puede entrar en el proceso de carcinogénesis, un evento crítico, comenzando la etapa de iniciación,5 la cual permanece silenciosa por años o toda la vida; sin embargo, a lo largo de su existencia, el individuo puede presentar otras mutaciones que afectan a sus células. En esas condiciones prolifera para entrar en la etapa de promoción, que puede permanecer latente por años. El tiempo, que transcurre entre los primeros estadios del proceso y el establecimiento de un cáncer plenamente desarrollado (carcinogénesis), proporciona a los científicos una ventana de oportunidad para detener el desarrollo de la neoplasia. Aunque todos llevamos en nuestro organismo células mutadas, se requieren varias mutaciones actuan-

do en concierto para producir alteraciones. El desarrollo de un tumor maligno requiere complejas interacciones de agentes exógenos (como del medio ambiente) y endógenos (como genéticos, hormonales e inmunológicos), y si el sistema inmune del individuo se compromete o llega a la vejez, entonces las células dañadas proliferan, entran en la etapa de progresión y este tumor crece volviéndose invasor por incremento de la enzima catepsina B, que destruye a las células normales aledañas. Estos procesos pueden ocupar la mayor parte de la vida media de un individuo y la transición entre los diferentes estadios puede ser estimulada o inhibida por diversos agentes. Los compuestos químicos que podría intervenir en el proceso de la carcinogénesis, pueden ser genotóxicos y no genotóxicos. Los genotóxicos y sus metabolitos electrofílicos, se unen covalentemente al ADN para dar lugar a sustituciones, deleciones, adiciones o escisiones de bandas y son mutagénicos. Las formas altamente reactivas de oxígeno y metabolitos de óxido nitroso, formados endógenamente, también pueden causar daño al ADN. Como agentes no genotóxicos están algunas hormonas y compuestos orgánicos halogenados que pueden promover la carcinogénesis por mecanismos complejos. Es probable que en muchos casos los factores endógenos actúen en combinación con los factores genéticos, y así incrementan el riesgo de desarrollar cáncer.

Infecciones virales Las infecciones por virus como el VIH, que inhibe la actividad de los linfocitos T CD4+, células clave en la respuesta inmune, permiten el desarrollo de cáncer pulmonar, tuberculosis pulmonar, infecciones intestinales, entre otras, que son las causas por las que muere el paciente seropositivo.

¿Por qué se fuma? Es importante determinar por qué se fuma, para lo cual se han realizado reuniones en las que se discuten las causas que motivan al individuo a fumar, y se han resumido en


Carmen Martha Elinos-Báez

tres respuestas: 1) Como una forma de aceptación social. 2) Para combatir el estrés. 3) Por dependencia física, ya que el alcaloide nicotina induce adicción.

Genes hipermetilados obtenidos de lavados bronquioalveolares También deben considerarse otras formas de obtener muestras de fluidos del pulmón sin recurrir a la cirugía, como el método del lavado bronquioalveolar que puede realizarse en jóvenes sanos, fumadores jóvenes, personas de alto riesgo y en pacientes con cáncer pulmonar, para hacer un estudio comparativo que permita identificar marcadores bioquímicos en fase temprana de la enfermedad. Sin embargo, como el método es estresante, los jóvenes mexicanos no se prestan para realizar este estudio; en cambio, los jóvenes de China sí se someten al lavado bronquioalveolar, tanto sanos como fumadores y personas de alto riesgo, para saber si son candidatos a desarrollar cáncer pulmonar y aplicar un tratamiento oportuno. En los estudios realizados en las células del epitelio bronquial obtenidas de estos lavados, se identificaron varios genes que sufrieron alteraciones al iniciarse un tumor maligno de pulmón, debido a la inactivación epigenética por metilación de las islas CpG en la región promotora inducida por

un agente cancerígeno. En la región promotora y cerca de ella, son frecuentes las secuencias CpG, que en condiciones normales no se metilan, lo que permite identificar a los genes hipermetilados como marcadores bioquímicos en fase temprana de la enfermedad. Estos genes son constitutivos de la mayoría de las células del organismo y realizan diversas funciones importantes, pero al metilarse su región promotora, ésta no es reconocida por los factores de transcripción, y la transcripción de este gen no se realiza; por lo tanto, las funciones de su producto génico tampoco. Los genes identificados se clasifican en dos categorías, tomando en cuenta sus funciones: a) Los que controlan el circuito regulatorio intracelular. b) Los que controlan la superficie celular y las funciones extracelulares. En a-1) se encuentran los genes que intervienen en la respues-ta de la célula a los factores externos de crecimiento, y que transportan información a través del citoplasma al núcleo. En a-2) los genes que están involucrados en la replicación y reparación del ADN. En a-3) están los genes que intervienen en el ciclo celular. En a-4) los genes que determinan el destino de la célula, como son diferenciación, senectud y apoptosis. En b-1) se incluyen los genes que inducen la interacción de la célula con la matriz extracelular y con las células vecinas. En b-2) los genes que codifican la síntesis de proteínas de la superficie celular. En b-3) moléculas de adhesión. En b-4) proteasas extracelulares y factores de angio-génesis. La alteración de estos genes tiene gran importancia en la invasión de las células tumorales y en las metástasis. Son varios los genes alterados por metilación, pero aquí sólo se mencionarán algunos:

19


Cáncer de pulmón

• El gen p16 es un supresor tumoral, interviene en la regulación del ciclo celular6. • El gen orto-metilguanina-ADN metiltransferasa (MGMT). Su producto génico interviene en la reparación del ADN, porque remueve los aductos alquilo de la posición orto de la guanina, que al replicarse tiende a aparearse con timina, resultando una mutación por conversión de guanina-citocina a adenina-timina7. • El gen DAPK, proteína cinasa asociada a muerte. Esta proteína se asocia al citoesqueleto, tiene actividad catalítica como supresora metastásica. Está relacionada con apoptosis inducida por FAS y TNF. Su función es bloqueada por el oncogén Bcl-2 7.

que se indican los receptores de superficie, principalmente integrinas selectinas y miembros de la familia de las inmunoglobulinas, que son moléculas de adhesión célula-célula. En la Gráfica 5 se muestra un alveolo pulmonar, y en el recuadro se esquematiza tanto las células ya mencionadas, como los neumocitos donde se efectúa el intercambio de gases CO2 y O2 , e intercalados entre las células se encuentran los macrófagos alveolares. A los alveolos pulmonares llega el aire que respiramos y el humo del tabaco, cuyas partículas son eliminadas por la actividad ciliar y secretoria; los virus y

• El gen RARb es miembro de la familia de receptores responsables para mediar los efectos del ácido retinoico, tiene un papel importante en el desarrollo y diferenciación de las células del pulmón, vía receptores nucleares7. • El gen RASSF1A es un gen supresor tumoral, está asociado al oncogén K-ras8. • El gen APC, gen coli adenomatus poliposis, es un supresor tumoral. Es muy importante en el desarrollo de cáncer de colon de herencia familiar, y en el cáncer colorectal esporádico. 20

Gráfica 4.

• El polimorfismo de los genes GSTP1, glutatión-S-transferasa P1 y NADPH-quinona-óxidoreductasa, sus productos génicos son enzimas multifuncionales asociadas con destoxificación celular de compuestos hidrofóbicos, electrofílicos, carcinógenos y drogas exógenas, y se han identificado alteraciones por hipermetilación de estos genes en expectoraciones y esputos de pacientes con cáncer pulmonar y en individuos de alto riesgo de desarrollar cáncer de pulmón9.

El pulmón El pulmón es un órgano complejo compuesto por 20 diferentes tipos de células y células migratorias, que son los leucocitos. En el recuadro de la Gráfica 4 se muestra el esquema del epitelio bronquial y alveolar formado por células ciliadas, células secretorias y células basales, en las

Gráfica 5.


Carmen Martha Elinos-Báez

bacterias que contaminan el aire inspirado son eliminados por la actividad fagocítica de los macrófagos alveolares. Son los mecanismos de defensa propios del pulmón, pero si las actividades están inhibidas por el humo del tabaco, como ya se mencionó, las moléculas cancerígenas del mismo humo, lograrán mutar al ADN de alguna célula pulmonar, y entrarán en el proceso de carcinogénesis.

Compuestos con funciones anticancerígenas El largo periodo de latencia entre la primera exposición a los agentes carcinógenos y el desarrollo de un tumor maligno, ofrece oportunidades para utilizar diferentes estrategias y prevenir el desarrollo tumoral, por ejemplo: 1) Sustancias que reduzcan la síntesis de carcinógenos en el organismo, como la vitamina C. 2) Compuestos químicos que aumenten la destoxificación celular. 3) Antioxidantes como el selenio y el beta-caroteno, que destruyan a los radicales libres. 4) Bloqueadores de carcinógenos para prevenir su interacción con el ADN, como los flavonoides, que se encuentran en frutas y verduras.

Clasificación del cáncer de pulmón La Organización Mundial de la Salud (OMS) emitió la siguiente clasificación histológica de las neoplasias pulmonares: I.

Carcinoma de células escamosas.

II.

Carcinoma de células pequeñas.

III. Adenocarcinoma. IV.

Carcinoma de células grandes.

V. Adenoescamoso. VI. Carcinoide.

VII. Carcinoma de glándulas bronquiales. Los cánceres de pulmón más frecuentes en México son: • Adenocarcinoma (40% de incidencia). • Carcinoma epidermoide (38% de incidencia). El adenocarcinoma es un tumor maligno de localización periférica, se origina en los bronquios segmentados y suele cursar silencioso por tiempo prolongado, presenta células programadas para convertirse en células metastásicas,10 las cuales reducen la expresión de las moléculas de adhesión, disminuye el ion calcio e intervienen una combinación de factores mecánicos, bioquímicos, enzimáticos y de motilidad celular que actúan para separar a la célula del tumor primario y como es flexible, atraviesa la pared de los capilares sanguíneos del tumor, cuya formación ha sido inducida por el proceso de angiogénesis por la misma célula tumoral para obtener nutrientes. Así, la célula metastásica pasa a los vasos gruesos y llega a otros capilares, para salir de ellos e implantarse en otro tejido y originar un tumor secundario a distancia. Sin embargo, en el viaje la célula metastásica está sometida a morir debido al medio hostil del torrente sanguíneo y a elementos que la destruyen, como los macrófagos, células NK, linfocitos T CD8+, el complemento, anticuerpos solubles anticélulas tumorales, que son mecanismos de defensa del huésped. Aunque en estas condiciones el sistema inmune puede estar comprometido y no se ha generado una respuesta inmune de memoria, lo que va a favorecer la sobrevivencia de la

21


Cáncer de pulmón

célula metastásica para formar el tumor secundario. El carcinoma epidermoide es de localización central, se desarrolla en el bronquio principal y presenta queratinización, por lo que estas células son rígidas y difícilmente programan células metastásicas. Estas células crecen muy cercanas unas a otras y por su tendencia exfoliativa, pueden detectarse en el estudio citológico de la expectoración10.

Sintomatología Aquí se indican algunos síntomas que pueden orientar en el inicio de un tumor maligno del pulmón: • La expectoración cambia de color y aspecto. • La exacerbación bronquial no cede al tratamiento. • Puede volverse sanguinolenta por alteraciones en los vasos capilares. • El individuo presenta frecuentes infecciones y neumonías por inhibición de la actividad fagocítica de los macrófagos alveolares.

22

• Con el estetoscopio se detecta sibilancia constante en el pulmón. • Puede presentar dedos hipocráticos debido a un ensanchamiento de la falange terminal, y la uña al crecer se curva sobre el pulpejo. • La astenia, anorexia y pérdida de peso sin motivo indican que deben realizarse estudios radiológicos de tórax, y citológicos de la expectoración para buscar una lesión pulmonar, tomando en cuenta si ha padecido tuberculosis o asbestosis, que lo hace candidato a padecer cáncer pulmonar.11

Conclusión El cáncer pulmonar no se ha logrado diagnosticar en fase temprana, y sólo por hallazgo se ha determinado su presencia.

Además, se sabe que del 100% de los fumadores, entre 15 y 18% desarrollan cáncer pulmonar12. Sin embargo, es difícil saber quién presenta susceptibilidad o predisposición, o en qué etapa de la vida del individuo pueden presentarse épocas inmunocomprometidas y estar sometido a agentes cancerígenos o a infecciones virales (VIH). La comprensión de los mecanismos moleculares y celulares involucrados en la malignidad, facilitará el diseño de nuevas drogas o nutrientes para suprimir los diversos estadios en la carcinogénesis, y prevenir el cáncer invasivo y metastásico. El entendimiento de las complejas interacciones moleculares, celulares y tisulares involucradas en la carcinogénesis, ayudará a explicar la invasión tumoral y las siembras a distancia, lo que será una meta importante para el desarrollo de los agentes quimiopreventivos. La imagenología molecular para escudriñar dentro de la célula los cambios genéticos, es otra de las herramientas que se pueden utilizar; sin embargo, se necesita aprender más sobre los cambios moleculares en las células precancerosas.

Trabajo a futuro Encontrar biomarcadores en fase temprana de esta enfermedad que sean de fácil obtención para ser utilizados en su diagnóstico y aplicar el tratamiento oportuno. Preparar drogas que limiten el efecto de sustancias que puedan causar mutaciones celulares, por ejemplo, del humo del tabaco, poluciones ambientales, pesticidas en frutas y verduras. Además, detener las fortuitas copias erróneas genéticas que más tarde evolucionarán hacia el cáncer. Interceptar los radicales libres, moléculas errantes de oxígeno dejadas en libertad durante el metabolismo normal, porque pueden dañar a las células y propiciar el desarrollo de mutaciones genéticas. Investigar drogas que sean tóxicas para las células tumorales y poco agresivas para las células normales, y que induzcan inhibición de la expresión de genes que favorecen la proliferación desmedida de la célula tumoral, como el oncogén K-ras; conjuntamente, abatir las expresiones de los oncogenes de la familia Bcl-2, que son antiapoptóticos, e incrementar la expresión de los oncogenes, de esta misma familia que son proapoptóticos, para lograr la destrucción del tumor maligno de pulmón. Ésta es una esperanza cada vez renovada en la cura del cáncer pulmonar.


Carmen Martha Elinos-Báez

Referencias

1

2

3

4

5

6

7

8

9

10

11

12

“Registro Histopatológico de Neoplasias en México” (1999). Compendio/Mortalidad y Morbilidad/1999. Dirección General de Epidemiología. Secretaría de Salud Pública. Rivero Serrano, O. (1998). “Componentes del Tabaco”. Neumología. Sexta reimpresión. Ed. Trillas, 1988–1998, México, pag. 168. Bird, A. (2002). “Methylation patterns and epigenetics memory”. Genes Dev., 16: 6–21. Mitsudomi, T., Lam, S., Siracusa, T. et al. (1993). “Detection and sequencing of p53 gene mutations in bronchial biopsy samples in patients with lung cancer”. Chest, 104: 362–365. Trosko, J. E., Ruch R.J. (1998). “Cell-Cell communication in carcinogenesis”. Frontiers in Bioscience, 3, d208–236. Soria, J. C., Rodríguez, M., Liu, D. D., Lee, J. J., Hong WK. and Mao, L. (2002). “Aberrant promoter methylation of múltiple genes in bronchial brush samples from former cigarette smokers”. Cancer Research. 62: 351–365. Chan, E. C., Lam, S. Y., Tsang. K. W., Lam, B., Ho, J. C., Fu, K. H., Lam. W. K. and Kwong YL. (2002) “Aberrant promoter methylation in chinese patients with non-small cell lung cancer: patterns in primary tumors and potential diagnostic applications in bronchoalveolar lavage”. Clinical Cancer Research. 8: 3741–3746. Burbee, D. G., Forgacs. E., Zöchbauer-Müller S., Shivakumar L. et al. (2001) “Epigenetic inactivation of RASSF1A in lung and breast cancer and malignant phenotype supression”. Journal of the National Cancer Institute. 93: 691–699. Gilliland, F. D., Harms, H. J., Crowell, R. E., Li, Y. F., Willink, R. and Belinsky, S. A. (2002) “Glutathione S-transferase P1 and NADPH Quinone Oxidoreductase polymorphism are associated with aberrant promoter methylation of p16 and O6methylguanine-DNA methyltransferase in sputum”. Cancer Research. 62: 2248–2252. Litzky, L. A. (1998) The pathology of non-amall cell lung carcinima, in Fishman AP (ed): Fishman´s Pulmonary Diseases and Disorders, Vol. 2, New York, International Edition, Mc Graw Hill, pp. 1739–1758. Rivero Serrano, O. (1998) “Datos clínicos sospechosos de cáncer”. Neumología, Sexta reimpresión. Ed. Trillas, 1988–1998. México, p. 211. Richardson, G. E., Johnson, B. E. (1993) “The biology of lung cancer”. Semin. Oncol. 20: 105–127.

23



Tuberculosis, una enfermedad que se transmite por vía aérea Carmen Martha Elinos-Báez Departamento de Medicina Genómica Instituto de Investigaciones Biomédicas Facultad de Química, UNAM

Resumen La vacunación con BCG presenta variabilidad en su eficacia contra la infección por M. tuberculosis, como lo muestran las pruebas controles realizadas que van del 80 al 0% de protección, y que indican la necesidad de nuevas estrategias de vacunación, con adición de proteínas inmunoprotectoras o genes que proporcionen protección contra la tuberculosis y que puedan ser clonados al genoma de M. bovis o antígenos micobacterianos inmunoprotectores, para lo cual se analizó la respuesta de individuos sanos, PPD+, PPD- de alto riesgo y de enfermos con tuberculosis no tratada a los antígenos nativos de SOD (23 kDa) p28, Fn30-31 y Gp38 kDa. Con estas proteínas se realizaron, in vitro, curvas dosis-tiempo-respuesta de los linfocitos de sangre periférica de los individuos en estudio: Sanos de alto riesgo y enfermos tuberculosos, para conocer su respuesta proliferativa y obtener líneas celulares con cada uno de los antígenos micobacteriales aislados, y determinar por ELISPOT las citocinas secretadas: IL-2, IL-4, IL-5 e IFN-g.

Resultados La respuesta blástica fue más intensa en los individuos vacunados que en los individuos no vacunados. También se observó que los individuos PPD+ presentaron mayor respuesta proliferativa al ser comparados con los PPD-, independientemente si habían sido o no vacunados; los pacientes con tuberculosis mostraron respuesta blástica muy disminuida comparada con la de los individuos sanos de alto riesgo. Las líneas celulares de estos últimos, produjeron niveles altos de IL-2 e IFN-g, indicativo de un perfil Th1 (inmunoprotector). Los enfermos presentaron heterogeneidad con niveles bajos en la producción de citocinas, predominando IL-4 e IL-5 consideradas citocinas permisivas para la infección.

25


Tuberculosis, una enfermedad que se transmite por vía aérea

Introducción La tuberculosis es una enfermedad infecto-contagiosa que se transmite por vía aérea al toser o hablar un enfermo con tuberculosis no tratada (Smith PG.,1994). Lo anterior, junto con otros factores, la hacen un problema de salud pública en todo el mundo (World Health Organization TB, 2005). La Organización Mundial de la Salud (OMS) considera que la tercera parte de la población mundial ha sido infectada por el bacilo de la tuberculosis (Tiruviluamala P., 2002), lo que implica una primera infección que puede pasar inadvertida y la posibilidad de vencer al bacilo sin tratamiento; pero ha despertado la respuesta inmune adaptativa y se le llama primoinfección; o puede presentarse la tuberculosis, por lo que el individuo debe someterse al tratamiento adecuado. Se ha observado que alrededor del 10% de estos casos llegan a desarrollar la enfermedad (American Thorasic Society, 2000). Además, puede darse el caso que al aplicar la vacuna BCG a un niño, esto coincida con una primoinfección que esté sufriendo sin darse cuenta, lo que reactiva al bacilo y desarrolla la infección tuberculosa en ese infante.

Breve historia de la tuberculosis

26

La micobacteria ha existido desde hace miles de años, y se ha observado al bacilo en estudios microscópicos realizados en fósiles de animales del periodo paleolítico. También se ha aislado en momias egipcias y de Perú, aunque se considera que en esos sitios y épocas la tuberculosis habría sido esporádica.

hombres a lugares donde vivían hacinados y en condiciones de higiene deplorables, que motivaron el desarrollo de epidemias, como la llamada peste blanca (tuberculosis), que diezmó a estas poblaciones. La colonización llevada a cabo por los países europeos, favoreció el traslado del bacilo activo a otras regiones del planeta. Por el año de 1679, Silvius, un médico francés, realizó autopsias en cadáveres que en vida habían padecido tuberculosis, y encontró lesiones características en el pulmón a las que dio el nombre de tubérculos. En 1862 otro investigador francés llamado Villemein, reprodujo la enfermedad en conejos, infectándolos con expectoraciones de pacientes tuberculosos. En 1882, el médico alemán Roberto Koch descubrió al agente etiológico de esta enfermedad. En 1924, dos investigadores, Calmette y Guérin obtuvieron una cepa atenuada de Mycobacterium Bovis, que utilizaron como vacuna (BCG), la cual se sigue utilizando hasta la fecha. Sin embargo, se sabe que a lo largo de muchas generaciones sometidas a la presión continua y selectiva del bacilo tuberculoso, se originaron resistencias a esta bacteria, lo que ocasionó niveles de morbilidad y mortalidad disminuidos. En las últimas décadas del siglo XX, estos niveles se elevan en forma alarmante, debido a la aparición de nuevas enfermedades inmunosupresoras (VIH+).

Cuando el hombre dejó de ser nómada y comenzó a vivir en grupos formando aldeas, hubo un mayor contacto entre esos humanos, transmitiéndose no sólo sus conocimientos, también sus enfermedades. Además, empezaron a domesticar animales del tipo rumiante, a los que protegían construyéndoles techos y encima de ellos alzaban sus chozas, lo cual favorecía un acercamiento entre hombres y otras especies. Posiblemente alguna micobacteria que ya existía en forma saprofita o patógena en los animales, pudo alojarse en el humano, y desarrollar la enfermedad, lo que permitió a través de generaciones, hacer del hombre su reservorio.

La protección conferida por la vacuna BCG va del 80 al 0%; se aplica una sola dosis de 500 mil U viables por vía intradérmica. El único indicio que se tiene para saber si se ha padecido una primoinfección es la lectura de la positividad de la cutirreacción del Mantoux a la tuberculina (PPD, derivado proteínico purificado), la cual se lee a las 48 horas después de su aplicación vía intradérmica en la cara frontal del antebrazo, midiendo el diámetro de la induración que se presenta a ese tiempo: Si el diámetro mide alrededor de 5 mm, se considera como una respuesta a la vacunación anterior con BCG; pero si el diámetro es de 10, 15 o 20 mm, está indicando que la persona ha tenido una primoinfección anterior a esta prueba (PPD+). Si el resultado es negativo (PPD-), indica que el individuo al que se aplicó la prueba no tiene memoria inmunológica para este bacilo.

En los años 384 a 322 (a. C.) vivió Aristóteles, quien ya tenía conocimiento de la enfermedad tuberculosa y daba curas para ella. En la Europa feudal, el inicio de la producción manufacturera en las pequeñas ciudades atrajo a muchos

El agente etiológico de la tuberculosis es Mycobacterium tuberculosis. Es un bacilo inmóvil, no esporulado, intracelular facultativo, aerobio estricto. La membrana celular constituida por la bicapa lipídica está rodeada por la pared celular


Carmen Martha Elinos-Báez

que consta de varias capas; una interna de mucósidos formada por péptido-glico-lípidos con péptidoglicanos intercalados, enseguida una capa de arabinogalactanas y luego una capa de ácidos micólicos y en la superficie externa, una capa de glicoproteínas. La estructura de la pared celular del bacilo le confiere la característica de ser ácidoalcohol-resistente, y para teñir al bacilo se utiliza un método especial llamado de Zielh-Nielsen. El estudio de la expectoración del paciente se llama baciloscopía, y con ella se preparan muestras en portaobjetos que al observar a través de un microscopio óptico, se ve al bacilo, ya sea aislado o formando empalizadas o cordones. La expectoración también se somete a un tratamiento especial para concentrar los bacilos y sembrarlos en el medio de Lowestein-Jensen, y obtener colonias de lento crecimiento. Las colonias obtenidas se tipifican por medio de reactivos bioquímicos para precisar su tipo: El bacilo de Koch es catalasa+ y como el bacilo sintetiza la enzima nitrorreductasa, disminuye los nitratos a nitritos; también produce abundante niacina. Este procedimiento es lento, sin embargo sigue utilizándose. Actualmente, se identifica al bacilo utilizando las herramientas de la Biología molecular, como el PCR, incrementando el ADN con oligosondas específicas para M. tuberculosis. También se pueden obtener las huellas digitales cromosómicas por la Técnica del Polimorfismo de Restricción de la Longitud del Fragmento, que son muy rápidas, aunque más costosas.

Antecedentes La enfermedad es multifactorial. Entre los principales factores que la favorecen están: Susceptibilidad individual, refiriéndose a los eventos genéticos de herencia mendeliana y a los eventos epigenéticos heredados no mendelianos, atribuidos a las variantes polimórficas entre los alelos de un individuo y a las impresiones genómicas (Cooke GS., 2001; Rossouw M., 2003; Ogus AC., 2004); falla en el apego terapéutico, debido a la gran cantidad de medicamentos que el enfermo debe ingerir diariamente, por lo menos durante un año, y cuando los síntomas de la enfermedad aparentemente han cedido, el enfermo abandona el tratamiento, permitiendo que el bacilo sea resistente a este medicamento; deficiencias nutricionales, incrementadas por las carencias económicas que impiden una alimentación correcta desde la infancia y además, viven en hacinamiento, favoreciendo el contagio de esta enfermedad; inmunosupresión inducida por enfermedades que comprometen la respuesta inmune: Diabetes, alcoholis-

mo, uso de corticoides, infecciones como el VIH+, edad, activación del eje hipotálamo-hipófisis-adrenal (Gann DS., 1985); los nichos de riesgo, los enfermos tuberculosos no tratados que viven en hacinamiento con sus familiares, las tolvaneras contaminadas con el bacilo tuberculoso debido a que el enfermo escupe directamente en el suelo; cepas del bacilo resistentes a los fármacos, las cuales se van originando a través del tiempo como un mecanismo de defensa de la micobacteria; falta de seguimiento del paciente tuberculoso por medicina preventiva, por pérdida de su localización, ya que el paciente cambia de domicilio pero no lo informa al centro de medicina preventiva. El enfermo tuberculoso no tratado, al hablar o toser elimina gotitas de flugh que portan bacilos y, por su tamaño de una micra, quedan flotando en el aire, los que pueden ser inhalados por una persona que pase por la zona. Los mecanismos de defensa del aparato respiratorio del ser humano se encuentran en la piel, en las fosas nasales y en todo el epitelio; sin embargo, el bacilo tuberculoso puede llegar hasta los alvéolos pulmonares y ser atrapado por los macrófagos alveolares que están intercalados entre las células epiteliales del alvéolo pulmonar. El desarrollo de la infección tuberculosa dependerá de la virulencia del bacilo, así como de la carga infectiva inhalada, y de la actividad microbicida del macrófago alveolar. Al entrar el bacilo tuberculoso al aparato respiratorio, llega a los alvéolos pulmonares donde los macrófagos alveolares lo internalizan por fagocitosis no opsónica, debido al reconocimiento de los receptores del complemento CR1, CR3, CR5 del macrófago por el bacilo tuberculoso (Melo MD., 2000), además, los receptores de manosa (RM) del macrófago reconocen a las glicoproteínas de la superficie del bacilo (Ehlers MR., 1998; Heldwein KA., 2002). El macrófago, al fagocitar al bacilo, activa vías de transducción de señales con elevación de la fosfolipasa D (Kusner DJ., 2000), que conduce a la liberación del ion calcio, el cual junto con la calmodulina (Malik ZA., 2001), activan a la cinasa II que interviene en la fusión del fagosoma lisosoma (Kusner DJ., 2001). También se estimula el receptor P2X para ATP extracelular y por vía extrínseca, se activa al complejo DISC (complejo de señalización inducible por muerte), para activar a la caspasa-9 y conducir a apoptosis al macrófago y al bacilo (Saunders BM., 2003; Suran LF., 2005). El macrófago alveolar actúa como APC para linfocitos T: CD4+ (Murray PJ., 1999), los cuales liberan, entre otras moléculas, IL-2 e INF (MacMicking JD., 2003) y el linfocito CD8+ (Lazarevic V., 2002) que libera Rab (guanosinatrifosfatasa-Ras, GTPasa-ras 33A), con actividad lítica para las vesículas del

27


Tuberculosis, una enfermedad que se transmite por vía aérea

macrófago con gránulos citotóxicos que al ser liberados destruyen al bacilo (Jacobsen M., 2005), los cuales, junto con TNF (Hernández-Pando R., 2004), radicales libres de oxígeno, peróxido de hidrógeno, óxido nítrico, peroxinitrilos, superóxido dismutasa liberados por el macrófago alveolar activado, atacan al bacilo. Los macrófagos alveolares con el bacilo tuberculoso muerto, se fusionan formando una célula gigante multinucleada con la información para encarcelar al bacilo y se rodea de macrófagos, linfocitos T, células NK, folículos linfoides (Ulrichs T., 2004) y se infiltra colágena fibrina, convirtiéndose en una pared de material caseoso (Sempowski GD., 1996; Caughey GH., 2001), formando el granuloma con lo que el huésped queda protegido (Cosma CL., 2004). A este proceso se le llama primoinfección, que pasa desapercibido y se lleva a cabo en la tercera parte de la población mundial.

28

Si al pasar los años el individuo sufre alguna enfermedad que compromete al sistema inmune, por ejemplo diabetes, VIH+, alcoholismo, etc., se va a reflejar en las células de la respuesta inmune inata y adaptativa (Flynn L., 2001), los linfocitos T y los macrófagos que ahora están inmunodeficientes eliminan otras moléculas dirigidas a la pared del granuloma, el cual se degrada por necrosis licuefactiva (Dannenberg AM., 1976), hay inflamación, fibrinolisis inducida por el factor micobacterial trealosa-6,6-dimicolato (Pérez RL., 1994) quedando al descubierto los bacilos. Si alguno de ellos se encuentra en estado latente, se activa (Zhang Y., 2004; Ulrichs T., 2005) y al ser fagocitado por un macrófago alveolar inmunodeficiente, el bacilo no es destruido (Malik ZA., 2000) y utiliza los nutrientes del macrófago para su proliferación agotándolo, y al romper la membrana se liberan, infectando a otros macrófagos. Estos macrófagos alveolares deficientes liberan prostaglandina E, TGF, IL-10, (Cadranel J., 1990; Olobo JO., 2001) que activan al eje hipotálamo-hipófisis-adrenal liberando cortisol que es un inmunosupresor, favoreciendo la formación de cavidades pulmonares (Van Crevel R., 2000) y el desarrollo de la tuberculosis activa, ya sea por contigüidad o porque la vía hematógena o linfática arrastre al bacilo a otros órganos infectándolos, dando origen a pleuritis, meningitis, tuberculosis ósea, renal, etcétera. La defensa efectiva está determinada por células del tipo Th1 liberando IL-2, IFN-g e IL-12 (Cooper AM., 1995; Zhang M., 1995). Las células tipo Th2 liberan IL-4, IL-5 e IL-10, que son permisivas para la infección. Se desea conocer la respuesta proliferativa y la producción de citocinas por los linfocitos T

de personas sanas y enfermas retados con las proteínas aisladas de M. tuberculosis, los cuales son antígenos que en estudios previos realizados en el laboratorio, demostraron ser biológicamente relevantes por su inmunogenicidad en ensayos de hipersensibilidad retardada en animales de laboratorio y por estudios serológicos en humanos.

Materiales y métodos

Cultivo y extracción de proteínas micobacteriales

M. tuberculosis cepa H37/Rv fue adquirida del cepario de la Escuela Nacional de Ciencias Biológicas del Instituto Politécnico Nacional (IPN), se cultivó durante seis semanas en el medio sintético de Proskawer y Beck, modificado por Youmans (PBY) (Youmans GP., 1949). Se separaron las bacterias por filtración al vacío con filtro de 0.22 μm (Millipore Corporation, Bedford, MA). Las proteínas del filtrado se precipitaron con sulfato de amonio. El precipitado obtenido se disolvió en agua bidestilada, siendo el extracto proteínico total (EPT), el cual se fraccionó por el método de Seibert (Seibert FB., 1949) del cual se extrajeron las proteínas de 28, Fn30-31 y Gp38 Kd. La proteína SOD (23 KD) se purificó por el método de Kusunose (Kusunose, 1976). Con las proteínas aisladas y purificadas, se realizaron Western blots, los cuales se revelaron con el SHI dirigido contra el EPT. Con el EPT se inmunizó un conejo (Nueva Zelanda de seis meses de edad), para obtener suero hiperinmune (SHI) dirigido contra el EPT. Obtención de células mononucleares de sangre periférica humana (CMNP)

Se obtuvieron células de cuatro individuos sanos: Dos PPD+, uno vacunado y otro sin vacunar, y dos PPD-, uno vacunado y otro sin vacunar y cuatro pacientes con tuberculosis no tratada, proporcionados por el Instituto Nacional de Enfermedades Respiratorias (INER): Enfermo Núm. 1, varón, 23 años de edad, con tuberculosis progresiva no tratada; la radiografía de tórax mostró fibrosis en pulmón izquierdo y lesiones cavitadas en pulmón derecho. Enfermo Núm. 2, mujer, 60 años de edad, con diabetes, la radiografía de tórax indicó afección localizada unilateral y apical. Enfermo Núm. 3, varón, 64 años de edad, resistente al tratamiento con seis


Carmen Martha Elinos-Báez

años de evolución. Enfermo Núm. 4, varón, 25 años de edad, con infección temprana. De cada uno de ellos se obtuvo sangre periférica por punción venosa, la cual se trató con el anticoagulante heparina (Sigma), 10 U/ml de sangre. Las células mononucleares periféricas (CMNP) se obtuvieron por estratificación con Ficoll-Hypaque (Pharmacia Biotech. Uppsala, Sweden). Curvas dosis-tiempo-respuesta de CMNP

En placas de microtitulación de 96 pozos (Costar Brodway, Cambridge, MA), se cultivaron CMNP viables 2x105/100μl RPMI/pozo agregando 1 μg/pozo o 0.25 μg/pozo del EPT o de las proteínas purificadas de 23 o 28 o 30-31 o 38 kD. Control positivo: CMNP 2X105/ 100 μl RPMI/pozo con 0.1 μg/ pozo de fitohemaglutinina (Sigma). Control negativo: CMNP 2x105/ 100 μl de RPMI/pozo. Se incubaron a 37ºC, 5% de CO2 y 95% de humedad, para los tiempos de cinco, seis, siete, ocho, nueve y diez días. Agregando 20 horas antes de la cosecha, 0.5 μCi/pozo de [3H]-Timidina (Dupont NEN Products, Boston MA). Todas las incubaciones se realizaron por triplicado. Al término de cada cultivo, se utilizó un cosechador de células (Skatron Instruments. Sterling, VA) y se leyeron en un contador de centelleo b (Betaplate 1205 de Wallac Oy. Turku, Finland), para conocer la proliferación celular a través de la incorporación de timidina y determinar la respuesta blástica de individuos PPD+, PPD-, vacunados, no vacunados y de los enfermos con tuberculosis Núm. 1, 2, 3 y 4. Respuesta blástica de los enfermos a la fitohemaglutinina

CMNP 2X105/100 μl RPMI/pozo cultivadas con fitohema-glutinina 0.1 μg/pozo. Como control negativo CMNP 1x105/100 μl RPMI/pozo, por triplicado, incubados a 37ºC, 5% CO2 con humedad. Obtención de líneas celulares específicas de antígeno

En placas de 24 pozos (Costar), se cultivaron CMNP 1x106/300 μl RPMI/pozo agregando 40 μg/pozo de proteína (EPT o SOD o 28 o 30-31 o 38). Se incubaron a 37ºC, 5% de CO2 y atmósfera húmeda, hasta el día que se obtuvo la máxima proliferación indicada por las curvas dosis-tiempo-

respuesta para cada antígeno. Las células de cada pozo se aislaron con el gradiente Ficoll-Hypaque y se sembraron 5X105/100 μl RPMI/pozo y se agregaron APC mononucleares autólogas 1x106/40 μg del antígeno/80U IL-2 en 3 ml RPMI/ pozo. Se incubaron en las mismas condiciones anteriores, al quinto día se resuspendieron las células, dividiendo el contenido de cada pozo en dos pozos y agregando a cada uno 40U IL-2 en 2 ml de RPMI. Se repitió lo anterior cinco veces más, agregando, únicamente 40 μg del antígeno correspondiente en 2 ml de RPMI. Las líneas celulares se guardaron a -20ºC hasta su uso. La obtención de las líneas celulares específicas de antígeno de los enfermos tuberculosos, se observó que no proliferaban pero que sí permanecían viables, por lo que se cultivaron seis veces por 48 h con PHA 0.1 μg/100 μl RPMI/pozo y se siguió la técnica desde el aislamiento con Ficoll-Hypaque. Determinación de IL-2, IL-4, IL-5 e IFN-g por ELISPOT, secretadas por las líneas celulares obtenidas

El ensayo de ELISPOT ha sido de gran reproducibilidad, se utilizó para determinar el perfil de producción de citocinas por células secretoras en respuesta a su activación con antígenos específicos o mitógenos (Taguchi T., 1990). Brevemente se indica la técnica del ensayo: La cámara para ELISPOT (Bio-Rad) estéril fue cubierta con papel de nitrocelulosa esterilizado por luz UV y se forró la placa con los anticuerpos monoclonales específicos, incubándose a 37ºC toda la noche. La placa se bloqueó con PBS·BSA. Se adicionaron 5X104 células de la línea correspondiente/100 μl RPMI/pozo, APC 1x105/100 μl RPMI/pozo, 2 μg del antígeno correspondiente/100 μl RPMI/pozo. Se incubó 24 h a 37ºC, 5% CO2 y humedad. Se eliminaron las células, se agregó el anticuerpo policlonal anticitosina, incubando a 37ºC, 3 h. Se adicionó un tercer anticuerpo marcado con peroxidasa incubando a 37ºC, 2 h. Se agregó el desarrollador de color y se esperó de 10 a 15 min para que aparecieran los puntos oscuros o spots. Se retira el papel de nitrocelulosa de la placa y con un microscopio de disección se cuentan los puntos.

29


Tuberculosis, una enfermedad que se transmite por vía aérea

Figura 2.

Figura 1. Inmunoblot mostrando la purificación de las proteínas aisladas de Mycobacterium tuberculosis, reveladas con el suero hiperinmune (SHI), dirigido contra el extracto proteínico total (EPT).

Resultados 30

Pureza e identificación de los antígenos micobacteriales

Se realizaron Wester blots utilizando el SHI dirigido contra el EPT, mostrando la pureza de cada proteína aislada (Figura 1), las cuales se utilizaron para obtener las curvas dosis-tiemporespuesta y las líneas celulares específicas de antígeno.

La respuesta blástica de las CMNP de personas sanas de alto riesgo es elevada y heterogénea entre individuos y antígenos, mostrando los tiempos óptimos de proliferación celular necesarios para obtener las líneas celulares, siendo el máximo crecimiento del sexto al séptimo día para los PPD+ y del 8º al 9º día para los PPD, (Figura 2 A y B).

A) Respuesta proliferativa in vitro de CMNP 2x105/pozo, de un individuo PPD+, sano, vacunado, cultivadas con el antígeno indicado 1 µg/pozo (—o—) o 0.25 µg/pozo (- -o- -) y de un individuo PPD-, sano, vacunado, cultivadas con el antígeno indicado, 1 µg/pozo (—_—), o 0.25 µg/ pozo (- -_- -). Control positivo, CMNP de individuo PPD+ (—o—) y de individuo PPD- (- -_- -), ambas cultivadas con fitohemaglutinina 0.1 μg/pozo. Todas las líneas celulares mostraron una respuesta blástica definida con ligeras variaciones entre ellas. B) Respuesta proliferativa in vitro de CMNP 2X105/pozo, de individuo PPD+, sano, no vacunado, cultivadas con el antígeno indicado, 1 µg/pozo ( —o—) o 0.25 µg/pozo (- -o- -) y de un individuo PPD-, sano, no vacunado, cultivadas con el antígeno indicado, 1 μg/pozo (—_—), o 0.25 μg/ pozo (- -_- -). Control positivo, CMNP de individuo PPD+ (—o—) y de individuo PPD- (- -_- -), ambas cultivadas con fitohemaglutinina 0.1 μg/pozo. La respuesta blástica de los individuos sanos no vacunados es ligeramente menos intensa que la de los vacunados.

La respuesta blástica de los enfermos a la fitohemaglutinina fue muy abatida, mostrando máxima proliferación al noveno día, en comparación con la respuesta de un individuo sano PPD+ que fue al cuarto día. La respuesta del enfermo Núm. 3 fue prácticamente nula (Figura 3).


Carmen Martha Elinos-Báez

Figura 4.

Figura 3. Respuesta blástica in vitro de CMNP 2x105/pozo, de un individuo PPD+, sano y de los enfermos con tuberculosis Núm.1, No.2, Núm.3 y Núm.4, cultivadas con fitohemaglutinina 0.1 μg/pozo. Los enfermos presentaron una respuesta blástica a la fitohemaglutinina muy disminuida y el enfermo Núm. 3 presentó anergia a ella.

Los enfermos mostraron respuesta blástica baja, comparada con la respuesta de los sanos. El enfermo Núm.1 presentó anergia a todos los antígenos purificados, (Figura 4 A y B). Las líneas celulares específicas de antígeno de los enfermos requirieron más tiempo de los cultivos de sus células para obtener sus líneas celulares, en comparación con los individuos sanos. Producción de citocinas por las líneas celulares específicas de antígeno. En el Diagrama 1 se muestra la técnica del ELISPOT y en la Figura 5 se observan los spots vistos con el microscopio de disección. Los individuos sanos de alto riesgo sintetizaron concentraciones variables de IL-2 e INF-g exclusivamente indicativo de una subpoblación de linfocitos T del tipo Th1, inmunoprotector (Figura 6). Los enfermos con tuberculosis no tratada secretaron bajas concentraciones de interleucinas, algunos expresaron IL-2, IL-4 e IL-5, otros IL-2 e IFN-g, varios IL-4, IL-5, lo cual indica que pertenecen a las subpoblaciones Th0, Th1 y Th2 respectivamente (Figura 7), presentando heterogeneidad entre líneas y antígenos. Cada ensayo se realizó por triplicado.

A) Respuesta blástica, in vitro de CMNP 2X105/pozo a los antígenos indicados, 1 μg/pozo de los pacientes con tuberculosis, Núm. 1(—_—) y 2 (—o—). El enfermo Núm. 1 presenta anergia a los antígenos micobacterianos. El enfermo Núm. 2 tiene una respuesta baja en comparación con los individuos sanos de alto riesgo. B) Respuesta blástica, in vitro de CMNP 2x105/pozo a los antígenos indicados, 1 μg/pozo de los pacientes con tuberculosis, Núm. 3 (—_—) y 4 (—o—). Los dos enfermos presentan una respuesta blástica disminuida en comparación con los individuos sanos de alto riesgo. El enfermo Núm. 3 presenta anergia al antígeno p23 (SOD) y su respuesta a los demás antígenos es menor que la del enfermo 4. 31


Tuberculosis, una enfermedad que se transmite por vía aérea

Diagrama 1. Ensayo del ELISPOT: A. Fondo del pozo de la placa forrado con el anticuerpo monoclonal específico; B. Cultivo de la línea celular mostrando la captura de la citosina por el anticuerpo monoclonal en el momento que es exocitada por la célula; C. Eliminación de la línea celular del pozo; D. Incubación con el segundo anticuerpo específico; E. Adición del desarrollador de color.

32

Figura 5. Se muestran los puntos (spots) obtenidos por el ensayo de ELISPOT, vistos con un microscopio de disección. Resultados: A) negativo. B) positivo.

Figura 6. Se utilizó el ensayo de ELISPOT para mostrar in vitro la producción de las citocinas IL-2, IL-4, IL-5 e IFN-g por las líneas celulares (5 X 104) de individuos sanos: PPD+1 y PPD-2, no vacunados y PPD+3 y PPD-4 vacunados, inducidas por los antígenos 23(SOD), p28, Fn30-31 y Gp38, secretando niveles altos de IL-2 e IFN-g únicamente, indicativo de pertenecer al subtipo Th1, inmunoprotector. Se determinaron los valores basales de las CMNP cultivadas con PHA de los individuos sanos, mostrando niveles muy bajos en la producción de citocinas del subtipo Th0.


Carmen Martha Elinos-Báez

Discusión Dada la protección tan irregular conferida por la vacunación con BCG, una línea de investigación importante es, en la actualidad, la identificación de nuevas moléculas inmunoprotectoras para el diseño de nuevas vacunas o para ser adicionadas al BCG, ya sea como proteínas o como un gen que confiera protección contra la tuberculosis y pueda ser clonado al genoma de M. Bovis atenuado.

Figura 7. Se utilizó el ensayo de ELISPOT para detectar in vitro, células productoras de IL-2, IL-4, IL-5 e IFN-g por las líneas celulares (5 X 104) de enfermos con tuberculosis Núm. 1, Núm. 2, Núm. 3 y Núm. 4, inducidas por los antígenos 23(SOD), p28, Fn30-31 y Gp38, mostrando una producción de citocinas baja, comparada con los controles sanos y además secretaron IL-4 e IL-5 indicativo de subpoblaciones Th0 o Th2, permisivas para la infección tuberculosa. Se observó heterogeneidad entre los enfermos y entre los diferentes antígenos micobacteriales y se determinaron los valores basales de las CMNP, sólo cultivadas con PHA, de cada enfermo (expuestos a M. tuberculosis in vivo) expresando IL-4 e IL-5.

El análisis estadístico se llevó acabo con el paquete SPSS V.11, obteniéndose un valor de p<0.05. La respuesta inmune humoral tiene un papel muy pobre o nulo en la defensa del organismo contra la infección tuberculosa. Títulos altos de anticuerpos antituberculosos son un mal pronóstico para el paciente. El bacilo tuberculoso está eliminando moléculas constitutivas que van a ser reconocidas por los anticuerpos específicos, formando complejos inmunes solubles en la circulación sanguínea, y por esta vía pueden llegar al riñón, depositarse en la membrana glomerular causando daños por mecanismos de hipersensibilidad de tipo III. La respuesta inmune celular tiene un papel muy importante en la defensa del individuo contra la infección tuberculosa.

Asimismo, se obtuvieron células de sangre periférica de individuos sanos con diferente grado de exposición al bacilo tuberculoso, incluyendo sujetos PPD+, PPD-, vacunados y no vacunados, y pacientes con tuberculosis pulmonar no tratada en diversos grados de extensión. Existen observaciones que sugieren que la bacteria viva elimina moléculas que pueden inducir inmunidad protectora, y otras que son potentes inmunosupresores, por lo que se debe conocer la actividad de los antígenos micobacterianos antes de proponer su uso como vacuna. Se han identificado fracciones antigénicas de peso molecular menor de 10 kDa, proteínas de estrés calórico de 65 kDa, fracciones de 61-80 kDa con actividad inmunoprotectora que, en controles sanos y en pacientes tuberculosos, inducen in vitro linfocitos T, subpoblación Th1 productoras de INF-g e IL-2 (Boesen H., 1995; Méndez-Samperio P., 1995; Cooper A., 1995). En lo que concierne a la respuesta blástica, se puede decir que, independientemente del antígeno de prueba, las personas sanas vacunadas presentan una respuesta proliferativa más intensa que los individuos no vacunados aquí estudiados. El hallazgo anterior es de esperarse por la sensibilización inducida con la BCG, que generó una respuesta de memoria inmunológica, la cual también pudo haberse generado al sufrir una primoinfección que se resolvió favorablemente al no desarrollarse la enfermedad, y se observó mayor respuesta blástica en los individuos PPD+ que en los PPD-. Los pacientes con tuberculosis presentaron una respuesta blástica muy disminuida, tanto a fitohemaglutinina como a todos los antígenos, siendo proporcional esta supresión a la extensión y gravedad de la enfermedad. Este fenómeno fue muy marcado con el paciente Núm. 1, el cual tenía tuberculosis muy avanzada, observándose anergia a casi todos los antígenos, pero no a la fitohemaglutinina con la que se observó respuesta blástica aunque atenuada, lo cual podría deberse a que la lectina es reconocida por los carbohidratos de membrana, mientras que hay impedimento para

33


Tuberculosis, una enfermedad que se transmite por vía aérea

que los receptores del linfocito interaccionen apropiadamente con el antígeno. Las causas de la inmunosupresión en tuberculosis podrían ser, entre otras, un impedimento estérico por la presencia de complejos inmunes unidos a los linfocitos T, a través de los receptores para el fragmento Fc de las inmunoglobulinas o a la presencia de moléculas supresoras liberadas por el bacilo que inhiben la actividad de las células. También podría ser que los lípidos de la pared celular de la micobacteria estuvieran implicados en los fenómenos de inmunosupresión en la tuberculosis. Es de interés indicar que la anergia de los pacientes con tuberculosis parece ser reversible, porque se observó que al estimular repetidas veces a las células con el antígeno correspondiente y con fitohemaglutinina, se logró la proliferación celular suficiente con respuesta de líneas celulares; esto podría deberse a que las células cultivadas por tiempo prolongado logran liberarse de factores inmunosupresores que las recubre.

34

Para determinar el perfil de citocinas secretadas por las líneas celulares obtenidas de individuos sanos y de pacientes con tuberculosis, así como de sus estados basales respectivos, se utilizó el método del ELISPOT, el cual fue de gran reproducibilidad. Este método mostró que las líneas celulares de los individuos sanos, de manera regular e independientemente del antígeno utilizado, sólo secretaron IL-2 e IFN-g, lo que indicó que estos linfocitos pertenecen a una subpoblación de tipo Th1, inmunocompetentes, siendo esta protección una de las razones que no les permite desarrollar la enfermedad tuberculosa al presentarse una primoinfección, y proteger a los individuos de alto riesgo para no desarrollar la enfermedad. Llama la atención que los individuos PPD- vacunados y no vacunados presentaron una mayor producción de IL-2 e IFN-g. El perfil de síntesis de citocinas de pacientes de tuberculosis no tratados, muestra una marcada disminución de los niveles de producción de citocinas, lo cual fue más aparente en el paciente con tuberculosis muy avanzada. Se observa gran variabilidad entre los enfermos y entre, los antígenos, presentando subpoblaciones Th0 o Th1 o Th2 al secretar IL-2, IL-4, IL-5 o IL-2 e IFN o IL-4 e IL-5. La subpoblación Th2 es considerada permisiva para la infección tuberculosa.

Las células basales de los sanos, cultivadas por 24 horas con fitohemaglutinina, mostraron niveles bajos de producción de citocinas y un perfil de tipo Th0. Las células basales de los enfermos, cultivadas en la misma forma anterior, mostraron niveles bajos de producción de citocinas, siendo éstas del tipo Th2, permisivas para la infección, no olvidando que estas células ya están inducidas por el bacilo tuberculoso in vivo. Se concluye que los enfermos con tuberculosis presentan una alteración dramática en la respuesta inmune celular, que resulta en cambios cualitativos y cuantitativos tanto en la respuesta blástica como en la producción de citocinas, que favorece la persistencia de la infección tuberculosa en estos pacientes no tratados. En el organismo humano, puede combinarse la vacunación con BCG y la resistencia endógena por la presencia de un gen al que se le ha llamado Bcg (Kipnis, 2005), lo cual se comprueba con la producción de citocinas del tipo Th1 (inmunoprotector) secretados por los individuos sanos. Este gen Bcg también se encuentra en los murinos, en el cromosoma 1 en sus dos formas alélicas, Bcgs susceptible o Bcgr resistente. Skamene y colaboradores mostraron que este gen en humanos reside en el extremo telomérico del cromosoma humano 2q (Schurr, 1990). El gen Bcgr podría clonarse al gen de la vacuna BCG para incrementar la resistencia endógena en humanos. Además, se sabe que una dieta baja en colesterol aumenta el riesgo a desarrollar la tuberculosis. El colesterol es una molécula que utiliza el macrófago y los linfocitos para realizar sus funciones metabólicas, entre ellas las funciones de la respuesta inmune, así como incrementar la fagocito-sis del bacilo tuberculoso. Dietas altas de colesterol en los pacientes tuberculosos ayuda a vencer la enfermedad en menor tiempo (Pérez-Guzmán, 2005). Por otra parte, se sabe que las glándulas suprarrenales producen la hormona deshidroepiandrosterona, que induce la síntesis de IL-2 e IFN-g con lo que se acortan los tiempos de tratamiento de la infección. Esta hormona se ha sintetizado, observándose que mantiene la misma actividad que la nativa y tiene la ventaja de que al ser administrada no genera metabolitos androgénicos, por lo que podría ser incluida en el tratamiento antituberculoso (Hernández-Pando R., 2004).


Carmen Martha Elinos-Báez

Referencias

American Thoracic Society (2000). “Diagnostic standards and classification of tuberculosis in adults

and children”. Am J Respir Crit Care Med, 161: 1376-95. Boesen, H., Jensen, B., Wilcke, T., Andersen, P. (1995). Human T-cell response to secreted antigen

fractions of Mycobacterium tuberculosis Infection and Immunity, 63: 1491-1497. Buschman, E., Taniyama, T., Nakamura, R. et al. (1989). “Functional expresion of the Bcg gene in macrophages”. Res Immunol, 140: 793. Cadranel, J., Philippe, C., Pérez, J. et al. (1990). “In vitro production of tumour necrosis factor and prostaglandin E2 by peripheral blood mononuclear cells from tuberculosis patients”. Clin Exp Immunol, 81: 319-24. Caughey, G.H. (2001). “Chairman´s summary: mechanisms of airway remodeling”. Am J Respir Crit Care Med, 164: 526-7. Cooke, G.S., Hill, A.V. (2001). “Genetics of susceptibility to human infection disease”. Nat Rev Genet, 2: 967-77. Cooper, A.M., Flinn, J.L. (1995). “The protective immune response to M. tuberculosis”. Immunology, 7: 512-516. Cosma, C.L., Humbert, O., Ramakrishnan, L. (2004). “Superinfecting mycobacteria home to established tuberculous granulomas”. Nat Immunol, 5: 828-35. Dannenberg, A.M.Jr., Sugimoto, M. (1976). “Liquefaction of caseous foci in tuberculosis”. Am Rev Respir Dis, 1976; 113: 257-9. Ehlers, M. R., Daffé, M. (1998). “Interaction between Mycobacterium tuberculosis and host cell: are mycobacterial sugars the key?”. Trends Microbiol, 6: 328-35. Flyn, J.L., Chan, J. (2001). “Immunology of tuberculosis”. Annu Rev Immunol, 19: 93-129. Gann, D.S. et al. (1985). Neuronal interaction in control of adreno corticotrofina Fed Prog, 44: 161. Heldwein, K.A., Fenton, M.J. (2002). “The role of toll-like receptors in immunity against Mycobacterial infection”. Microbes Infect, 4: 937-44. Hernández-Pando, R., Aguilar, D., Hernández, M.L. et al. (2004). “Pulmonary tuberculosis in BALB/c mice with non-functional IL-4 genes: changes in the inflammatory effects of TNFa and in the regulation of fibrosis”. Eur J Immunol, 34: 174-83. Jacobsen, M., Repsilber, D., Gutschmidt, A. et al. (2005). “Ras associated small GTPasa 33A, a nobel T Cell Factor, is down-regulated in patients with tuberculosis”. The Journal of Infections Diseases, 192: 1211-8. Kipnis, A., Scott, I., Orme, I. M. et al. (2005). “Memory T lymphocytes generated by Mycobacterium Bovis BCG Vaccination reside within a CD4 CD44 CD62 ligandhi population”. Infection and Immunity, 73: 7759-7764. Kusner, D.J., Adams J. (2000). “ATP induced-killing of virulent Mycobacterium tuberculosis within human macrophages requires phospholipase D”. J Immunol, 2000; 164: 379-88. Kusunose, E., Ichihara, K., Noda, Y., Kusunose, M. (1976). “Superoxide Dismutase from Mycobacterium tuberculosis”. J. Biochem. 80: 1343-1352. Lazarevic, V., Flynn, J. (2002). “CD8+ T cells in tuberculosis”. Am J Respir Crit Care Med, 166: 1116-21. MacMicking, J.D., Taylor, G. A., McKinney, J.D. (2003). “Immune control of tuberculosis by IFN-ginducible LRG-47”. Science, 2003; 302: 654-9.

35


Tuberculosis, una enfermedad que se transmite por vía aérea

Malik, Z.A., Denning, G.M., Kusner, D.J. (2000). “Inhibition of Ca2+ signaling by Mycobacterium tu-

36

berculosis is associated with reduced phagosome-lysosome fusion and increased survival within human macrophages”. J Exp Med, 191: 287-302. Malik, Z. A., Iyer, S. S., Kusner, D. J. (2001). “Mycobacterium tuberculosis fagosomes exhibit altered calmodulin-dependent signal transduction contribution to inhibition of phago-some-lisosome fusion and intracellular survival in human macrophages”. J Immunol, 166: 3392-401. Melo, M.D., Catchpole, I.R., Haggar, G. (2000). “Utilization of CD4IIb knockout mice to characterize the role of complement receptor 3 (CR.CD11b/CD18) in the growth of Mycobacterium tuberculosis in macrophages”. Cell Immunol, 2000; 205: 13-23. Méndez-Samperio, P., González-García, L., Pineda-Fragoso, P. et al. (1995). “Specificity of cells in human resistance to M. tuberculosis infection”. Celular Immunology. 162: 194-201. Murray, P.J. (1999). “Defining the requirements for immunological control of mycobacterial infections”. Trends Microbiol, 7: 366-72. Ogus, A.C., Yoldas, B., Osdemir, T., et al. (2004). “The Arg 753Gln polymorphism of the human. Toll like receptor 2 gene in tuberculosis disease”. Eur Respir J, 23: 219-23. Olobo, J.O., Geletu, M., Demissie, A. et al. (2001).“Circulating TNF-g, TGF-b and IL-10 in tuberculosis patients and healthy contacts”. Scand J Immunol; 53: 85-91. Pérez-Guzmán, C., Vargas, M.H., Quiñónez, F. et al. (2005). “A colesterol-rich diet accelerates bacteriologic sterilization in pulmonary tuberculosis”. CHEST, 127: 643-651. Pérez, R.L., Roman, J., Staton, G.W. Jr. (1994). “Extravascular coagulation and fibrinolisi in murine lung inflammation induced by the mycobacterial cord factor trehalose-6,6dimicolate”. Am J Respir Crit Care Med, 1994; 149: 510-8. Rossouw, M., Nel, H.J., Cooke, G. S. et al. (2003). “Association between tuberculosis and polymorphic NFkappaB binding site in the interferon gamma gene”. Lancet, 361: 1871-2. Saunders, B.M., Fernando, S.I., Sluyter, R. et al. (2003). “Aloss of function polymorphism in the P2X7 receptor abolished ATP-mediated killing of mycobacteria”. J Immunol, 171: 5442-6. Schurr, E., Skamene, E., Morgan, K. et al. (1990). “Mapping of Co13a1 and Co16a3 to proximal murine chromosome 1 identifies conserved linkage of structural protein genes between murine chromosome 1 and human chromosome 2q”. Genomics, 8: 477. Seibert, F.B. (1949). “Isolation of three different proteins and two polysacharides from tuberculin by alcohol fractions their chemical and biological properties”. Am Rev Tuberc, 59: 86-101. Sempowski, G.D., Derdak, S., Phipps, R.P. (1996).“Inteleukin-4 and IFN-g discordantly regulate collagen biosynthesis by functionale distinct lung fibroblast subset”. J Cell Physiol, 167: 290-6. Smith, P.G., Moss, A.R. (1994). “Epidemiology of tuberculosis”. In Bloom BR. Tuberculosis: pathogenesis, protection and control. 1st ed. Washington DC, American Society for Microbiology, 47-59. Suran, L.F., Saunders, B.M., Sluyter, R. et al. (2005). “Gene dosage determines the negative effects of polymorphic alleles of the P2X7 receptor on adenosine triphosphatemediated killing of mycobacteria by human macrophages”. The Journal of Infection Diseases, 192: 149-55. Taguchi, T., Coffman, R.L., Kiyono, H. (1990). “Detection of individual mouse splenic T cells producing IFN-g and IL-5 using the enzyme-linked immunospot (ELISPOT) assay”. J Immunol Methods. 128: 65.


Carmen Martha Elinos-Báez

Tiruviluamala, P., Reichman, L.B. (2002). “Tuberculosis”. Annu Rev Public Health, 23: 403-26. Ulrichs, T., Cosmiadi, G. A., Trusov, V. et al. (2004). “Human tuberculous granulomas induce peripheral

lymphoid follicle-like structures to orchestrate local host defence in the lung”. J Pathol; 204: 217-28. Ulrichs, T., Kosmiadi, G.A., Jörg, S., Kaufmann, S.H.E. et al. (2003) “Differential organization of the local immune reasponse in patients with active cavitary tuberculosis or with nonprogressive tuberculoma”, The Journal of Infection Diseases, 192: 89-97. Van Creveld R., Karyadi, E., Preyers F. et al. (2000). “Increased production of interleukin 4 by CD4+ and CD8+ T cell from patients with tuberculosis is related to the presence of pulmonary cavities”. J Infect Dis, 181: 1194-7. World Health Organization. TB is a public health problem. Available at: http://www.whosea.org/tb/ publishealth.htm. Last accessed 15 August 2005. Youmans, G.P. (1994). J. Bacterial, 51: 703. Zhang, M., Lin, Y., Iyer, D. et al. (1995) T cell cytokine responses in human infection with Mycobacterium tuberculosis”. Infectium and Immunity, 63: 3231-3234. Zhang, Y. (2004). “Persistent and dormant tubercle bacilli and latent tuberculosis”. Front Biosci, 9: 1136-56.

37



Albert Einstein y el origen termodinámico de los cuantos de luz Enrique Ruiz-Trejo Departamento de Física y Química Teórica Facultad de Química, UNAM

Resumen En este trabajo hacemos un recuento de uno de los trabajos científicos más significativos de la ciencia moderna: La hipótesis corpuscular de la luz. Hacemos énfasis en el papel que tuvo la Termodinámica en esta teoría, y mostramos brevemente el camino tomado por Einstein para llegar a una visión corpuscular de la luz. Puesta en contexto, se aprecia la gran contribución hecha por Einstein, ya que en aquella época, la naturaleza de la luz estaba casi completamente entendida. Se pretende además destacar el contradictorio origen de dos de las teorías más sólidas de la ciencia moderna, la Mecánica Cuántica y la Teoría de la Relatividad. Se insiste en que el cisma creado por Einstein, en 1905, dejó intactos los fundamentos de la Termodinámica. Finalmente, se hace una invitación a la lectura del artículo original de Einstein.

Introducción Hace más de 100 años, Albert Einstein publicó cinco artículos que revolucionaron la ciencia y cambiaron la visión del universo como no había sucedido desde Newton. Por la gran trascendencia de esas publicaciones, 1905 se conoce como annus mirabilis o el año milagroso. El 2005 se denominó Año Mundial de la Física, en honor a esos trabajos de Einstein (Figura 1). El texto que aquí se presenta es una reseña del que Einstein mismo consideró en aquella época como el más revolucionario de sus trabajos, más que el de la Teoría de la Relatividad: El de la hipótesis corpuscular de la luz. Este texto es mejor conocido, pero imprecisamente llamado, Trabajo sobre el efecto fotoeléctrico.

39


Albert Einstein y el origen termodinámico de los cuantos de luz

Figura 1. El año 2005 se declaró Año Internacional de la Física, por la trascendencia de los trabajos de Einstein publicados 100 años antes. En la imagen, se muestra un sello postal francés que celebra al genio universal.

En 1905, Einstein tuvo logros maravillosos: Confirmó la existencia de los átomos, creó la Teoría de la Relatividad y con una extraordinaria visión e imaginación, diseñó un enfoque alternativo de la luz: La de los cuantos. A partir de esta última hipótesis, se sientan las bases de una de las teorías más completas de nuestra época: La Mecánica Cuántica.

40

El trabajo que el lector tiene en sus manos también trata de contestar brevemente la pregunta: ¿De dónde viene la ecuación central en la hipótesis cuántica de la luz E = hn? Esta ecuación, cuya simplicidad y belleza iguala a la otra más famosa E=mc2, se presenta en los salones de clase como resultado de un relámpago de genialidad, más que como producto de serias reflexiones (Figura 2).

Figura 2 a)

Figura 2 b) Figura 2. a) Einstein frente al pizarrón. b) La simplicidad de E=mc2 de la Teoría de la Relatividad y E = hv de la hipótesis corpuscular de la luz, aunada a la forma en que son presentadas en el salón de clases, hace a menudo pensar que son el resultado de una ocurrencia surgida del rincón oscuro donde los genios encuentran sus ideas sin esfuerzo alguno. En la figura de la derecha, en el pie de página, se hace un juego de palabras: To square away significa limpiar, escombrar, poner en orden. To square, por otro lado, significa elevar al cuadrado. De ahí la conexión con el abatido Albert Einstein que ha intentado elevar a diversas potencias la velocidad de la luz excepto al cuadrado. Un simple análisis dimensional le habría estropeado el chiste a Larsen, el autor de la caricatura.

Antecedentes: Lo que se sabía en 1905 Hay un cierto número de conceptos e ideas que ahora nos parecen enteramente normales, pero que en 1905 estaban lejos de ser ampliamente aceptadas. El concepto de átomo era una idea generalizada entre químicos, aunque tomada a menudo sólo como una hipótesis útil; la idea resultaba absurda para los físicos. Para quienes creían en la hipótesis atómica, no había un concepto sobre cómo eran los átomos o cómo estaban constituidos. Se sabía que la materia tenía una naturaleza eléctrica gracias a los trabajos de Faraday y Davy. Se había descubierto ya al electrón y se presumía que éste debía estar presente en toda la materia. Los intentos por describir todos los fenómenos físicos en términos de las tres leyes de Newton habían fracasado, por así decirlo, pero habían dado lugar a la Mecánica Estadística,


Enrique Ruiz-Trejo

Einstein trabajaba en 1905 en una oficina de patentes en Suiza, pues no había encontrado una posición en una institución académica. Fue desde esta oficina terrenal que Einstein se proyectó a la inmortalidad con los cinco trabajos que en 1905 revolucionaron la Física. En marzo publicó uno sobre la hipótesis cuántica de la naturaleza de la luz, conocido imprecisamente como el del efecto fotoeléctrico. Uno sobre la electrodinámica de los cuerpos en movimiento, que implica una modificación de los conceptos de espacio y tiempo. Un adendo a éste en donde aparece la ecuación más famosa del mundo: E = mc2. Otro sobre el movimiento errático que

6000 UV

donde S es la entropía, k es la constante de Boltzmann escrita originalmente como R/N donde R es la constante universal de los gases, N el número de Avogradro y W el número de microestados posibles. En esta ecuación se establece una conexión entre un mundo compuesto por átomos que pueden tener distintos tipos de arreglos energéticos y la Termodinámica macroscópica. La interpretación no fue aceptada y esto, aunado a una vida personal desafortunada, hizo que Boltzman se suicidara. La tumba de este profesor austriaco tiene irónicamente como epitafio S = klnW.

Aparte de los antecedentes previamente indicados, haremos referencia a un problema particular de la Física del siglo XIX: El cuerpo negro. Todos los cuerpos emiten radiación electromagnética a cualquier temperatura. Esta radiación es independiente de la naturaleza del cuerpo y sólo depende de la temperatura; únicamente es visible al ojo humano cuando el cuerpo incrementa su temperatura mucho más allá de la temperatura ambiente, y de forma gradual se observa rojo, rojo vivo y finalmente blanco. Parece contradictorio que un cuerpo “negro” se vea rojo o rojo vivo. Sin embargo, se le denomina negro a un cuerpo donde toda la energía que recibe es igual a la que emite. Un ejemplo de esto es un horno cerrado: Las paredes emiten radiación que no puede escapar porque el horno está cerrado. Ésta es justamente la aproximación experimental que se usó para determinar las propiedades físicas de un cuerpo negro ideal. (Figura 3a). Como se puede observar, la energía radiada depende de la temperatura y de la longitud de onda (o de la frecuencia). Tiene además un máximo que se corre a longitudes de onda corta al aumentar la temperatura. visible

S = klnW Ec. 1

siguen los copos de nieve, las partículas de polvo o el polen suspendido en agua, movimiento conocido como movimiento browniano. En éste prueba la existencia de los átomos y convence con el paso de los años hasta a los más escépticos de la teoría atómica. En una versión de su tesis doctoral, se enfoca en la determinación de los tamaños verdaderos de los átomos, con base en datos experimentales de difusión y viscosidad de soluciones diluidas.

Infrarrojo 2000 K

Densidad de energía / Jm-4

que es una búsqueda de la explicación de la Termodinámica a partir de la Mecánica de Newton y de la Estadística Matemática. Después de siglos de disputas –cuyos máximos exponentes fueron Newton y Huygens– Maxwell resolvió el problema de la naturaleza de la luz: Ésta es una onda y su comportamiento se puede describir en términos de las llamadas Ecuaciones de Maxwell. A la par, esta teoría demuestra que no todos los fenómenos físicos se pueden describir en términos de las tres leyes de Newton. También en 1905 se habían establecido las leyes de la Termodinámica clásica, la más joven de las cuales databa justamente de 1905, la tercera ley de W. Nernst. Hay que enfatizar que la Termodinámica clásica no necesita presuponer la existencia de átomos para ser una teoría coherente y terminada. Sencillamente no se consideraba que la hipótesis atómica fuese necesaria para entender el comportamiento de la materia. Ludwig Boltzmann hizo una interpretación microscópica de la Segunda Ley de la Termodinámica, que relaciona la entropía de un sistema con una probabilidad estadística de todos los microestados posibles. Esta relación aparece en su famosa ecuación de la entropía

4000 1750 K 1500 K

2000

1250 K

0

0

1

2

3

4

5

6

longitud de onda / �m

Figura 3. a) Un cuerpo caliente emite radiación electromagnética a distintas temperaturas. A muy altas temperaturas, se emite luz ultravioleta (p. ej. el Sol). A la temperatura del cuerpo humano se emite sobre todo radiación infrarroja, hecho que permite la detección de seres humanos con sensores de infrarrojo. La imagen de arriba muestra la distribución de las longitudes de onda a distintas temperaturas.

41


Albert Einstein y el origen termodinámico de los cuantos de luz

donde E es la energía de uno de estos paquetes de energía, h una nueva constante conocida actualmente como constante de Planck y n, la frecuencia de la radiación involucrada. Además, n = c/l con c como la velocidad de la luz. La Ec. 2, escencialmente la misma que la de Einstein cinco años después, es el resultado primeramente de un artilugio matemático. Esto es, Planck buscó y encontró, primero de manera empírica, esta expresión, aunque no tuviera significado físico para él.

El artículo revolucionario Figura 3. b) Imagen típica de IR para el cuerpo humano.

Ni la Mecánica de Newton ni el Electromagnetismo de Maxwell, ni la Termodinámica clásica que eran los pilares de la Física del siglo XX, podían explicar esta distribución de energías, aunque existieron diversos intentos. En particular, queremos destacar dos: Uno debido a Rayleigh y a Jeans, dos de los mejores físicos de su época, y una distribución empírica debida a W. Wien. Ninguna de estas dos descripciones ajustaba los valores adecuadamente en todas las regiones del espectro electromagnético. La ecuación de Wien para la densidad de energía U es: 42

U (l) = al -5

1 eb/lT

Ec. 2

donde a y b son constantes experimentales, T la temperatura y l la longitud de onda. En 1900, Max Planck resolvió el problema de la manera más inesperada al incluir una condición inédita hasta aquella época: Consideró que la energía de los osciladores en el cuerpo negro, que son responsables de la emisión y absorción de radiación electromagnética, no podía ser un continuo, sino que debía estar distribuida en paquetes de energía tales que,

Ec. 3

E = hn

En esta sección haremos un recuento del artículo de marzo de 1905 sobre la hipótesis cuántica de la luz. Einstein le escribió a un amigo en 1905: Te prometo cuatro ar tículos[…] el primero de los cuales podría enviar te pronto, puesto que pronto recibiré las copias gratuitas. El ar tículo trata de la radiación y las propiedades energéticas de la luz y es muy revolucionario, como tú verás[…]

El artículo referido apareció en marzo de 1905 en el Volumen 17 de la prestigiada revista alemana Annalen der Physik (Anales de Física) bajo el elegante título de Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz (Über einen die Erzeugung und Verwandlung des Lichtes Betreffenden heuristischen Gesichtspunkt). Veremos a continuación por qué el artículo es muy revolucionario (Figura 4).


Enrique Ruiz-Trejo

Uno de los detalles más fascinantes de toda esta historia es el hecho de que Einstein, al final de su artículo, llega a una conclusión en una época en que el conocimiento prevaleciente decía que la luz era una onda. Cabe preguntarse, ¿de dónde parte Einstein si no era necesaria una visión corpuscular de la luz? En unas líneas de una contundencia total, pero sencillamente bellas, Einstein escribe en el primer párrafo del artículo: […] por un lado tenemos una teoría electromagnética que describe todo en función de cantidades continuas. Por otro lado, consideramos átomos y electrones en cantidades grandes pero finitas […]

Esta aparente contradicción entre lo continuo y lo finito en la descripción del universo, parece no incomodar a nadie. El mismo Maxwell utiliza la discontinuidad en su Teoría Cinética de los Gases, pero considera la continuidad absoluta en su Teoría Electromagnética.

Figura 4 a)

Figura 4 b) Figura 4. a) Einstein como ícono revolucionario en la portada de una revista científica juvenil francesa. La idea de los cuantos de luz fue considerada en 1905 por él mismo como su trabajo más revolucionario, a pesar de que en ese mismo año publicó su primer artículo sobre relatividad. b) El índice de la revista. Annalender Physik de marzo de 1905.

La Termodinámica, y en particular la Termodinámica estadística, no eran ajenas a Einstein. Sus artículos de 1905 no son los primeros que escribió. Tenía ya en su haber algunos esfuerzos en el área de Mecánica estadística, ya que había publicado cinco artículos en esta revista, aunque no con la trascendencia de lo que vino después. Aunque de algún modo el problema del cuerpo negro estaba resuelto, Einstein enfrenta nuevamente el asunto de la siguiente manera. Empieza haciendo una crítica a la respuesta clásica al problema del cuerpo negro representada por la distribución de Rayleigh y Jeans. En particular, esta distribución encontrada también en ese mismo año por Einstein, tenía una consecuencia ridícula: A temperatura ambiente, todos los cuerpos deberían estar emitiendo radiación ultravioleta. A este resultado se le conoce ahora como Catástrofe del ultravioleta, pero lo peculiar de esta historia es que fue Einstein quien reparó en lo absurdo del resultado en su artículo de 1905. Después analiza el problema desde un punto de vista termodinámico. Primero define a la entropía como la integral continua y diferenciable de una función que depende de la temperatura y de la frecuencia de la onda. En segundo lugar, determina que la entropía debe ser un máximo si consideramos que el sistema está en equilibrio, es decir, aplica la Segunda Ley de la Termodinámica. En tercer lugar, sorpresivamente utiliza la ecuación de Wien (Ec. 2), que sólo sirve

43


Albert Einstein y el origen termodinámico de los cuantos de luz

para una región del espectro. En 1905, la solución de Planck al problema del cuerpo negro ya era ampliamente conocida. Sin embargo, esta ecuación que describe la dependencia de la densidad de energía con la frecuencia, no es utilizada por Einstein para no partir de la existencia de estos “cuantos” de energía. La decisión de Einstein de utilizar la ecuación de Wien no es azarosa, pues a partir de ella llegará a la misma conclusión que Planck. Con estos tres argumentos termodinámicos, Einstein se propone elucubrar cómo varía la entropía de este sistema si se comprime su volumen sin intercambio de energía con los alrededores. Para el lector interesado, recomendamos seguir una deducción más rigurosa,1 2 o sencillamente leer la versión comentada del artículo de Einstein. 3 Nos limitaremos aquí a presentar el resultado de la variación de la entropía para la compresión adiabática de un volumen que contiene radiación en equilibrio:

44

S – S0 =

E In bn

V V0

Aquellos lectores que recuerden sus cursos de Termodinámica, podrán encontrar esta ecuación familiar, ya que tiene la misma forma que el cambio de entropía para un gas ideal o una solución diluida. Esta ecuación es, S – S0 = (nR) In (

Vf ) V0

En el artículo que estamos analizando, Einstein introduce las ideas de Boltzmann que intentan encontrar una relación entre los átomos y las propiedades termodinámicas macroscópicas. Una de las grandes contribuciones de Boltzmann es su interpretación microscópica de la Segunda Ley de la Termodinámica. Como hemos mencionado, la probabilidad estadística jugó un papel importante en la interpretación de Einstein del problema. Finalmente, asumiendo la validez total de la interpretación microscópica de la Segunda Ley, Einstein encontró la ecuación que establece que la radiación está compuesta de pequeños paquetes con energía

Ec. 4

donde b es una constante de la ecuación de Wien para el cuerpo negro, E es la energía, n la frecuencia y v es el volumen que contiene a la radiación antes y v0 después de la compresión.

Electromagnética de Maxwell. También esta pregunta implica la certidumbre de la existencia de los átomos. No hay que olvidar que en 1905 la hipótesis atómica no estaba enteramente aceptada. Sin embargo, es el mismo Einstein quien en ese año milagroso presentó evidencias sobre la existencia de los átomos con sus trabajos sobre el movimiento browniano y la determinación del tamaño de las moléculas.

Ec. 5

donde i denota el estado inicial, f el final, n el número de moles y R la constante de los gases. Al ver la similitud de las dos ecuaciones, la gran pregunta aquí es: Si de acuerdo con la Teoría Cinética un gas se puede visualizar como un grupo de partículas en continuo movimiento, ¿por qué la radiación no? En esta cuestión está implícita una confianza total en la Termodinámica, ya que en sí misma es un reto a la todavía relumbrante Teoría

R Ec. 6 IIE = bn – P N Ya que b = h/k y R/N = k, en notación moderna

Ec. 7 Ek = hn – w Aquí escribimos la ecuación en términos modernos, pero Einstein no utilizó la constante h explícitamente. Hasta esta deducción sólo existe especulación pura, un brillante ejercicio de la imaginación, ¿pero qué tan en serio había que tomar tal conclusión? Einstein arremete con gran fuerza a continuación, para dar paso a una serie de explicaciones que tal visión heurística puede dar a tres fenómenos: La Ley del Corrimiento de Stokes, la ionización del aire y el más conocido de todos, el efecto fotoeléctrico. La luminiscencia es un término que describe la emisión de luz después de que un material ha sido excitado con energía luminosa. La Ley del Corrimiento de Stokes establece para la frecuencia n que


Enrique Ruiz-Trejo

nemitida < nabsorbida

Ec. 8

Esta observación experimental tiene una explicación sencilla, cuando se considera que la luz está compuesta de cuantos de energía. Al ser absorbidos éstos, parte de la energía puede transferirse al material –como calor, por ejemplo– y el resto se re-emite como una luz de frecuencia más pequeña. Como en el caso del efecto fotoeléctrico que veremos a continuación, la luz de baja intensidad no impide el fenómeno de luminiscencia; aún más, la intensidad de la luz emitida será proporcional a la luz absorbida (Figura 5).

U

E

el fenómeno fotoeléctrico con casi todas sus características. Figura 5. Un fotón de suficiente energía hn puede expulsar a un electrón de la superficie con energía cinética Eel. Para que esto suceda, debe existir una frecuencia o energía umbral W, necesaria para arrancar el electrón de la superficie metálica. La ecuación que describe la energía cinética de los fotoelectrones es:

Eel = hn – W

Ec. 9

donde hn es la energía de los cuantos de luz incidentes.

Esta ecuación que apareció en la justificación para otorgarle el Premio Nobel de Física a Einstein, explica las propiedades del efecto fotoeléctrico. La fórmula, que representa una recta, era también una predicción de lo que se debería observar: La relación entre la energía cinética de los electrones y la frecuencia de la luz es independiente del metal utilizado. (Figura 6).

b a

w

To pump

Earth B w

*L 45 Figura 5. Esquema de P. A. von Lenard para su experimento sobre el efecto fotoeléctrico. La fuente de luz está en L, el haz incide sobre la placa metálica en U. Los electrones expulsados, son después colectados en a. El equipo debe estar en vacío utilizando una bomba (To pump). E es una rejilla para dejar pasar sólo un haz pequeño. La línea punteada indica un magneto usado para desviar los electrones.4

La explicación del efecto fotoeléctrico, utilizando una visión corpuscular de la luz, ocupa sólo una pequeña sección del trabajo original de Einstein. La Física clásica no podía explicar por qué al iluminar un metal se producía inmediatamente un haz de electrones. Esta emisión ocurre, sin embargo, sólo si la luz se encuentra por encima de cierta frecuencia umbral. Si consideramos que la luz está compuesta de corpúsculos, cada uno con energía E = v, entonces podemos entender

Figura 6. Imagen original del trabajo de Millikan donde se muestra la validez de la ecuación de Einstein.5 La primera línea del recuadro puede ser reconocida por el lector: La energía cinética de los fotoelectrones iguala a n y P es el trabajo necesario para arrancar al electrón del metal. La última cifra del recuadro también debe ser reconocida por el lector: La constante de Planck en unidades de Js. Las abscisas tienen la frecuencia y las ordenadas expresan el potencial eléctrico necesario para frenar los fotoelectrones. Este potencial es una medida directa de la energía cinética.


Albert Einstein y el origen termodinámico de los cuantos de luz

Finalmente, en la última sección del artículo, Einstein explica teóricamente el voltaje necesario para ionizar el aire y lo hace nuevamente asumiendo que una molécula de gas debe absorber un cuanto de energía de luz de frecuencia suficientemente grande para llevar a cabo este proceso. Esto, nuevamente en contradicción con la teoría clásica del Electromagnetismo.

Comentarios sobre el artículo Es importante enfatizar algunas características de este artículo. En primer lugar, lo sorprendentemente simple del punto de inicio. Einstein parte de una contradicción en la descripción de lo continuo y lo discreto. Esta discontinuidad no parece incomodar a nadie, incluso el mismo creador de la Teoría Electromagnética Ondulatoria, Maxwell, utiliza un concepto de discontinuidad en la Teoría Cinética de los Gases.

46

De aquí la importancia de hacerse preguntas en la solución de problemas o el desarrollo de nuevos modelos. El término heurístico justamente resalta la naturaleza hipotética de la propuesta de Einstein: Hay que cuestionar, proponer, criticar, ensayar y errar para buscar soluciones. En este caso, la propuesta heurística de Einstein ha permanecido intacta en cuanto a las explicaciones de los fenómenos que involucran a la generación y transformación de la luz. El término heurístico no está de más, la propuesta era sólo eso, una propuesta, y aunque se considera el modelo como completo, irónicamente Einstein no consideró la respuesta como definitiva. En 1955 expresó: Todos estos cincuenta años de reflexiones intensas no me han llevado más cerca de la respuesta a la pregunta, ¿qué son los cuantos de luz?

Otro punto importante a resaltar es la visión opuesta que tenían Planck y Einstein sobre la naturaleza de los cuantos. Para Planck los cuantos eran un artilugio matemático, para Einstein, una propiedad intrínseca de la radiación. Se ha escrito con frecuencia que Einstein utilizó las ideas de Planck en su hipótesis cuántica de la luz. Sin embargo, una lectura cuidadosa del artículo orginal revela que Einstein nunca partió de la ecuación de Planck del cuerpo negro para obtener sus conclusiones. Ciertamente, utiliza esta ecuación en un solo

párrafo del trabajo, probablemente con la única finalidad de hacer evidente la naturaleza universal de los cuantos de luz. Einstein llega a la misma ecuación que Planck, pero no la escribe en términos de h, sino como Rbn/n, a pesar de que en 1905 la constante h era conocida ampliamente. Hay que recordar la importancia que tuvo h en la solución a la ecuación del problema del cuerpo negro. Otro comentario pertinente es que los cuantos de luz o fotones tienen como origen a la Termodinámica. Esto sorprende a los estudiantes, ya que dos temas tan distintos como la Termodinámica y la naturaleza de la luz parecen no tener nexo alguno. Sin embargo, esta aparente separación es ficticia, el universo está lleno de fenómenos y los humanos hemos desarrollado teorías para entenderlo. Los métodos de una y otra pueden combinase o estar íntimamente relacionados. El caso que tratamos en este trabajo es un ejemplo clarísimo de cómo tratar los problemas de una teoría (Electromagnetismo) con los métodos de otra (Termodinámica). Como indicamos al principio, este artículo es conocido como el “del efecto fotoeléctrico” con poca precisión. Ciertamente, a Einstein se le otorgó el Premio Nobel por este trabajo e incluso la ecuación E = hn – W aparece en la mención hecha por la Real Academia Sueca. En 1921, la Teoría de la Relatividad no había sido aceptada enteramente por la comunidad científica, pero de alguna forma se tenía que reconocer el aporte científico de Einstein. Es así que se tomó la hipótesis cuántica de la luz y no otra teoría. Al menos la evidencia experimental dada por Millikan en 1913 era más antigua que la evidencia experimental (el eclipse solar de 1919) sobre la Teoría de la Relatividad. Sobre las opiniones que generó su teoría nos limitaremos a mencionar algunas muy peculiares. Por ejemplo, en 1913 para apoyar su ingreso a la Academia Prusiana de Ciencias, Max Planck habló a favor de Einstein con las siguientes palabras: […] que algunas veces haya exagerado en sus especulaciones, por ejemplo en su hipótesis sobre los cuantos de luz, no se le debe tomar en su contra.

Casi diez años después de publicada la propuesta de Einstein, Millikan publicó un artículo en el cual establece la validez de la ecuación de Einstein.5 Al respecto, Millikan declaró:


Enrique Ruiz-Trejo

Me tomó 10 años de mi vida poner a prueba aquella ecuación de Einstein de 1905, y contrariamente a mis suposiciones, en 1915 estuve obligado a declarar su verificación certera a pesar de su

vez alcanzado el equilbrio; sin embargo, en la Teoría de la Relatividad el tiempo no puede excluirse. ¿Cómo se modifica entonces la Termodinámica para sistemas fuera del equilibrio?

irracionalidad, dado que parecía violar todo lo que sabíamos acerca de la interferencia de la luz.

A manera de epílogo: Una invitación a la lectura

Preguntas para reflexionar y conclusiones Podemos hacer un simple diagrama del cisma de 1905 creado por Einstein con sus artículos. Crítica al Electromagnetismo

- Mecánica Cuántica

Crítica a la Mecánica Newtoniana - Teoría de la Relatividad Crítica a la Termodinámica

- ?

Se debe observar además una contradicción: Para crear la Teoría de la Relatividad, se tiene que aceptar la validez total del Electromagnetismo de Maxwell y hacer una crítica de la Mecánica de Newton. Por otro lado, la hipótesis corpuscular de la luz requiere reconocer que la Teoría Ondulatoria de la luz no explica todos los fenómenos electromagnéticos. Es importante reconocer entonces, que la Mecánica Cuántica y la Teoría de la Relatividad tienen un punto de partida distinto: Para una la invalidez parcial del Electromagnetismo, y para la otra la validez total del mismo. Los trabajos de Einstein de 1905 en relatividad y en hipótesis cuántica son incompatibles. Entonces, ¿cómo podemos hacer enteramente compatibles la Mecánica Cuántica y la Teoría de la Relatividad? Enfatizamos aún más: Del cisma de 1905, sólo los fundamentos de la Termodinámica quedaron intactos. Esperamos que los lectores puedan preguntarse qué puede surgir de la crítica a la Termodinámica. Invitamos al lector a cuestionar los conceptos prevalecientes de esta época de la misma forma que Einstein lo hizo. Podemos, por ejemplo, cuestionar que Einstein utilizó funciones continuas y diferenciables para llegar a una teoría de la luz con elementos discretos de energía. ¿Por qué no usar funciones que no sean continuas, sino discretas como los cuantos de luz que tratamos de representar? Einstein también utilizó sistemas en los cuales el tiempo no juega un papel preponderante una

Hay una cierta magia en ver un documento original que ha hecho historia, ya sea la Declaración de los Derechos del Hombre o los Principia Mathematica de Newton. En ciencia esto es particularmente dramático, porque un artículo relativamente corto puede influir el curso subsecuente de la ciencia y por ende de la sociedad. Sin embargo, no es fácil tener acceso a estos artículos. El trabajo que hemos analizado aquí fue escrito en alemán, como la mayor parte de la vieja Mecánica Cuántica. Existen traducciones al inglés; sin embargo, este trabajo también es una invitación a leer el artículo original de Einstein en español que puede ser encontrado en la referencia3. La invitación va dirigida sobre todo a los jóvenes estudiantes con la esperanza que este escrito les despierte la curiosidad sobre el trabajo original y estimule su creatividad (Figura 7).

47


Albert Einstein y el origen termodinámico de los cuantos de luz

Figura 7 a)

48

Figura 7 b)

Figura 7a). Octavio Paz y Albert Einstein 7b) tienen dos cosas en común: Uno, ambos ganaron el Premio Nobel. El primero de literatura (1990) y el segundo de Física (1922). Dos, todo el mundo los cita, pero casi nadie ha leído sus trabajos.

Agradecimientos Fundación Alexander von Humboldt, Alemania, M en C Rubén Zárate, Dra. Lena Ruiz, FQ-UNAM.


Enrique Ruiz-Trejo

Referencias

1 2

Klein, M. J. (1963) “Einstein´s first paper on quanta”. The natural philosopher. 2. 59-86. García-Colín, L. (1987) La naturaleza estadística de la teoría de los cuantos, Colección CBI, UAM

Iztapalapa, México, pp. 51-66. 3

Ruiz-Trejo, E. (2005) Einstein, “La termodinámica y la naturaleza de la luz”, Bol. Soc. Mex. Fís. 19, 3,

4

Von Lenard, P. A. (1967) “On cathode rays” en Nobel Lectures, Physics 1901-1921, Elsevier Publishing

5

Millikan, R. A. (1916) “A direct photoelectric determination of Planck´s ’h’”. Phys. Rev. 7, 355–388.

151-164. Company, Amsterdam.

49



Los infinitos, El paraíso de Cantor Ángel Tamariz Mascarúa Facultad de Ciencias, UNAM

¡El infinito! Ningún otro problema ha conmovido tan profundamente el espíritu del hombre. David Hilbert

Introducción Una intuición que no es extraña al espíritu humano es la sensación de que formamos parte de una realidad que va más allá de lo que pueden percibir nuestros sentidos. Cuando tenemos la suerte de gozar las imágenes mágicas de estrellas o galaxias, que en la actualidad los grandes telescopios son capaces de transmitirnos, 8 y 15o cuando tenemos la oportunidad de disfrutar las imágenes de lo muy pequeño, como el tejido celular del volvox aureus o las primeras células de la formación de un ser humano en el útero materno (véase por ejemplo, el trabajo fotográfico de Fritz Goro9 y Lennart Nilsson,19 y estamos conscientes de que lo pequeño, las células, están formadas por partes más elementales y diminutas como los organelos, que lo están por proteínas y ácidos nucléicos, y éstas a su vez se constituyen por partículas aún más pequeñas (moléculas, átomos); entonces se nos presenta con fuerza la visión de nuestro universo inmenso, e inmerso, ¿por qué no?, en otros universos conteniendo realidades inimaginables. Estas sensaciones ya las expresaban Kant y Shakespeare en formas diversas: La fábrica del mundo nos produce un silencioso asombro por su inmensa grandeza y por la variedad y la belleza infinitas que por todas partes resplandecen en ella. (Emmanuel Kant, Historia general de la naturaleza y teoría del cielo 6). Oh Dios, podría estar inmerso en una cáscara de nuez y sentirme rey del espacio infinito. (Hamlet, II,2).

51


Los infinitos, El paraíso de Cantor

(I) Podríamos intentar dar una primera definición de infinito, al decir que es la palabra con la cual designamos la sensación del espíritu, que percibe que la realidad limitada por nuestros sentidos no es toda la realidad. Así, el infinito sería el producto de una experiencia sublime, ya sea estética, científica, mística, poética o amorosa: Beso a beso recorro tu pequeño infinito (P. Neruda18).

Esta definición depende de las sensaciones de cada uno de nosotros. Es una definición emocional, mística. La experiencia de lo infinito aparece definitiva e insistentemente, conservando sus características del infinito emocional que definimos en (I), cuando nos acercamos a la Geometría y a los números, cuando hacemos Matemáticas. Recordemos, por ejemplo, el problema de los segmentos de recta que no pueden ser comparables usando una unidad común (Figura 1); es éste el problema de los números irracionales. ¿Qué significa una magnitud que necesita, para ser definida, una sucesión infinita de aproximaciones por medio de números conocidos? Este problema ya lo habían observado los pitagóricos cuando descubrieron la raíz cuadrada de 2. Es también el caso de π; un número cercano a él es 52

3.141592653589793238462643383279502884197169 En la actualidad, usando computadoras, se han podido obtener aproximaciones a π cuya representación decimal se expresa con hasta más de 50 mil dígitos.

Figura 1. Si aproximadamente el segmento de longitud √2 por segmentos de longitud racional, no lograremos cubrirlo por medio de un proceso finito.

Recordemos también las famosas paradojas de Zenón de Elea (495-435 a.C.), que plantean, de manera contundente, las dificultades que los procesos infinitos crean entre la rea-

lidad lógica y la realidad física. Una de ellas: Aquiles, el héroe griego, y una tortuga deciden medir sus habilidades e inician una carrera. Aquiles le da ventaja a la tortuga permitiéndole que inicie la carrera en una posición más adelantada. Resulta entonces que, bajo estas condiciones, Aquiles jamás podrá alcanzar a la tortuga, pues cuando Aquiles llegue al lugar en donde la tortuga comenzó la carrera, ésta estará adelante de él, y cuando Aquiles alcance este segundo punto que ya tocó la tortuga, ésta estará en algún lugar adelante, etcétera (Figura 2). Y Zenón concluye que el movimiento no existe.

A

t A

meta t A

meta t

meta

Figura 2. Aquiles nunca alcanzará a la tortuga (y ambos no llegarán nunca a la meta.

Posteriormente, en el siglo XIX, Peano define a todos los números naturales por medio de una colección finita de axiomas, esto permite decidir muchas propiedades matemáticas por medio de la llamada inducción matemática. Por fin, es el matemático alemán Georg Cantor (1845-1918) quien resuelve de manera magistral el problema de lo infinitamente grande, a finales del siglo XIX. Es precisamente sobre lo infinitamente grande y las ideas de Cantor al respecto, sobre lo que trataremos en este escrito. Reflexionaremos prime-ro sobre los conjuntos, los números y lo que significa contar y comparar números. En las secciones 9 y 10, platicaremos sobre el problema del continuo, y en la última sección hablaremos de infinitos gigantes e infinitos pequeños. Recordemos que a ≤ b significa que a es menor o igual que b; a < b significa “a es estrictamente menor que b”; a ∈ A quiere decir que el objeto a es un elemento del conjunto A; a ∉ A debe leerse “a no pertenece a A”, y a ≠ b como “a es diferente de b”; los símbolos {a,b,c,d} y {a ∈ A : a satisface ℘} se usan para denotar al conjunto que contiene solamente los objetos a, b, c y d, y al conjunto de elementos del conjunto A que satisface la propiedad ℘, respectivamente.


Ángel Tamariz Mascarúa

Números y conjuntos En Matemáticas se trabaja con símbolos, números, objetos geométricos, como los triángulos o las rectas, o los puntos de un plano. También, y principalmente, se trabaja con conjuntos formados por objetos matemáticos, como 1. El conjunto de los primeros 5 números naturales: {1, 2, 3, 4, 5}. 2. La colección de los números que dividen al número 12: {1, 2, 3, 4, 6, 12}. 3. La colección de circunferencias que pasan por dos puntos diferentes a y b en el plano. 4. El conjunto de los números naturales N = {1, 2, 3,..., n, n+1, ...}. 5. El conjunto de los puntos en una recta (Figura 3). Precisamente a los puntos de esta recta les llamamos los números reales, y denotamos a este conjunto con el símbolo R.

Otros ejemplos de conjuntos son las funciones: Una función f definida en un conjunto A y con valores en un conjunto B es un conjunto {(a,f(a)) : a ∈ A} contenido en A × B de tal forma que a cada a ∈ A le asociamos un solo elemento f(a) en B (Figura 4). A partir de los ejemplos aquí planteados, podemos dar una primera clasificación de los conjuntos. Algunos tienen la peculiaridad de que sus elementos pueden ser escritos o representados gráficamente de manera exhaustiva. Éste es el caso de {1,2,3,4,5} o es el caso del conjunto de rectas que pasan por cuatro puntos fijos en el plano. En cambio, si tratamos de escribir todos los números naturales uno después de otro, nos convenceremos rápidamente de que esto es imposible. Es decir, nuestros sentidos no pueden percibir, usando el tiempo y el espacio en donde vivimos, a todos y cada uno de estos números.

B

f (a) 0

1

f

(a, f (a))

a

A

Figura 3. La línea de los números reales R. Figura 4. La función f

A y con valores en B.

El conjunto {x n : n ∈ N}, que es una colección de curvas en el plano. Si A y B son dos conjuntos, entonces A × B es el conjunto formado por todos los objetos de la forma (a, b) en donde a ∈ A y b ∈ B. Además, una subcolección B de los elementos de un conjunto A, es también un conjunto. En este caso, decimos que B es un subconjunto de A. Un conjunto de particular importancia y que seguramente llamará la atención del lector, es aquel que carece de elementos, al cual llamamos el conjunto vacío y lo denotamos con ∅. La consideración de este concepto no es un acto de excentricidad, así como no lo es la inclusión del cero en el sistema numérico.

Esta idea se aproxima a la definición intuitiva y emocional de infinito que dimos antes. Así podríamos hacer un segundo intento para definir infinito de una manera más formal: (II) Un conjunto A es finito si podemos representar gráficamente a cada uno de sus elementos en un momento y lugar determinado. Si esto no es posible, diremos que A es infinito. Observemos, sin embargo, que si bien no podemos escribir a todos los elementos de N de una sola vez, sí podemos definir a todos estos elementos usando una colección finita de palabras : 1 es un número natural, si k es un número natural, entonces k+1 es un número natural.

53


Los infinitos, El paraíso de Cantor

El primer intento que hicimos por definir lo infinito, definición (I), es subjetiva y depende de cada persona, lo cual no la hace muy adecuada; este segundo intento (definición (II)) tiene también sus bemoles como se podrá apreciar si se reflexiona un rato sobre el particular, y como quedará de manifiesto en lo que expondremos más adelante (en particular, según (II), ¿el conjunto vacío es finito o infinito?).

conjunto {1,2,3} tiene tres elementos”, o “el triángulo tiene tres lados”. Pero el ser tres no depende de las manzanas o de las sillas o de los lados del triángulo. ¿Cómo resolver pues esta pregunta? Una buena alternativa es la siguiente: El número 3 es la clase de todos los conjuntos que tienen tres elementos (Figura 6).

Contar Cuando tenemos frente a nosotros una colección finita de objetos (digamos, una bolsa de monedas) y queremos contar cuantos objetos son, reproducimos básicamente la siguiente operación: Seleccionamos (con las manos, con la vista o con algún instrumento) primeramente uno de los elementos por contar y mencionamos la palabra “uno”, luego tomamos un elemento diferente al anterior y decimos “dos”, y así proseguimos hasta acabar con todos los elementos de la colección. Gráficamente podemos representar esta operación como se muestra en la Figura 5

54

3

{1, 2, 3}

{a, b, c} {%, #, $ }

Figura 6

Figura 6.ElElnúmero número3 3.

$

1

$

2

$

3

Esto tiene sentido, y lo podemos hacer con cada número natural. Incluso, esta definición nos permite también comparar entre dos números dados, digamos 3 y 5. ¿Cuál es el mayor de ellos? Tomamos un representante del primero, digamos {1,2,3}, y tomamos un representante del segundo: {1,2,3,4,5}. Es claro que podemos establecer una relación exhaustiva y uno-a-uno entre el primero y un subconjunto del segundo, pero es imposible hacer lo mismo en sentido inverso. Entonces decimos que 3 es estrictamente menor que 5.

$

4

Georg Cantor y el infinito

Figura 5. Contar.

Así, la acción de contar los elementos de un conjunto finito A que contiene k objetos, es básicamente la de establecer una correspondencia exhaustiva y uno-a-uno entre los elementos del conjunto A con los elementos del conjunto {1,2,...,k}. Una vez que estamos conscientes de lo que significa contar, podemos preguntarnos qué es el número 3. Lo primero que se nos ocurre para contestar esta pregunta es tratar de dar ejemplos. Tomamos tres manzanas y decimos “tres manzanas”, tomamos tres sillas y decimos “tres sillas”. Decimos, “el

Son estas ideas básicas planteadas en la sección anterior, las que inspiraron a Cantor a finales del siglo XIX a resolver el problema de lo infinitamente grande. Su magistral invención fue el concepto fundamental de función biyectiva, es decir la idea de una relación exhaustiva y uno-a-uno. Con más exactitud: Una función f definida sobre un conjunto A y con valores en un conjunto B es biyectiva si (1) f relaciona cada dos elementos diferentes de A con dos valores diferentes de B, y (2) cada elemento en B está relacionado con uno de A7 (Figura 7). Si es posible establecer una relación biyectiva entre los conjuntos A y B, entonces decimos que A y B son equivalentes o tienen la misma cantidad de elementos.


Ángel Tamariz Mascarúa

B

A

Figura 7. A y B son equivalentes.

Con la idea de función biyectiva podemos entonces hablar de conjuntos finitos y de conjuntos infinitos con toda precisión y podemos hablar de números más grandes que otros; es decir, podemos determinar cuándo un conjunto tiene más elementos que otro. En efecto, si podemos establecer una función biyectiva entre un conjunto A y un subconjunto de un conjunto B, y no podemos hacer lo mismo de B en A, entonces decimos que B tiene una cantidad de elementos estrictamente mayor que la cantidad de elementos que contiene A (Figura 9).

Es así que con la idea de función biyectiva podemos definir de manera más precisa lo que significa que un conjunto sea finito o infinito: (III) A es finito si es vacío o si existe un número natural k y una función biyectiva entre los elementos de A y los primeros k números naturales (Figura 8). Y un conjunto es infinito si no existe una función con estas características.

Figura 8. A es un conjunto finito.

Estas ideas nos conducen a generalizar el concepto de número: Un número es la clase de todos los conjuntos que son equivalentes (es decir, que tienen la misma cantidad de elementos). Así, como dijimos antes, a la clase de todos los conjuntos con tres elementos le llamamos número 3. De esta manera podemos también considerar la clase de los conjuntos que tienen la misma cantidad de elementos que los números naturales. El número que designa a esta clase es el número infinito alef-cero, el cual se escribe como ℵ0. (Alef o Aleph, ℵ, es la primera letra del alfabeto hebreo y corresponde a la letra A.)

A

B

Figura 9. A tiene estrictamente menos elementos que B.

Entre los ejemplos de conjuntos que hemos presentado, nos queda claro que varios de ellos son conjuntos infinitos. Por ejemplo los números naturales y los números reales; así también es infinito el conjunto de los números primos, el de los números enteros Z = {....-3,-2,-1,0,1,2,3,...}, y también el conjunto de los números algebraicos: un número es algebraico si satisface una ecuación del tipo anxn + an–1xn-1 +...+a1x + a0 = 0 en donde ai es un número entero para toda i ∈ {0,...,n}. ¿Será cierto que todos los conjuntos infinitos tienen la misma cantidad de elementos? Por ejemplo, ¿N tiene la misma cantidad de elementos que R ? y ¿R tendrá la misma cantidad de elementos que la colección de puntos del plano? Este tipo de preguntas se las planteó Cantor y logró responder de manera sorprendente. En primer lugar resulta que N tiene tantos elementos como algunos de sus subconjuntos propios; éste es el caso, por ejemplo, del conjunto de los números pares. También, el conjunto de los números enteros Z tiene la misma cantidad de elementos que N (figura 10). Y aún más asombroso es que hay tantos números algebraicos como naturales (se encuentra una demostración de esta afirmación en 14).

55


Los infinitos, El paraíso de Cantor

Figura 10. N, 2N y Z tienen la misma cantidad de elementos.

Ahora podemos imaginar que los números impares son tantos como los elementos en N.

También, usando la idea de función biyectiva podemos demostrar que la cantidad de puntos en un segmento de recta [a,b] es la misma que la cantidad de puntos en un segmento [c,d] para cualesquiera a,b,c,d ∈ R que cumplen a < b y c < d; y que la cantidad de puntos en el segmento de recta comprendido entre dos puntos a, b con a < b, (a,b) = {x ∈ R : a < x < b}, es la misma que la cantidad de puntos en toda la recta real (Figura 13). a

p

b

¿Cómo demostraríamos que la colección de números primos es tan grande como N? 0

También es posible darnos cuenta que hay tantos números naturales como racionales positivos (Figura 11). Por lo cual, tantos números racionales (es decir, tantos elementos en Q = {p/q: p,q ∈ Z, q ≠ 0}) como naturales (¿por qué?). Así, en el costal con etiqueta ℵ0 se encuentran Z, {2n : n ∈ N} y Q (Figura 12).

Figura 13. En esta figura se ha curvado el segmento de recta (a,b) y se muestra la correspondencia biyectiva entre este segmento y la recta R.

Comparar conjuntos Una de las preguntas importantes que formulamos previamente es ¿todos los conjuntos infinitos tienen la misma cantidad de elementos? En particular, ¿coincide la cantidad que hay de números reales con la cantidad que hay de números naturales?

56

Figura 11. Podemos poner en una lista, como marcan las flechas, a todos los números de la forma n/n con ∈N y m ≠ 0. Podemos así concluir que hay tantos números racionales

ℵ0

N

Z

Q

kN

2N N

2

N

Una vez más, ¿qué significa que un conjunto A tenga más elementos que un conjunto B? Bueno, como ya dijimos antes, A tiene estrictamente más elementos que el conjunto B si (1) podemos establecer una biyección entre los elementos de B y los elementos de un subconjunto de A, pero (2) no podemos establecer una biyección entre los elementos de A y los elementos de un subconjunto de B (éste es el llamado teorema de Cantor-Bernstein).

k

Números Primos

Números algebraicos Figura 12. El número infinito ℵ0.

Es necesaria la condición (2) en la definición anterior ya que, por ejemplo, N tiene tantos elementos como el conjunto de racionales positivos {p/q : p,q ∈ N}. Esto nos podría hacer pensar que la colección de números racionales, es decir, el conjunto de todos los cocientes (o quebrados) formados por números enteros, es un conjunto con una cantidad de elementos estrictamente mayor que los que posee N, pero esto no es cierto, hay tantos naturales como racionales.


Ángel Tamariz Mascarúa

Algunos otros ejemplos: Se puede probar que la colección de puntos en un círculo es tan grande como la colección de puntos en todo el plano. Es más, hay tantos puntos en el guión pequeño - como puntos hay en todo nuestro universo de tres (¿o cuatro?) dimensiones. Se derrumba definitivamente el principio euclideano que afirmaba “El todo es estrictamente mayor que cada una de sus partes”. Es claro que esto ya no es siempre cierto, por lo menos, como estamos viendo aquí, hay partes que tienen tantos elementos como el todo. El aforismo euclideano debe cambiarse por el siguiente: El todo es mayor o igual que cada una de sus partes. Esta realidad matemática la expresan Kant y Borges de manera similar diciendo No nos acercamos más a la infinitud de la obra de la creación divina encerrando el radio de su revelación en una esfera que tenga por radio la Vía Láctea, que tratando de circunscribirla a una bola de una pulgada de diámetro (E. Kant, Historia general de la naturaleza y teoría del cielo. 6)

en donde cada aij es un número entre el 0 y el 9. Ahora consideremos el número x = 0.b1b2b3... en donde, para cada i, bi es un número entre el 1 y el 8 diferente de aii. Resulta entonces que el número x es un número real mayor que 0 y menor que 1 y no aparece en la lista que habíamos dado, ya que difiere de xi en su i-ésimo decimal para cada i. Por ejemplo, de manera más concreta, supongamos que la lista de los números reales entre el 0 y el 1 es:

x1 = 0.207445... x2 = 0.378950... x3 = 0.901178... x4 = 0.983098... x5 = 0.872659... x6 = 0.272457...

El diámetro del Aleph sería de dos o tres centímetros, pero el

...

espacio cósmico estaba ahí, sin disminución de tamaño. (J.L. Borges, El Aleph4)

El continuo Llegamos ahora a un punto en donde es ineludible la pregunta ¿el conjunto de puntos en la recta, es decir, el conjunto de números reales tiene tantos elementos como N? Veamos, si R tuviera tantos elementos como N, entonces podríamos escribir éstos en una lista. En particular, los números reales entre el 0 y el 1, los podríamos poner en una lista escritos en su forma decimal:

x1 = 0.a11a21a31...

Pues ahora tomamos x = 0.123468.... De esta forma x no es x1 pues el primer número en la representación decimal de x es 1 y el correspondiente de x1 es 2; no es x2 pues el segundo número de la representación decimal de x es 2 mientras que el de x2 es 7, etc. Pero habíamos dicho que en la lista x1, x2, x3, ... estaban representados todos los números reales mayores que 0 y menores que 1. Obtenemos así una contradicción. Esto significa que forzosamente R debe tener más elementos que N. Al número de elementos en R lo denotamos por c y recibe el nombre de El continuo. Así pues descubrimos otra de las verdades asombrosas sobre el infinito: existe más de un infinito.

El conjunto potencia

x2 = 0.a1 a2 a3 ... 2

2

2

...

Dado un conjunto A podemos hablar del conjunto potencia P(A) que es el conjunto de todos los subconjuntos de A. Así, si A = {1,2,3}, entonces

xk = 0.a1ka2ka3k...

P(A) = {∅ ,{1},{2},{3},{1,2},{1,3},{2,3},{1,2,3}}.

x3 = 0.a13a23a33...

...

57


Los infinitos, El paraíso de Cantor

Obsérvese que en este ejemplo, la cantidad de elementos que tiene A es menor estrictamente que la cantidad de elementos que tiene P(A). La proposición que sigue generaliza esta observación y tiene implicaciones importantes: Resultado 1. Para cualquier conjunto A, P(A) tiene estrictamente más elementos que A.

58

También es posible demostrar (véase por ejemplo 14) que: Resultado 3. El conjunto de números reales R tiene la misma cantidad de elementos que P(N). Por cierto, si la cantidad de elementos de un conjunto infinito A es m, entonces el número de elementos de P(A) es igual a 2m. Por el resultado 3 se cumple que

c = 2 ℵ 0.

Demostración. Supongamos que existe una función biyectiva h que relaciona los elementos de A con aquellos de P(A). Tomamos ahora el conjunto T formado por los elementos x de A que tienen la peculiaridad de no ser elementos de h(x). T es un subconjunto de A y por lo tanto debe existir un elemento a en A tal que h(a) ∈ T. Ahora bien, es claro que el elemento a o pertenece a T o no pertenece a T. Si pasa lo primero, es decir si a ∈ T, entonces, por definición de los elementos en T, a ∉ T; y si a ∉ T, entonces a ∈ T. Las dos conclusiones juntas constituyen una contradicción. Por lo tanto, debemos concluir que no existe ninguna biyección entre los elementos de A y los de P(A). Como además la relación a → {a} es una biyección de A en una subcolección de P(A), entonces se cumple que A tiene estrictamente menos elementos que P(A).

Aquí hay que señalar que el número infinito más pequeño es ℵ0 , como sugiere la notación. Es decir, si A es un conjunto infinito, entonces A contiene un subconjunto con tantos elementos como N. En efecto, tomemos a1 ∈ A, como A es infinito existe a2 ∈ A el cual es diferente de a1. De nuevo, como A es infinito, entonces A no es igual a {a1 ,a2}, por lo que podemos tomar a3 ∈ A el cual no pertenece al conjunto {a1 ,a2}. Así, si ya tomamos a1 ,...,ak elementos diferentes en A, podremos tomar ak+1, también elemento en A que es diferente a los elementos ya tomados a1 , a2 ,...,ak. De esta forma podemos construir un subconjunto de A que tiene tantos elementos como N. Esto significa que la cantidad de elementos de A es mayor o igual que la cantidad de elementos de N.

En particular tenemos que:

Aritmética de números infinitos

Resultado 2. Existe una infinidad de números infinitos diferentes. Demostración. En efecto, dado cualquier número infinito α y dado un representante de α, A (es decir, la cantidad de objetos que tiene A es α), el número infinito que representa la cantidad de elementos de P(A) es un infinito diferente de α y es mayor estrictamente que α. Podemos nombrar algunos de estos números infinitos: ℵ0 < ℵ1 < ℵ2 <,..., < ℵk <,... en donde ℵ1 (alef-uno) es el infinito más pequeño mayor que ℵ0 , ℵ2 es el infinito más pequeño mayor que ℵ1 , ℵ3 es el infinito más pequeño mayor que ℵ2 , y así sucesivamente.

Cuando sumamos al número 3 el número 5, básicamente realizamos la siguiente operación: consideramos un representante del número 3, digamos {1,2,3} y tomamos un representante del 5 que no tenga elementos comunes con {1,2,3}: {4,5,6,7,8}; reunimos los elementos de ambos conjuntos y obtenemos el conjunto {1,2,3,4,5,6,7,8} que representa al número 8. Así decimos que 3 más 5 es igual a 8. Ésta es la idea natural de suma y la podemos aplicar a nuestros números, sean finitos o infinitos. La suma de dos números, finitos o infinitos, m y n es igual a la cantidad de elementos que posee un conjunto M que representa a m, es decir, que tiene m objetos, más los elementos de un conjunto N que contiene n elementos, cuidando que M y N no tengan elementos comunes (Figura 14).


Ángel Tamariz Mascarúa

más generalmente:

=

+ M

n ⋅ m = n + m = máximo{m,n},

N

MUN

Figura 14. M tienen m elementos, N tiene n elementos y M U N tienen m+n elementos N,2N y Z tienen la misma cantidad de elementos..

Ahora podemos definir producto, pues éste no es otra cosa que la repetición de la operación suma. Multiplicar los números m y n, m ⋅n, es sumar n veces el número m. Es decir, para obtener m ⋅ n debemos tomar n conjuntos ajenos por pares, cada uno de ellos con m elementos, y formamos el conjunto unión que contiene a todos los elementos de los conjuntos elegidos. La cantidad de objetos que contiene el nuevo conjunto es igual a m ⋅ n. Expresado de otra forma, m ⋅ n coincide con la cantidad de elementos de un conjunto de la forma A × B en donde A posee n elementos y B contiene m elementos (Figura 15).

para cualquier número finito o infinito n. Esto significa en particular que si a un conjunto infinito le aumentamos hasta tantos elementos como los que posee, no modificamos en nada la magnitud de su tamaño. Por ejemplo, considérese el conjunto de números pares y adiciónese el conjunto de números impares. Estamos sumando ℵ0 más ℵ0. Obtenemos como resultado a todos los números naturales, es decir, volvemos a obtener, como resultado de esta operación, el número ℵ0 (Figura 16). 1 3 5 2n + 1

+

2 4 6

=

2n

2N + 1

2N

1 2 3 n N

Figura 16. ℵ0 + ℵ0 = ℵ0..

(#, ) ($, ) (%, ) (&, ) (#, ) ($, ) (%, ) (&, ) B

A XB

(#, ) ($, ) (%, ) (&, ) #

$

%

&

A

Figura 15. A tiene m elementos, B tiene n elementos y A x B tienen m ⋅ n elementos.

Así, de manera natural, hemos definido una aritmética entre los números finitos e infinitos. Sin embargo, cuando operamos con números infinitos debemos tener cuidado, ya que lo inesperado vuelve a aparecer. Algunos de los resultados sorprendentes de esta aritmética de los números infinitos son las igualdades siguientes que no tienen nada que ver con la naturaleza de la aritmética de los números finitos. Se cumple que si m es un número infinito, entonces

m ⋅ m = m + m = m;

David Hilbert y el problema del continuo Tenemos entonces que ℵ0 es el número que designa a la cantidad que existe de números naturales, y c designa la cantidad de puntos que hay en una recta. Además, como hemos dicho, ℵ0 < c. Resulta entonces el siguiente problema que planteó Cantor y no pudo resolver: ¿Existe un número infinito m que satisfaga la relación ℵ0 < m < c? A la negación de tal afirmación, es decir a la afirmación c = ℵ1, se le llama La hipótesis del continuo. Ya en 1900 uno de los matemáticos de mayor prestigio de la época, David Hilbert, había planteado varias ideas fundamentales con respecto a las matemáticas y al trabajo de Cantor, algunas de las cuales fueron presentadas por Hilbert en el congreso internacional de matemáticas en París en ese año:

59


Los infinitos, El paraíso de Cantor

1. Manifestó su admiración por el trabajo realizado por Cantor y lo apoyó públicamente contra sus detractores: “Nunca nadie nos expulsará del paraíso que Cantor creó para nosotros”.

de los axiomas de Zermelo-Fraenkel no contiene ninguna contradicción, entonces la teoría que se obtiene a partir de los axiomas de Zermelo-Fraenkel más la proposición c = ℵ1, no contendrá ninguna contradicción.

2. Proclamó la cercanía del fin de la construcción del edificio matemático, y no vaciló en afirmar su convicción de que todo problema matemático llegaría a resolverse.

Años más tarde, en 1954, Paul J. Cohen demostró que la negación de la hipótesis del continuo es también consistente con los axiomas de la teoría de conjuntos, suponiendo la consistencia de éstos.

3. Enumeró 20 problemas matemáticos que a su juicio eran los problemas más importantes a ser resueltos en los años subsiguientes. Entre estos problemas mencionó el problema del continuo: ¿Existe un número infinito m que satisfaga la relación ℵ0 < m < c?

Gödel y Cohen

60

A partir de entonces ha quedado claro que la realidad matemática se bifurca en universos con realidades diferentes cada uno de ellos: el universo del c = ℵ1, por un lado, y el universo del c = ℵ1 en contraposición.

Números infinitos gigantes y números infinitos pequeños

Treinta años después, Kurt Gödel respondió de manera genial a las preguntas de Hilbert. En primer lugar, no es posible soñar con la estructura completa del edificio matemático, y no es posible obtener una demostración de la veracidad o falsedad de cualquier problema matemático. Demostró que en cualquier teoría axiomática que incluye la aritmética de los números enteros, existe siempre un enunciado tal que ni él ni su negación pueden ser demostrados dentro de la teoría misma; es necesario considerar una teoría más amplia para encontrar su demostración o la demostración de su negación.

Los números infinitos forman una parte importante de la materia prima que algunos matemáticos manejan y estudian cotidianamente. Con frecuencia se encuentran con números infinitos gigantescos. Estos infinitos son de diferentes tipos y reciben nombres tales como “infinitos fuertemente inaccesibles”, “infinitos medibles”, etc. Estos infinitos son tan grandes que es factible evidenciar que no se puede demostrar su existencia.

Resultado 4 (K. Gödel). Si T es un sistema axiomático consistente que incluye la aritmética de los números enteros, entonces hay una fórmula cerrada A en T la cual es indecidible en T.

Por ejemplo, un infinito fuertemente inaccesible α tiene las siguientes características: (1) Para obtener α sumando infinitos menores que él, debemos, forzosamente, utilizar α sumandos, y (2) para cualquier infinito β < α se cumple que 2 β < α.

El segundo resultado de Gödel se refiere al problema del continuo. Demostró que si los axiomas básicos de la teoría de conjuntos llamados de Zermelo-Fraenkel (axiomas tales como: existe un conjunto, el objeto que carece de elementos, es decir, el vacío, es un conjunto, la unión de dos conjuntos es un conjunto, existe un conjunto infinito, etc.1) es consistente, entonces la hipótesis del continuo (ℵ1 = c) es un enunciado consistente con los axiomas de Zermelo-Fraenkel. Es decir, si la teoría construida a partir (Son apropiados 2, 10 y 12 para consultar sobre los axiomas de Zermelo-Fraenkel y el axioma de elección). 1

Hay también los infinitos que podemos llamar pequeños. Son los números que se encuentran entre ℵ0 y c. Para ilustrar este tipo de infinitos necesitamos introducir algunas definiciones. Al conjunto P de todas las funciones definidas en N y con valores en N le asignamos un orden ≤ como sigue: Para f,g ∈ P, f ≤ g si f(n) ≤ g(n) para todo n ∈ N. Un subconjunto B es no acotado si no existe ningún h ∈ P tal que g ≤ h para cualquier g ∈ B; y decimos que B es dominante si para cada f ∈ P existe g ∈ B tal que f ≤ g.


Ángel Tamariz Mascarúa

Definimos ahora b como el infinito que representa la cantidad que tiene uno de los subconjuntos más pequeños de P que no son acotados, y d es el infinito que representa la cantidad de elementos que tiene uno de los conjuntos dominantes más pequeño en P. Se puede demostrar que ℵ1 ≤ b ≤ d ≤ c. Es decir, b y d son infinitos pequeños. Además, es consistente con los axiomas de Zermelo-Fraenkel que b < d, y es también consistente que b = d. Es decir, lo real acerca de b y d depende del universo matemático que estemos observando. Termino esta breve descripción de lo infinitamente grande, reproduciendo unas palabras del filósofo inglés Bertrand Russel, quien al referirse a los logros de las matemáticas del siglo XIX, y en especial a los de Cantor por resolver el problema de lo infinitamente grande, escribe: “Casi toda la filosofía anda hoy trastornada por el hecho de que todas las viejas y respetables contradicciones en las nociones del infinito han sido eliminadas para siempre” 20. Esto lo escribió Russel a principios del siglo XX; nos preguntamos qué tan válida sigue siendo hoy en día esta frase; en particular: ¿cuál es la posición de la filosofía de principios del siglo XXI con respecto al infinito y con respecto a los también grandes logros de las matemáticas del siglo XX al respecto? Espero que, contrariamente a la opinión de Russel, la lectura de este escrito haya producido en el ánimo del lector muchas inquietudes relacionadas con el gran enigma del infinito.

Con respecto a la bibliografía Presento a continuación una lista bibliográfica que recomiendo para su lectura y consulta. Las obras marcadas con 1, 10 12 , y 14 son buenas introducciones a la teoría de conjuntos que incluyen los temas matemáticos que hemos expuesto aquí. El texto marcado con 21 es de divulgación y trata los números infinitos desde un punto de vista próximo al de nuestra exposición, y 2 expone con claridad el desarrollo de la axiomática y algunos problemas relacionados con el problema del continuo en el siglo XX. 7, 13 y 23 Los textos son avanzados, en ellos se puede apreciar la aplicación de la teoría de números cardinales infinitos a otra de las ramas de la matemática teórica: la topología. Naturalmente, en 4 y 18 se puede encontrar excelente literatura, y en 8, 9, 15 y 19 se puede gozar de muy bellas fotografías. La introducción en 23 y el resto de la bibliografía son textos históricos y filosóficos que sirvieron de base a algunas de las ideas expuestas en este trabajo.

Nota: Este texto está basado en la conferencia presentada en La ciencia más allá del Aula, Facultad de Química, UNAM, el 17 de enero de 2002. El autor agradece a la Dra. Lena Ruiz Azuara, directora de este ciclo de conferencias, por su amable invitación.

61


Los infinitos, El paraíso de Cantor

Referencias

Amor Montaño, J.A., (1997). Teoría de Conjuntos, Las prensas de ciencias. Amor Montaño, J.A., (2000). La teoría de conjuntos en el siglo XX, Miscelánea Matemática, 31. 3 Bell, E.T., (1965). Men of Mathematics, Simon and Schuster. 4 Borges, J.L., (1998). El Aleph, Emecé. 5 Bourbaki, N., (1974). Élements d’Histoire des Mathematiques, Hermann, París. 6 Cassirer, E., (1968). Kant, vida y doctrina, Fondo de Cultura Económica. 7 Van Douwen, E.K., (1984). “The Integers and Topology”, Handbook of Set Theoretic Topology, Ch. 12, eds. K. Kunen and J.E. Vaughan, North Holland, Amsterdam, 11-167. 8 Galaxies, (1988). by the editors of Time-Life books, Time-Life, Alexandria, Virginia. 9 Goro, F., et al, (1993). On the nature of things: The Scientific Photography of Fritz Goro. 10 Hernández Hernández, F., (1998). Teoría de Conjuntos, Aportaciones Matemáticas, Serie Textos 13, Sociedad Matemática Mexicana. 11 Houzel, C., et al, (1976). Philosophie et calcul de l’infini, Francois Maspero. 12 Hrbacek, K., and Jech, T., (1999). Introduction to Set Theory, Marcel Dekker, Inc., New York - Basel. 13 Juhász, I., (1983). Cardinal Functions in Topology, Ten Years Later, Mathematical Centre Tracts 123, Math. Centrum, Amsterdam. 14 Kamke, E., (1950). Theory of Sets, Dover Publications, Inc., X. 18 Lemonick, M. D., (1995). “Cosmic close-ups”, TIME Inc., November 20, 1995. 19 Lionnais, F., et al, (1976). Las grandes corrientes del pensamiento matemático, Editorial Universitaria de Buenos Aires. 20 Mathematics in the modern world (with an introduction by M. Kline), Readings from Scientific American, (1968). W.H. Freeman and Company, San Francisco. 21 Neruda, P., (1999). Cien sonetos de amor, Editorial Andrés Bello. 22 Nilsson, L., et al, (1986). La victoria del cuerpo humano, Ediciones Folio, S.A. 23 Russell, B., (1969). Los metafísicos y las matemáticas , ed. J.R . Newman, Sigma, Ediciones Grijalbo, S.A. 21 Ruisánchez, J.M., (2001). Contar hasta el infinito, Tesis de licenciatura, UNAM. 22 Steward, I., (1975). Conceptos de matemática moderna, Alianza Universidad. 23 Tamariz Mascarúa, A., (1989). Espacios de Ultrafiltros I, Aportaciones Matemáticas, SMM. Comunicaciones 8, pp. 145-187. 1 2

62


Entropía y optimización de procesos y dispositivos Mariano López de Haro Sergio Cuevas García Centro de Investigación en Energía, UNAM Guillermo Rogelio Ibáñez Duharte Universidad de Oriente, Santiago de Cuba, Cuba

Resumen En este trabajo se hace una brevísima revisión de los conceptos fundamentales de la Termodinámica clásica y de la Termodinámica de procesos irreversibles. Con este arsenal teórico se procede a discutir una posible estrategia para la optimización termodinámica de procesos y dispositivos en la que la primera etapa (que es la difícil), consiste en hallar los campos hidrodinámicos macroscópicos (densidad, velocidad, temperatura, etc.) y, una vez encontrados éstos, utilizarlos en una segunda etapa para calcular la producción de entropía y minimizarla. Dicha estrategia se ilustrará con varios ejemplos, desde el calentamiento interno estacionario de una placa sólida hasta un generador de inducción magnetohidrodinámico. Un resultado interesante de este enfoque es que, para varios sistemas, el enfriamiento convectivo asimétrico es deseable.

63

Introducción Es un hecho que, desde los primeros cursos de Física que se imparten en el bachillerato, se introduce el principio de conservación de la energía y se indica que la eficiencia de cualquier máquina es inferior al 100 por ciento (con lo cual hay siempre un porcentaje de energía disipada no útil para realizar trabajo). Sin embargo, más allá de los límites teóricos de dicha eficiencia, cabe la pregunta de si, al considerar un proceso o dispositivo real, es posible hacer algo para obtener un rendimiento óptimo desde el punto de vista energético. La respuesta sucinta es que en principio esto sí es posible, y a continuación pretendemos ilustrar una manera de lograrlo utilizando como herramienta un enfoque termodinámico. La palabra termodinámica proviene de las raíces griegas θerμo- (calor) y δναμ ιζ (fuerza) y se introdujo en el lenguaje científico a mediados del siglo XIX. Sin embargo, el inicio de estudios termodinámicos se remonta a épocas remotas de la humanidad. Como ejemplo podemos citar en la época del Imperio Romano el libro Neumática de Herón de Alejandría, en el que se describen varios dispositivos ingeniosos para aprovechar el vapor de agua en la realización de diversos trabajos.


Entropía y optimización de procesos y dispositivos

Las nociones físicas básicas acerca de calor y temperatura se desarrollaron en los siglos XVII y XVIII, incluyendo la teoría (posteriormente probada como errónea) del calórico y los motores de vapor de Savery, Newcomen y Watt. Pero fue en el siglo XIX cuando, gracias a científicos e ingenieros como Joule, Mayer, Carnot, Clausius, Lord Kelvin, Helmholtz, Gibbs, Maxwell y Boltzmann, la Termodinámica, ahora llamada clásica, alcanzó un alto grado de madurez teórica. Paralelamente y también a pesar de que algunos procesos irreversibles como la filtración se conocen prácticamente desde la prehistoria, fue en el siglo XIX cuando, con el trabajo de científicos como Fourier, Navier, Fick, Soret, Dufour y otros, se establecieron las leyes fenomenológicas que relacionaban (linealmente) fuerzas termodinámicas (como por ejemplo, el gradiente de temperatura o concentración) con los efectos de las mismas (a saber el flujo de calor o el flujo de masa en los ejemplos mencionados antes).

64

Dichas leyes fueron posteriormente incorporadas desde mediados del siglo XX en un marco teórico general, la Termodinámica de los procesos irreversibles, al que están asociados nombres como Prigogine (que recibió el Premio Nobel de Química por ello), Onsager, de Donder, de Groot y Mazur entre otros. El uso de este marco en la ingeniería es relativamente reciente, y ha crecido particularmente a partir de los trabajos de Bejan. Nuestro propósito en este trabajo es, por una parte, describir una metodología de optimización de procesos y dispositivos basada en la Termodinámica de los procesos irreversibles, y por otra, proporcionar algunos ejemplos de esta metodología en los que hemos trabajado y que nos han permitido concluir la importancia del calentamiento convectivo asimétrico para dicha optimización. El trabajo está organizado como sigue: Primeramente, presentamos una somera revisión de los conceptos y aspectos más importantes de la Termodinámica clásica incluyendo la formulación en postulados y también la usual de las cuatro leyes. A continuación, hacemos algo similar con la Termodinámica de los procesos irreversibles, para luego describir la metodología de optimización energética basada en la minimización de la producción de entropía. Posteriormente ilustramos dicha metodología con los casos de una lámina con calentamiento interno y un generador alterno magnetohidrodinámico. El trabajo se cierra con algunos comentarios finales.

La Termodinámica clásica Pero, ¿de qué trata la Termodinámica? No es nuestra intención abordar aquí en detalle la respuesta a esta pregunta y remitimos al lector a los libros especializados para ello. Sin embargo, una respuesta breve y simple es que su objeto de estudio son los sistemas macroscópicos clásicos y los estados de equilibrio de éstos, es decir aquellos estados en los que las magnitudes termodinámicas del sistema no dependen del tiempo. Y aunque sabemos que todo sistema físico está constituido por átomos o moléculas, para abundar en esta cuestión recurriremos a las siguientes aseveraciones (que provienen de una traducción libre de párrafos tomados del libro de Callen citado en la bibliografía): • La Termodinámica es el estudio de las consecuencias macroscópicas de miríadas de coordenadas atómicas, las cuales, gracias al promedio estadístico, no aparecen explícitamente en la descripción macroscópica de un sistema. • El problema básico de la Termodinámica es la determinación del estado de equilibrio que finalmente resulta de la remoción de constricciones internas en un sistema cerrado compuesto. Como marco teórico, es posible formular a la Termodinámica clásica de diferentes maneras. Una de ellas, particularmente elegante, desde el punto de vista matemático, consiste en partir de los siguientes cuatro postulados: 1. Existen estados particulares de un sistema (llamados estados de equilibrio) que macroscópicamente están caracterizados al especificar la energía interna E y un conjunto de variables extensivas X 1, X 2, … , X t. 2. Existe una función (llamada la entropía S) de los parámetros extensivos, definida para todos los estados de equilibrio, con la siguiente propiedad: los valores que toman los parámetros extensivos en ausencia de constricciones son aquellos que maximizan la entropía sobre la variedad de estados de equilibrio constreñidos. 3. La entropía de un sistema compuesto es aditiva (i.e. es la suma de la entropía de los subsistemas que lo constituyen; por lo tanto la entropía de cada subsistema es una función homogénea de primer orden de los parámetros


López / Cuevas / Ibáñez

extensivos). La entropía es continua y diferenciable y una función monótona decreciente de la energía.

que una vez determinada esta relación es posible calcular todas las propiedades termodinámicas del sistema en cuestión.

4. La entropía de cualquier sistema se anula en el estado

Antes de cerrar esta sección y con la finalidad de proporcionar una perspectiva un poco más amplia del tema (aún siendo conscientes de que hemos omitido referirnos a cuestiones importantes como las relaciones de Maxwell, los potenciales termodinámicos o el tratamiento de las transiciones de fase y los fenómenos críticos), a continuación incluiremos los enunciados y consecuencias más relevantes de las leyes de la Termodinámica como se suelen presentar en los cursos universitarios elementales:

para el que T =  ∂E  =0  ∂S  X ,X ,... 1 2 Dentro de este marco, es necesario contar con la ecuación denominada fundamental que proporciona la relación entre la energía interna E y la entropía y los demás parámetros extensivos, es decir E= E (S, X 1  , X 2  ,…, X t) o, equivalentemente, la ecuación TdS correspondiente

dE = TdS +

t

Σ P dX k =1

k

(1)

k

siendo T la temperatura y {Pk} el conjunto de los parámetros intensivos o ecuaciones de estado correspondientes. De las condiciones involucradas en los postulados y de la ecuación fundamental se siguen también la llamada relación de Euler t

E = TS + ∑ k =1 Pk dX k t

y la ecuación de Gibbs-Duhem SdT + ∑ k =1 X k dPk = 0 Para ilustrar lo anterior, tomemos el ejemplo de una mezcla fluida de t componentes. En este caso es necesario conocer E=E ( S, V, N 1, N 2,…, N t ) (siendo V el volumen y Ni el número de moles de la especie i ) mientras que los parámetros intensivos son, además de la temperatura T = ( ∂E ∂S ) = 0 , la presión V , N1 , N2 ,..., Nt P = ( ∂E ∂V ) = 0 y los potenciales químiS , N1 , N2 ,..., Nt cos

i

= ( ∂E ∂Ni ) = 0 correspondientes a S ,V , N j ≠ Ni

cada especie i. Evidentemente una forma posible de determinar E(S, X1, X2,…, Xt ) es conociendo todas las ecuaciones de estado. También es conveniente apuntar que la ecuación fundamental puede ser asimismo expresada como S=S(E, X1, X2,…, Xt ) y

1. Ley Cero. Para un sistema en equilibrio (i.e. aquél para el que como se indicó sus variables características no dependen del tiempo) existe una variable θ, la temperatura, que es una función uniforme de las variables independientes. Para el caso de un fluido simple, por ejemplo, θ = θ (P, V) y, en la escala del gas ideal θ = T. Esto permite caracterizar el equilibrio termodinámico entre sistemas y la utilización de termómetros. 2. Primera Ley. Esta ley enuncia la conservación de la energía e introduce la energía interna E como función de estado. (En el caso del fluido simple, por ejemplo, E = E (P, V). Así, si los subíndices i y f denotan los estados de equilibrio inicial y final de un sistema, respectivamente y Ei y Ef las energías internas correspondientes a los mismos, DE = Ef - Ei = W + Q donde Q representa la energía absorbida o cedida por el sistema en forma de calor (energía no mecánica) y W es el trabajo que los alrededores reciben del sistema o ceden al mismo cuando el sistema pasa del estado de equilibrio i al estado de equilibrio f. Si el proceso es adiabático, es decir, sin intercambio de calor, DE = Wad , siendo Wad el trabajo adiabático total transferido entre el sistema y sus alrededores, lo que proporciona una forma operacional de determinar numéricamente la energía interna de un sistema. 3. Segunda Ley. Introduce la entropía S como función de estado e indica cuándo y en qué condiciones puede ocurrir un proceso dado en un sistema. Permite interpretar a la entropía como una medida del grado de restricción presente en el sistema. Denotando por el subíndice 0 uno de los estados de equilibrio arbitrariamente seleccionado de un sistema como estado estándar, la entropía de otro estado de equilibrio cualquiera A del sistema

65


Entropía y optimización de procesos y dispositivos

con respecto al estándar está dada por SA = ∫

A 0

dQrev T

siendo dQrev el calor cedido o absorbido por los alrededores en una porción infinitesimal de una trayectoria reversible (esto es cuasiestática y que solamente pasa por estados de equilibrio) cualquiera que vaya de 0 a A y la prima indica que se trata de una diferencial inexacta. Así pues, para cualquier trayectoria que vaya de un estado de equilibrio A a otro estado de equilibrio B del mismo B dQ sistema, ∫ A T ≤ SB − SA dándose la igualdad únicamente cuando la trayectoria es reversible. Es claro que en todo proceso reversible entre A y B la trayectoria es tal que el sistema no tiene acceso a estados de entropía mayor con lo que DS = 0. Por el contrario, se dice que el proceso es irreversible si lleva asociado un aumento en la entropía y para invertirlo es necesario que ocurra un incremento de entropía en algún sistema acoplado al primero. Una consecuencia inmediata de todo esto es que en un sistema cerrado y aislado la entropía nunca puede disminuir, mientras que si el sistema es cerrado pero no está aislado, todo proceso que ocurra en él debe ser tal que la entropía del universo no disminuya.

66

4. Tercera Ley. Se trata del postulado de Nernst-Simon que indica que el límite del cambio de la entropía para un sistema termodinámico en cualquier proceso reversible e isotérmico entre estados de equilibrio, tiende a cero cuando T → 0 o K y se introdujo para explicar efectos observados experimentalmente a bajas temperaturas.

Termodinámica irreversible lineal Cuando se intenta describir o estudiar estados fuera de equilibrio y procesos que ocurren en un sistema macroscópico dado, un problema fundamental radica en la elección y el número de variables que es necesario considerar. Una idea natural es la de usar las mismas variables que se emplean para describir los estados de equilibrio. Así pues, hay dos hipótesis que subyacen en el marco teórico de la Termodinámica de procesos irreversibles: Por un lado, para cada posición r (concebida como representativa de un elemento de volumen lo suficientemente pequeño desde el punto de vista macroscópico de forma que se le pueda considerar puntual), y tiempo t se supone que es posible

definir unívocamente los parámetros termodinámicos. La otra hipótesis, llamada de equilibrio local, consiste en suponer que, fuera de equilibrio, las variables termodinámicas guardan la misma relación funcional entre sí que cuando el sistema está en equilibrio. En particular, esta suposición implica la validez local (en tiempo y espacio) de la relación de Gibbs. De igual forma, también implica que el cambio de la entropía local por unidad de volumen y unidad de tiempo es igual al flujo de entropía por unidad de área y unidad de tiempo más la producción de entropía por unidad de tiempo. De acuerdo con la segunda ley de la Termodinámica, se supone que esta producción de entropía local es no negativa. Las fuerzas que se requieren para llevar a un sistema fuera de equilibrio termodinámico están relacionadas, en general, con las variaciones espaciales o temporales de las variables termodinámicas. Cuando el sistema intenta de manera natural regresar a un estado de equilibrio, su respuesta a dichas fuerzas se traduce en flujos apropiados que intentan contrarrestar el efecto producido por las fuerzas. Al emplear las ecuaciones correspondientes de evolución de las variables conservadas en el sistema, se encuentra que la producción de entropía es una suma de productos de flujos por fuerzas termodinámicas. Como primera aproximación, se puede suponer razonablemente que las fuerzas (sean éstas gradientes o derivadas temporales) y los flujos están linealmente relacionados. Los coeficientes (fenomenológicos) de acoplamiento correspondientes son los llamados coeficientes de transporte. Un teorema debido a Curie indica que es posible tener también acoplamientos entre todos los flujos y fuerzas de la misma naturaleza tensorial. De hecho, dentro de ciertos límites, las dos consideraciones anteriores han sido ampliamente soportadas por resultados experimentales. Una suposición adicional, que descansa en la hipótesis de regresión de fluctuaciones de Onsager, y en el principio de reversibilidad microscópica de la mecánica estadística, pero que también ha sido confirmada experimentalmente, es que los coeficientes fenomenológicos asociados con acoplamientos de efectos cruzados de fuerzas termodinámicas con flujos de la misma naturaleza tensorial son iguales. Esto último se conoce como las relaciones de reciprocidad de Onsager. Todas las suposiciones anteriores, junto con el requisito de que la producción de entropía sea no negativa, imponen restricciones en el signo de los coeficientes de transporte.


López / Cuevas / Ibáñez

Para ilustrar el marco teórico anterior, considérese una mezcla multicomponente de N fluidos químicamente inertes. Las ecuaciones de balance para las cantidades conservadas en este sistema (masa, cantidad de movimiento y energía) están dadas por

las ecuaciones de balance (2)-(4). Adicionalmente, si se reescribe en la forma de una ecuación de balance, de la relación de Gibbs se sigue que el flujo de entropía Js está dado por

Js =

d ri + ∇ ⋅ Ji = − ri ∇ ⋅ u dt

(2)

ρ d u + ∇ ⋅ τ v = −∇p + ∑ ρk Fkex k =1

  1 1 N J ⋅ ∇T − ∑ Jk ⋅ T ∇ µ k − Fkex  2 q T T T k =1   1 1 − τ∇ ⋅ u − τ ′ : ∇ u T T

σ=−

(3)

y

ρ

N de = −∇ ⋅ Jq − p∇ ⋅ u − τv : ∇u + ∑ Jk ⋅ Fkex dt k =1

(4)

En las ecuaciones anteriores, ri es la densidad de la especie i, Ji es el flujo de masaNde la especie i, u la velociρ es la densidad total, dad hidrodinámica, ρ ≡ i =1 i τV = τ 1 + τ ′ es el tensor de esfuerzos viscosos (t es su traza, t1 el tensor unidad y t’ la parte sin traza), p es la presión ex (local), Fi es la fuerza externa actuando sobre la especie i, e es la densidad de energía interna, Jq el flujo de calor y d ∂ = + u ⋅ ∇ representa la llamada derivada material. dt ∂t

 , 

(6)

mientras que la producción de entropía s es

N

dt

N 1  Jq − ∑α k Jk T k=1

(7)

Las ecuaciones (2)-(7) no constituyen un conjunto cerrado a menos que se pueda expresar a la presión p, los potenciales químicos mi y los flujos disipativos Ji , t, t’ y Jq en función de ri , u y e. Con ayuda de la hipótesis de equilibrio local, se puede eliminar p, mi y e y escribir todo en términos de r, las N-1 concentraciones c1, c2 ... cN-1 y la temperatura T usando las relaciones usuales de la Termodinámica clásica. Por otra parte, la suposición de las leyes lineales y el teorema de Curie llevan en este caso a

τ = − ξ∇ ⋅ u,

(8) 67

N −1

  Ji = − ∑ Lik T ∇ αk − Fkex  − LTiq ∇T , T k =1  

N

Debido a que ∑ i =1 J i = 0 , la ecuación de continuidad usual se sigue inmediatamente de la Ec. (2).

N   µ Jq = − λ∇T − ∑ Lqk T ∇ k − Fkex  T k =1  

La descripción termohidrodinámica se completa con la relación local de Gibbs que en este caso es

(9)

(10)

y

T

ds de p d = − 2 − ∑ µi dt dt dt i =1 N

dci dt

(5)

donde s es la densidad de entropía y mi y ci = ri /r son el potencial químico local y la concentración de la especie i, respectivamente. La evolución temporal de la densidad de entropía dada por la Ec. (5) está íntimamente relacionada con

1 T 1  τ′ = −2 η  ∇u + ( ∇u ) − ∇ ⋅ u1 3 2 

(

)

(11)

donde x es la viscosidad volumétrica, los coeficientes Lik están relacionados con los coeficientes de difusión, los T coeficientes Liq están relacionados con coeficientes generalizados de Soret, l es, la conductividad térmica, los coeficientes Lqk están relacionados con coeficientes


Entropía y optimización de procesos y dispositivos

generalizados de Dufour y h es la viscosidad cortante. Nótese que el requisito de que s sea semipositiva definida significa que x, l y h son positivos, Lik= Lki mientras que las relaciones de reciprocidad de Onsager implican que Lqi = LTiq . Nótese también que, aunque se pueden tomar otras (quizás incluso más convenientes) elecciones para fuerzas y flujos dependiendo del problema físico que se desee abordar, la producción de entropía debe permanecer inva-riante independientemente de cual sea la elección realizada. Cuando se sustituyen las leyes lineales, Ecs. (8)-(11), en las Ecs. (2)-(4) se obtienen las ecuaciones de Navier-Stokes para la mezcla multicomponente de fluidos inertes. Su forma explícita no es importante para nuestros propósitos y por lo tanto será omitida. Baste señalar que desde el punto de vista matemático, dichas ecuaciones son ecuaciones diferenciales en derivadas parciales de tipo parabólico, de forma que los procesos irreversibles se describen como fenómenos difusivos. Su aplicación a problemas particulares involucra la especificación de condiciones iniciales y de contorno para r, ci , u y T y la disponibilidad de valores o expresiones para todos los coeficientes de transporte. Estos últimos pueden provenir de determinaciones experimentales o, en algunos casos, de los resultados de un enfoque microscópico.

El método de minimización de entropía

68

En esencia, la metodología de la minimización de la producción de entropía para optimizar procesos o dispositivos, combina desde el inicio las leyes de la Termodinámica clásica con los principios de fenómenos de transporte englobados en la Termodinámica de los procesos irreversibles (por ejemplo aquellos relativos a la transferencia de calor y la mecánica de fluidos) para construir modelos simples. Ahí se intenta expresar a la producción de entropía como función de los parámetros físicos (geometría, tamaño, materiales) del proceso o dispositivo para finalmente proceder a su minimización. Puesto de esta manera, el procedimiento a seguir no parece ser en principio complicado. Sin embargo, la obtención de la producción de entropía en términos de las cantidades relevantes involucra la resolución de las ecuaciones de transporte asociadas (generalmente ecuaciones diferenciales en derivadas parciales) y es ésta la etapa difícil. Más aún, no en

todos los casos es posible obtener un mínimo diferente del trivial. De todas formas, del estudio de problemas idealizados utilizando este método ha sido posible extraer resultados interesantes y actualmente representa una herramienta indispensable en ingeniería. En lo que sigue describiremos tres problemas relativamente simples que nosotros hemos abordado con dicha herramienta y que nos permitirán ilustrar algunas de las bondades de este enfoque. Ejemplo 1: Calentamiento interno estacionario en una placa sólida

En este ejemplo examinaremos el efecto de un enfriamiento asimétrico convectivo externo sobre una placa con calentamiento interno. Considérese una placa sólida de conductividad térmica Ks y anchura a que experimenta una tasa de calentamiento volumétrico uniforme q . Supóngase que la placa está colocada horizontalmente de forma que la superficie superior se localiza en y’=a/2 y la superficie inferior en y’=-a/2, siendo y’ la coordenada transversal. El campo de temperaturas alcanza un estado estacionario porque las superficies de la placa están en contacto con un baño térmico de temperatura fija Ta. La ecuación de transferencia de calor adimensional para este sistema está dada por d 2 Θs dy 2

= −1

(12)

donde la temperatura adimensional se ha definido como  2 , siendo Ts la temperatura del sólido. Θs = ks (Ts − Ta ) / qa La coordenada (espacial) adimensional y se ha normalizado con a. Es claro que el comportamiento térmico de este sistema, particularmente las irreversibilidades debidas al flujo de calor, dependen fuertemente de las condiciones de contorno. Aquí se utilizan condiciones del tercer tipo que indican que se supone que el gradiente de temperatura normal en cualquier punto de la frontera es proporcional a la diferencia de temperaturas entre la superficie y el baño. Con ello, la cantidad de calor que entra o sale del sistema depende tanto de la temperatura externa como del coeficiente de transferencia de calor convectivo. Dichos coeficientes de tranferencia de calor convectivos se supondrán constantes pero no necesariamente iguales para


López / Cuevas / Ibáñez

ambas superficies de la placa. Bajo estas condiciones la Ec. (12) debe satisfacer las siguientes condiciones de contorno d Θs 1 + Bi1s Θs = 0, y = 2 dy

(13)

d Θs 1 − Bi 2 s Θs = 0, y = − 2 dy

(14)

donde los números de Biot Bi1s=h1s a/ks y Bi2s=h2s a/ks son las expresiones adimensionales de los coeficientes de transferencia de calor convectivos de las superficies superior e inferior de la placa, h1s y h2s, respectivamente. La solución de la Ec. (12) con las condiciones de contornos (13) y (14) es

donde S se adimensionaliza con ks  /a2 y la temperatura  2 .Una vez que se ambiente adimensional es Θas = ks Ta / qa  integra S de y=-1/2 a y=1/2, se obtiene la tasa de generación de entropía global por unidad de longitud en la dirección axial que denotaremos por < S >. El resultado explícito es

〈 S 〉 = +

Bi1s ( 2 + Bi 2 s ) 2 + Bi 2 s + 2 Θas ( Bi1s + Bi 2 s + Bi1s Bi 2 s ) Bi 2 s ( 2 + Bi1s )

2 + Bi1s + 2 Θas ( Bi1s + Bi 2 s + Bi1s Bi 2 s )

+

Es

(17)

Fs

  Bi ( 2 + Bi 2 s )   − Bi1s ( 2 + Bi1s )   arctan  1s  − arctan        Fs Fs     con

y2 Θs ( y , Bi1s , Bi 2 s ) = − + Cs y + Ds , 2

(15)

Fs = −8 ( Bi1s + Bi 2 s )

donde

2 −4 ( Bi1s + Bi 2 s ) + Bi1s Bi 2 s (1 + Bi1s + Bi 2 s )   

Bi1s − Bi 2 s  1 Cs = −   2  Bi1s + Bi 2 s + Bi1s Bi 2 s 

Ds =

Es = 4 ( Bi1s + Bi 2 s + Bi1s Bi 2 s )

− Bi12s Bi 22s − 8 Θas ( Bi1s + Bi 2 s + Bi1s Bi 2 s )

2 ( 2 + Bi 2 s ) ( Bi1s − Bi 2 s )  1 4 − 1 +  8  Bi 2 s Bi 2 s ( Bi1s + Bi 2 s + Bi1s Bi 2 s ) 

Para este problema, utilizando las ecuaciones de balance de energía y entropía como se indicó en la sección anterior y usando la ley de Fourier, la producción de entropía local adimensional (que los ingenieros denominan tasa de generación de entropía y denotan por S ), está dada por S =

1

( Θs

+ Θas )

2

 d Θs     dy 

2

(16)

2

Nótese que ya hemos logrado expresar a la generación de entropía en términos únicamente de los parámetros físicos adimensionales del problema, a saber Bi1s , Bi2s y Qas . Ahora es posible encontrar un número de Biot (óptimo) para una de las superficies que minimice la generación de entropía siempre que la temperatura ambiente adimensional y el número de Biot de la otra superficie permanezcan fijos. Por ejemplo, como se muestra en la Fig.1 (ver anexo al final de este artículo) donde hemos representado < S > como función de Bi1s para Qas= 1 y diferentes valores de Bi2s, se encuentra que hay un número de Biot de la superficie superior, Bi1s que minimiza < S >. Debe hacerse notar que si las dos superficies tienen el mismo número de Biot, esto no ocurre.

69


Entropía y optimización de procesos y dispositivos

Ejemplo 2: Flujo de Poiseuille (22) Ahora consideramos otro problema de enfriamiento asimétrico en el que, además del flujo de calor, hay irreversibilidades debidas a la disipación viscosa. El campo de velocidades adimensional para el flujo de Poiseuille entre paredes planas paralelas localizadas en y=-1/2 y y=1/2 está dado por u=

1 1− 4 y 2 , 8

(

)

(18)

donde la velocidad, u, ha sido adimensionalizada con Uo = (a2/h)dp/dx, a denotando en este caso la separación entre las paredes, y siendo h y dp/dx la viscosidad dinámica del fluido y el gradiente de presión impuesto, respectivamente. Con este campo de velocidades se procederá a continuación a resolver la ecuación de balance de energía que en forma adimensional se escribe como d 2 Θf dy 2

70

2

 du  +  = 0,  dy 

La solución para el campo de temperaturas se puede expresar como Θf ( y , Bi1 , Bi 2 ) = −

y4 + Cf y + Df 12

(23)

donde Cf = −

Bi1 − Bi 2 1 , 24 Bi1 + Bi 2 + Bi1Bi 2

(19) Df =

y ahora la temperatura adimensional está dada por Θf = k f (Tf − Ta ) ηU o2 , siendo Tf y Ta las temperaturas del fluido y el ambiente, respectivamente, y kf la conductividad térmica del fluido. Como nuevamente consideraremos condiciones de contorno del tercer tipo, la Ec. (19) debe resolverse con las siguientes condiciones d Θf 1 + Bi1Θf = 0, y = 2 dy

En la Ec. (22), dw y kw son el espesor y la conductividad térmica de la pared, respectivamente, y (he )1 y (he )2 son los coeficientes de transferencia de calor convectivos externos de las paredes superior e inferior.

(20)

(21) y Bi1 = ( heff )1 a kf Bi 2 = ( heff )2 a kf representando aquí las expresiones adimensionales de los coeficientes efectivos de transferencia de calor convectivos de las paredes superior e inferior, (heff )1 y (heff )2, que nuevamente se supondrán de inicio distintos y dados por

4 ( Bi1 − Bi 2 ) ( 2 + Bi 2 )  1  8 − 1 + . 192  Bi 2 Bi 2 ( Bi1 + Bi 2 + Bi1Bi 2 ) 

Con los resultados anteriores calcularemos ahora la tasa de generación de entropía como en el ejemplo anterior. En este caso la forma adimensional para S , resulta ser

S =

2

1

( Θf

+ Θaf

)

2

2

 d Θf   du  1   +   , Θf + Θaf  dy   dy 

(24)

donde ahora el factor para adimensionalizar S es kf /a2 y la temperatura ambiente adimensional

Θaf = kf Ta ηUo2 De manera análoga a como procedimos en el caso de la placa sólida, la tasa de generación de entropía global por unidad de longitud en la dirección axial < S >, se obtiene integrando S de y=-1/2 a y=1/2 y el resultado es


López / Cuevas / Ibáñez

〈 S 〉 = +

Bi1 ( 2 + Bi 2 ) 2 + Bi 2 + 24 Θaf ( Bi1 + Bi 2 + Bi1Bi 2 )

(25)

Bi 2 ( 2 + Bi1 ) 2 + Bi1 + 24 Θaf ( Bi1 + Bi 2 + Bi1Bi 2 )

Nuevamente, esta cantidad ha quedado expresada en función de los parámetros físicos adimensionales relevantes Bi1, Bi2 y Qaf y se puede proceder a minimizarla al fijar dos de ellos y variar el tercero. Si los dos números de Biot son iguales, como en el ejemplo previo no se obtiene nunca un valor mínimo. Por otra parte, si fijamos Qaf y el número de Biot de la pared inferior, Bi2 , es posible determinar explícitamente el número de Biot de la pared superior, Bi1, que minimiza < S > resultando ser

( Bi1 )opt

=

1   2 

 + 

2

16

( Bi 2 + 2 )2 + 6 Θaf 16 Bi 2 + 8 Bi 22 − 2 Bi 23 − Bi 24   +144 Θ2 4 Bi 2 − Bi 4 2 2 af 

(

(

)

1 2

 (26)       

) 

donde 2 2 3 α = 4 ( Bi 2 + 2 ) + 12 Θaf ( 8 + 24 Bi 2 + 16 Bi 2 + 3 Bi 2 )

(

)

+288 Θaf2 4 Bi 2 + 8 Bi 22 + 3 Bi 23  , y 2

β = ( Bi 2 + 2 ) + 8 Θaf ( 24 + 54 Bi 2 + 33 Bi 22 + 6 Bi 23 )

(

)

+ 576 Θaf2 4 + 16 Bi 2 + 19 Bi 22 + 8 Bi 23 + Bi 24 .

La Figura 2 del Anexo muestra el número de Biot óptimo de la pared superior, (Bi1)opt , como función de Bi2 para valores distintos de Qaf . Nótese la poca influencia sobre el comportamiento de este parámetro que tiene el valor de Qaf. Por otra parte, a medida que Bi2 aumenta, (Bi1)opt tiende al siguiente valor límite

(27)

Adicionalmente, el resultado analítico indica que para Bi2 < 2, (Bi1)opt toma valores negativos lo cual no tiene, evidentemente, sentido físico y también que cuando Bi2 < 2 no se encuentra ningún mínimo para < S >. Finalizaremos esta subsección comentando que en ambos ejemplos de enfriamiento asimétrico, los valores óptimos de Bi1 determinan condiciones donde las irreversibilidades del sistema se minimizan. Ejemplo 3: Un modelo teórico para el generador magnetohidrodinámico alterno

Tomemos ahora un sistema de coordenadas cartesianas x’,y’,z’. Para modelar la operación de un generador magnetohidrodinámico alterno, consideraremos el flujo oscilatorio de un fluido viscoso conductor de la electricidad, por ejemplo un metal líquido, en un ducto rectangular de sección transversal uniforme bajo la acción de un campo magnético transversal constante, B = Bo y, donde Bo es la intensidad del campo mientras que y es el vector unitario en la dirección y’. Las paredes normales al campo son aislantes eléctricos y las paralelas son paredes conductoras continuas (electrodos) y están conectadas a un circuito eléctrico externo. Supondremos que un gradiente de presión periódico de media cero se impone entre los extremos del ducto produciendo un flujo oscilatorio en la dirección axial x’. El movimiento relativo del fluido oscilante y el campo magnético transversal induce una corriente eléctrica alterna en la dirección z’ que se puede extraer vía los electrodos hacia el circuito eléctrico externo. Así, se puede producir trabajo eléctrico útil si se conecta una carga finita al circuito externo. La presencia de corrientes eléctricas en el fluido altera el comportamiento dinámico y térmico del flujo: al interaccionar la corriente eléctrica con el campo, se produce una fuerza de Lorentz en la dirección axial que se opone al movimiento del fluido; adicionalmente, el flujo de corriente en el medio conductor produce disipación óhmica lo que tiende a incrementar la temperatura del fluido. Supondremos a continuación que el campo magnético axial inducido es mucho menor que el campo aplicado y que por lo tanto podemos despreciarlo. Para que ello sea razonable, debe ocurrir que el número de Reynolds magnético Rm = as´U0l sea mucho menor que uno, donde m y s´ son

71


Entropía y optimización de procesos y dispositivos

la permeabilidad magnética y la conductividad eléctrica del fluido, respectivamente, y U0 y l son una velocidad y una longitud características del flujo. Para simplificar aún más el análisis, también supondremos que la distancia 2b entre las paredes paralelas al campo es mucho mayor que la distancia 2a entre las paredes superior e inferior (b>>a), de forma que se puede considerar que el flujo tiene lugar entre dos paredes planas paralelas infinitas. No obstante, se sigue manteniendo la hipótesis de la existencia de paredes conductoras que cierran el circuito eléctrico en las posiciones lejanas z´=±b . Además, llamamos L a la longitud del ducto y despreciamos los efectos de borde causados por inhomogeneidades del campo magnético en los extremos del ducto y efectos de entrada ocasionados por la longitud finita del ducto en la dirección axial. Con las aproximaciones anteriores el flujo se vuelve completamente desarrollado y todas las magnitudes involucradas dependen de la coordenada transversal y’ y del tiempo t’, excepto por la presión que varía con x’ y con t’. Finalmente suponemos que el fluido es incompresible (lo que es válido si L << L, donde L es la longitud de onda acústica a la frecuencia angular w del movimiento del fluido), que es monocomponente (de manera que despreciamos fenómenos de difusión) y que sus propiedades físicas son constantes.

72

En este problema, y para evaluar el desempeño del generador magnetohidrodinámico alterno, hay que resolver las ecuaciones de balance del fluido y las del campo electromagnético en la llamada aproximación magnetohidrodinámica (MHD). En cuanto a las primeras se tiene que están dadas por ∇ ⋅ u′ = 0

(28)

ρ ∂u ′ + ( u ′ ⋅ ∇ ) u ′ = −∇p + µ∇ 2 u ′ + j ′ × B ∂t

(29)

del fluido, respectivamente. Las ecuaciones para el campo electromagnético en la aproximación cuasi-estática que se requieren para cerrar nuestra descripción son

∇ × E′ = −

∂B , ∂t ′

(31)

∇ × B = α j ′,

(32)

∇ ⋅ B = 0,

(33)

j ′ = σ (E ′ + u ′ × B )

(34)

y

A pesar de que en principio este conjunto de ecuaciones está acoplado, debido a nuestra hipótesis de que Rm << 1 el campo magnético no es perturbado por el movimiento del fluido y puede ser determinado independientemente a partir de las ecuaciones magnetostáticas. Como adicionalmente consideramos que el campo es constante, la ley de inducción de Faraday se reduce a ∇ x E’ = 0, y el campo eléctrico se convierte en potencial. En estas condiciones en la región de flujo bidimensional la componente z’ del campo eléctrico E’z no depende de las coordenadas espaciales y queda determinada por las condiciones eléctricas en las fronteras z’=±b . Adicionalmente, gracias a la condición de incompresibilidad, el campo de velocidades se desacopla del campo de temperaturas. Aún así, el problema matemático involucrado es bastante complejo. Sustituyendo la ley de Ohm, Ec. (34), en la Ec. (29), y suponiendo un flujo unidireccional que depende solamente de la coordenada transversal y del tiempo, se sigue que

y  ∂T  ρCp  + ( u ′ ⋅ ∇ ) T  = k ∇ 2T + Φ + j ′ E ′, (30)  ∂t 

donde u’ es la velocidad del fluido, j’ es la densidad de corriente eléctrica, E’ y F son el campo eléctrico y la función de disipación viscosa, respectivamente y Cp y k son el calor específico a presión constante y la conductividad térmica

2 ρ ∂u ′ = − ∂p + η ∂ u ′ − σ ′B0 ( Ez′′ + u ′B0 ) . 2

∂t ′

∂x ′

∂y ′

(35)

El gradiente de presión oscilatorio que produce el movimiento se puede expresar como la par te real de ( ∂p ∂xY) = Gei t Y siendo G una constante. Por ello se puede suponer que el campo eléctrico y la velocidad


López / Cuevas / Ibáñez

también son funciones armónicas de t’, es decir i ωt Y u ′ = uoY ( y ) e i t Y, 0, 0  y E ′ = 0, 0, Eo ( y ) e  donde E0 es otra constante. Debe entenderse que en todas las expresiones complejas, la única parte que tiene significado físico es la parte real. La solución de la Ec. (35) que satisface condiciones de no deslizamiento, uY( ± a ) = 0 , es:

u ′ ( y , t ′) = u0′ ( y ) e iω t ′ =

a2 λ ′2

G M σ ′   + E0  a η η  (36)

de balance de energía considerando tanto la disipación óhmica como la viscosa. Supondremos por simplicidad condiciones de frontera en las que la temperatura de las paredes permanece constante. De la ley de Ohm se sigue que la densidad de corriente eléctrica, adimensionalizada con el factor Uo ησY/ a , está dada por, j z Y = M (u − Ez Y) con E z ´ = E z´ ´ Uo Bo Tomando en cuenta las suposiciones efectuadas, la forma adimensional de la ecuación de balance de energía,Ec. (30), es

 y′   cosh l ′  a − 1 e iω t ′ ,   cosh l ′     

2

Pr Rω

donde l’ = a + b’ con

α′ =

M 4 + R 2ω+ M 2 2

, β′ =

2 M 4 + Rω − M2

2

,

Aquí, M = Bo a σY η es el número de Hartmann que da una estimación del valor relativo de las fuerzas magnéticas respecto a las fuerzas viscosas. De manera análoga, Rω = ω a 2 ρ η es el número de Reynolds oscilatorio, que compara la longitud característica con la longitud de penetración viscosa. La velocidad promedio en la sección transversal del ducto está dada por

+a

a2 1 U0 = u0′ dy = 2 ∫ λ′ 2a − a

 G M σ′  E0   η + a η    tanh λ ′  − 1    λ′

 cosh λ′ − cosh λ′y  it u ( y , t ) = λ′  e  λ′ cosh λ′ − sinh λ′ 

(38)

Una vez que se cuenta ya con la expresión para el campo de velocidades, se puede proceder a resolver la ecuación

(40)

Θ ( y , t ) = Θu ( y ) e 2 it + Θs ( y )

donde los subíndices u y s indican las contribuciones no estacionaria y estacionaria, respectivamente. Al usar la Ec. (40) en la Ec. (39), se encuentra que Qu y Qs , satisfacen

dy 2

 ∂u 2  2 − 2 i Pr R Θu = −   + M 2 ( K − u )   ∂y  

d 2 Θs

Por ende, en función de las variables adimensionales u = u’/U0, y = y’/a y t = w t’, la Ec.(36) se transforma en

(39)

Donde Pr = hCp / k es el número de Prandtl y se ha intro2 ducido la temperatura adimensional Θ = kT ηUo En virtud de la estructura de las contribuciones óhmica y viscosa, suponemos que la temperatura adimensional puede ser expresada como

d 2 Θu (37)

∂Θ ∂ 2 Θ  ∂u  2 = +   + M 2 (u − Ez ′ ) ∂t ∂y 2  ∂y 

dy 2

 ∂u 2  2 = −   + M 2 ( K − u )   ∂y  

(s )

,

(u )

73

, (41)

(42)

donde ahora los superíndices (u) y (s) denotan las partes no estacionaria y estacionaria del término de la fuente de calor, respectivamente. El parámetro k = E0 / U0 B0 es el factor de carga y depende de las condiciones del circuito eléctrico externo. Para un generador eléctrico con una resistencia de carga dada, los valores de K van desde cero (condición de corto circuito) a uno (condición de circuito abierto). Las ecuaciones (41) y (42) deben satisfacer, respectivamente, las siguientes condiciones de contorno


Entropía y optimización de procesos y dispositivos

Θu = 0, y = ± 1,

(43)

Θs = Θ , y = ± 1,

(44)

F6 =

donde Θ = kT Uo2 y Tw es la temperatura (dimensional) de la pared. La solución a la Ec. (41) con las condiciones (43) es

M2 cosh 2 α′ + cos 2 β ′ + 2 AAK 2 + 4 K ( c1 + c2 )  , 8 

F7 =

α′c3 + β ′c4

( α′

2

+ β′

2

)

2

,

F8 =

α′c4 − β ′c3

( α′

2

+ β ′2

)

2

,

con   cosh γ y   cosh λ′ cosh γy   F1  1 −   + F2  cosh λ′y − cosh γ  cosh γ 1     Θu ( y ) = , 2  8A   cosh 2 λ ′ cosh γ y   F3  cosh 2 λ′y − +    cosh γ    

(45)

(

)

(46)

Los parámetros A y F1 a F8 están definidos de la manera siguiente:

′ cosh λ′ − sinh λ′ A= λ , λ′ 74

F1 =

i  2 1 2  λ′ − 2 M 2  + ( cosh λ′ − KA )   , Pr R  2 

F2 =

8 M 2 ( cosh λ′ − AK )

F3 = −

λ ′4 + 4 (Pr R ω)

2

λ ′2 + M 2 4 λ′4 + (Pr R ω)

2

 λ′2 + 2 i Pr Rω ,

2 λ′2 + i Pr R ω

F4 =

α′2 + β ′2 + M 2 , 16 α ′2

F5 =

α′2 + β ′2 − M 2 16 β ′2

cosh α′ cos β ′ ( α′ sinh α′ cos β′ + β′ cosh α′ sin β′) α ′2 + β′2

− cosh2 α′ cos2 β ′,

donde γ = Pr Rω (1 + i ) . Además, la solución para la temperatura estacionaria que satisface las condiciones (44) resulta ser F4 ( cosh 2 α′ − cosh 2 α′y ) + F5 ( cos 2 β′ − cos 2 β′y )    2  1  + F6 1 − y + ( F7 α′ + F8 β′ ) Θs ( y ) =   + Θω AA ( sinh α′ sin β ′ − sinh α′y sin β′y )    os β ′ − cosh α′y cos β′y )   − ( F7 β′ − F8 α′ ) ( cosh β′ co

c1 =

c2 =

sinh α′ sin β ′ ( α′ cosh α′ sin β′ − β′ sinh α′ cos β′) α′2 + β ′2

− sinh2 α′ sin2 β ′,

c3 = M 2 ( K − 1) sinh α′ sin β′ −

( α′ cosh α′ sin β ′ −

KM 2 α ′2 + β ′2

β′ sinh α′ cos β′ ) ,

c4 = M 2 ( K − 1) cosh α′ cos β′ −

( α′ sinh α′ cos β ′ +

KM 2 α′2 + β ′2

β′ cosh α′ sin β′ ) ,

La disponibilidad de las expresiones para la temperatura, la velocidad y la densidad de corriente eléctrica nos permiten, una vez más, calcular la tasa de generación de entropía como hicimos en los ejemplos anteriores. Antes de hacerlo, sin embargo, en este caso consideraremos la eficiencia, que es un concepto fundamental para el diseño de un generador magnetohidrodinámico. Generalmente, la eficiencia isotrópica eléctrica se define como el cociente entre la potencia eléctrica de salida Pe, y la potencia “de empuje”, Pf, integrada sobre el volumen total V del canal MHD. En el caso del generador alterno, también debe realizarse una integración sobre un periodo t0 (o un número entero de periodos). Así, la eficiencia eléctrica se puede expresar como


López / Cuevas / Ibáñez

1 τ0

ηe =

Pe τ0 = 1 τ0 Pf

τ0

0

0

dt ∫ j ′ ⋅ E ′dV

dt ∫

V

( j ′ × B ) ⋅ u ′dV V

,

(47)

De hecho, el término j’.E’ en el sistema de referencia del laboratorio es igual a la tasa de disipación de Joule más el trabajo por unidad de tiempo realizado contra la fuerza de Lorentz (j’ x B) . Por lo tanto he nos proporciona la fracción del trabajo mecánico hecho por el fluido al vencer la fuerza magnética que se convierte en potencia eléctrica útil. La Ec. (47) contiene una integración sobre el volumen total V por lo que la eficiencia eléctrica depende solamente de las parámetros K, M y Rw. Por lo que se refiere a la tasa de generación de entropía local para este problema, la expresión adimensional para S , obtenida por el procedimiento indicado en la sección de la termodinámica irreversible lineal, es 2

2

1  ∂Θ  1  ∂u  1 2 S = 2   +   + jz , Θ  ∂y  Θ Θ  ∂y 

(48)

Como ya se apuntó, un criterio común para optimizar el desempeño de los generadores magnetohidrodinámicos es el de maximizar la eficiencia eléctrica isotrópica dada por la Ec. (47). Sin embargo, esta magnitud no toma en cuenta las irreversibilidades ocasionadas por la fricción y el flujo de calor. De hecho, he solamente toma en cuenta la pérdida de energía causada por disipación de Joule. Se puede pensar en una eficiencia completa que considere no solamente el trabajo mecánico hecho por el fluido para vencer la fuerza magnética, sino también el realizado contra las fuerzas de fricción y las pérdidas energéticas por flujo de calor. Utilizando la tasa de generación de entropía local, definimos la eficiencia global (de segunda ley) del generador magnetohidrodinámico alterno como

ηS = 1 − 〈〈 ΘS 〉〉 , 〈〈W 〉〉

(49)

donde los dos paréntesis angulares denotan la integración en el volumen del canal y sobre un periodo de oscilación, y es la tasa neta de transferencia de trabajo al sistema que incluye el trabajo mecánico para vencer a las fuerzas de fricción y de Lorentz, y el flujo de calor ocasionado por la diferencia entre la temperatura (constante) de las paredes y la temperatura del fluido. Esta cantidad depende solamente de los parámetros físicos relevantes del generador (M, Rw, K y Qw), por lo que ahora la estrategia de optimización consiste en que, una vez fijada Qw de acuerdo con condiciones de operación apropiadas, se busquen los valores de M, Rw, y K que maximicen la función hS. Como ejemplo, en la Figura 3 del Anexo se muestra la eficiencia global hS en función de M para Rw = 1.37 x 10 6 y valores distintos del factor de carga K. Para el caso mostrado se encuentra que el valor óptimo del número de Hartmann (en el sentido de que proporciona máxima potencia de salida con un mínimo de pérdidas de energía a la frecuencia adimensional crítica Rw = 1.371.37 x 10 6) es M = 450. Este valor de Rw corresponde a sodio líquido a 130°C y a una frequencia de f=1 kHz y debe mencionarse que este fluido y estas condiciones de operación corresponden a las que se han usado experimentalmente en un dispositivo termoacústico.

Comentarios finales En estas notas hemos intentado presentar un panorama del uso de herramientas termodinámicas para el diseño y optimización de procesos y dispositivos, incluyendo algunos ejemplos en los que hemos hecho (modestas) contribuciones originales. Cabe por tanto recordar lo escrito por A. Bejan y sus coautores en el libro Thermal design and optimization (citado en la bibliografía) que en cierta medida sirve para apoyar la importancia y el interés de este asunto. Traducido libremente, el texto señala: “Los ingenieros no solamente deben ser conocedores profundos de los fundamentos científicos de sus disciplinas, sino que también deben ser capaces de diseñar y analizar componentes que se encuentran comúnmente en sus campos de práctica: mecanismos, turbinas, reactores, circuitos eléctricos, etcétera. Más aún, los ingenieros deben ser capaces de sintetizar algo que no existía y evaluarlo con diferentes criterios como el económico, el de seguridad, el de confiabilidad o el del impacto ambiental. Las habilidades de síntesis y evaluación

75


Entropía y optimización de procesos y dispositivos

están en el corazón del diseño ingenieril. Dicho diseño también tiene un componente creativo importante no muy distinto del que se encuentra en el campo de las artes”. Debe quedar claro que la metodología que hemos descrito está plenamente sustentada en la Termodinámica clásica y la de los procesos irreversibles y que los pasos a seguir son relativamente simples. Asimismo, debemos insistir en que una de las dificultades mayores que uno enfrenta al utilizar este método es la resolución de las ecuaciones de transporte y que en los ejemplos que presentamos fuimos capaces de obtener resultados analíticos, lo cual siempre es una ventaja porque permite un análisis controlado de los efectos de los parámetros. En nuestra opinión, parece particularmente interesante el hecho de que para los dos primeros ejemplos (y esto se ha encontrado también en otros problemas) las condiciones de optimización requieran de un enfriamiento asimétrico convectivo, situación que no podía haberse anticipado. Evidentemente los sistemas ejemplificados representan casos de éxito cuyo análisis ha dejado enseñanzas. Confiamos en que este enfoque siga utilizándose también con éxito en el futuro aunque es previsible que la cantidad de resultados analíticos obtenidos se vea desplazada por resultados que emanen de la solución numérica de las ecuaciones de transporte.

76

* Estas notas están basadas en la plática del mismo título impartida por M. López de Haro en la Facultad de Química de la UNAM el 6 de octubre de 2005.

A continuación presentamos una lista de material de lectura adicional que, muy lejos de ser exhaustiva, sí se considera útil para complementar el contenido de estas notas.


López / Cuevas / Ibáñez

Bibliografía

A) Termodinámica clásica 1. Fermi, E. (1956). Thermodynamics, Dover, N.Y. 2. Callen, H. B. (1985). Thermodynamics and an introduction to thermostatics, 2nd. Edition, Wiley, N. Y. 3. Zemansky, M. W. y Dittman, R. H. (1996). Heat and thermodynamics, McGraw-Hill, N.Y. 4. García-Colín, L. S. (1998). Introducción a la Termodinámica clásica, Trillas, México.

B) Termodinámica de los procesos irreversibles 1. Groot, S. R. de y Mazur, P. (1984). Non-equilibrium Thermodynamics, Dover, N.Y. 2. García-Colín, L. S. (1989). Termodinámica de procesos irreversibles, UAM, México. 3. Criado-Sancho, M. y Casas-Vázquez, J. (2004). Termodinámica química y de los procesos irreversibles, 2a Edición, Pearson-Addison Wesley, Madrid.

C) Minimización de entropía 1. Bejan, A. (1995). Entropy generation minimization, CRC, Boca Ratón. 2. Bejan, A., Tsatsaronis., G. y Moran, M. (1995). Thermal design and optimization, Wiley, N.Y. 3. Bejan, A. y Mamut, E. (1999). Thermodynamic optimization of complex energy systems, Springer, Berlin.

77


Entropía y optimización de procesos y dispositivos

D) Nuestro trabajo 1. Salas, H., Cuevas, S., y López de Haro, M. (1999). “Entropy generation analysis of magnetohydrodynamic induction devices”, J. Phys. D: Appl. Phys. 32, 2605 - 2608 2. Ibáñez, G., Cuevas, S. y López de Haro, M. (2002). Optimization analysis of an alternate MHD generator, Energy Conversion and Management 43, 1757 – 1771. 3. Ibáñez, G. , Cuevas S. y López de Haro, M. (2003). “Minimization of entropy generation by asymmetric convective cooling”, Int. J. Heat Mass Transf. 46, 1321 – 1328. 4. Ibáñez, G., Cuevas, S. y López de Haro, M. (2003). “Heat transfer in asymmetric convective cooling and optimized entropy generation rate”, Rev. Mex. Fís. 49, 338 –243. 5. Ibáñez, G., Cuevas, S. y López de Haro, M. (2004). “Thermodynamic optimization of radial MHD flow between parallel circular disks”, J. Non-Equilib. Thermodyn. 29, 107 - 122. 6. Ibáñez, G. S. Cuevas y López de Haro, M. (2006). “Optimization of a magnetohydrodynamic flow based on the entropy minimization method”, Int. Commun. Heat Mass Transfer. 33, 295 - 301.

78


López / Cuevas / Ibáñez

ANEXO

. <S>

0.08

0.07

Bi 2s =2 Bi 2s =3 Bi 2s =5 Bi 2s =1 0 Bi 2s =1 5

0.06

0.05

0

5

10

15

20

Bi1s

25

Figura 1: Tasa de generación de entropía global para el calentamiento interno estacionario de una placa sólida como función del número de Biot de la superficie superior y valores distintos del número de Biot de la superficie inferior.

( Bi1)

opt

0 .6

79

0 .5

Q a f =1 Q a f =2 Q a f =100

0 .4 0 .3 0 .2 0 .1 0 .0 -0 .1

0

2

4

6

8

10

Bi2

-0 .2

Figura 2: Número de Biot óptimo de la pared superior para el flujo viscoso entre paredes planas paralelas como función del número de Biot de la pared inferior y distintas temperaturas ambiente.


Entrop铆a y optimizaci贸n de procesos y dispositivos

h.s

0.8

K=0.25 K=0.5 K=0.75

0.7

0.6

0.5

0.4

0.3

0

1000

2000

3000

4000

M

Figura 3: Eficiencia global del generador magnetohidrodin谩mico alterno en funci贸n de M para distintos valores del factor de carga.

80


Cuatro muertes y un funeral Dra. Ma. del Carmen Mejía Vázquez Departamento de Medicina Genómica y Toxicología Ambiental Instituto de Investigaciones Bioquímicas, UNAM

El ciclo de una célula, al igual que el de todos los organismos vivos, se cierra con la muerte. Sin embargo, ésta puede estar programada y llevarse a cabo de forma silenciosa y ordenada -como en el caso de la apoptosis-, o ser la consecuencia de algún daño externo y llevar a la necrosis. No se trata de dos eventos distantes; por el contrario, existe todo un continuo que involucra diferentes combinaciones de la maquinaria de la muerte celular. La muerte de una célula por apoptosis implica una serie de cambios morfológicos en conjunto, con reacciones bioquímicas que la definen como tal. La membrana plasmática se altera y aparecen las características extrusiones de la membrana, que le dan una apariencia de racimo de uvas. El volumen celular se reduce considerablemente y el citoplasma se condensa. El núcleo se reduce y la cromatina se hace más densa y se colapsa, dividiéndose al final en varias esferas que permanecen rodeadas de membrana. La célula apoptótica finalmente es fagocitada por macrófagos o por células vecinas, evitando así la respuesta inflamatoria local ocasionada en la necrosis cuando la célula, al romperse, libera su contenido al medio (Figura 1).

Apoptosis

(la célula se encoge, la cromatina se condensa)

Necrosis (la célula se hincha)

Cuerpos apoptóticos

La célula comienza a romperse

Cuerpos apoptóticos se condensan, no hay inflamación

La lisis nuclear y celular causa inflamación

Figura 1: La muerte de una célula puede estar programada (como en la apoptosis), o sufrir daño y morir por necrosis.

81


Cuatro muertes y un funeral

En la necrosis, la célula se hincha y la membrana plasmática se rompe, dando como resultado daño celular caracterizado por la liberación de enzimas lisosomales. En determinadas condiciones, puede existir una superposición entre la necrosis y la apoptosis (Tabla I). NECROSIS

APOPTOSIS

Distribución de tejidos

Grupos de células

Células sencillas

Reacción de tejidos

Lisis, salida de componentes, inflamación

Fagocitosis por macrófagos o células vecinas, sin salida de componentes

Morfología celular

Hinchamiento

Membrana plasmática Organelos Núcleo Lisosomas

Pérdida de integridad Dañados Desintegrado Rotos

Mitocondria

Defectuosa, s/ATP, hinchada, rota

DNA

Degradación no específica

Hinchada, poro de transición, c/ATP, liberación de citocromo c Degradación internucleosomal

Proteínas

Degradación no específica

Activación de caspasas, calpainas

Sustratos

Hidrólisis no específica

Sustratos específicos

Moléculas anti-muerte

Bcl-2 (en algunos casos)

Familia Bcl-2, IAP’s, FLIPs, inhibidores de caspasas

“Contracción celular”, pérdida de contacto con células vecinas Formación de cuerpos apoptóticos Intactos Condensado y después fragmentado Intactos

Tabla I. Diferencias entre necrosis y apoptosis.

82

Las primeras observaciones de la muerte celular programada, fueron hechas en el contexto del desarrollo embrionario. Se sabe que cumple varios objetivos, siendo uno de ellos la escultura de distintas estructuras, como la eliminación de las membranas interdigitales para formar los dedos en vertebrados superiores, o el vaciado de cuerpos sólidos para crear una luz. La apoptosis permite también el control de la sobreproducción de células, como en el caso de las neuronas, cuyo número final se ajusta por apoptosis. También mediante apoptosis, se eliminan las células anormales, con localización errónea, no funcionales o potencialmente peligrosas, de forma que sólo completen el proceso de desarrollo las células no dañadas. La formación de células diferenciadas especiales, como los hematíes y los queratinocitos, son formas modificadas de apoptosis. La homeostasis define los mecanismos encargados de la regulación de distintos procesos dentro del organismo, como el de la regulación del recambio de células en los tejidos, la cual ocurre por apoptosis. La muerte de las células durante el desarrollo obedece a una serie de señales que pueden proceder de las células que van a sufrir apoptosis, en un proceso de autorregulación o del exterior. La señal externa, que puede ser un factor soluble

asociado con la membrana de otras células o con la matriz extracelular, puede inducir la supervivencia de la célula o la apoptosis. Un ejemplo clásico de inducción de apoptosis mediante una señal de forma sistémica, es la pérdida de la cola durante la metamorfosis de los renacuajos, en respuesta al incremento en sangre de la hormona tiroidea. En el proceso global de desarrollo, es posible que ocurra una combinación de señales positivas y negativas para dar lugar a que ésta se desarrolle de forma favorable. El concepto de senectud de las células está, en parte, asociado con la acumulación de daños en su material genético, lo que las convierte en potencialmente peligrosas. El daño al ADN desencadena respuestas mediadas primero por cinasas, y después por el factor de transcripción p53, que pueden culminar con la apoptosis de la célula si los daños son graves. Otra señal que puede desencadenar la eliminación por apoptosis de una célula dentro de determinado tejido, es la pérdida de adhesiones con la matriz que lo rodea. Este tipo de apoptosis se denomina anoikis y, además de eliminar a las células que han dejado de formar parte del tejido al perder sus conexiones a él, evita que se puedan unir a matrices en otras localizaciones originando una displasia. La anoikis


Ma. del Carmen Mejía Vázquez

se descubrió en células epiteliales y endoteliales, y se ha documentado in vivo en un tejido sujeto a un recambio constante como la piel. En la actualidad, se investiga el papel de diversas moléculas de adhesión como las integrinas, los receptores de muerte y las caspasas en la señalización de la anoikis.

Antecedentes históricos A mediados del siglo XIX, con el descubrimiento de que los organismos estaban compuestos por células, la muerte celular comenzó a considerarse como un fenómeno fisiológico importante. Las primeras observaciones de la muerte celular fisiológica, fueron realizadas por Vogt en 1842, durante la metamorfosis de anfibios; posteriormente Clarke, en 1996, la describió en otros tejidos en desarrollo, tanto de invertebrados como de vertebrados. El concepto de “muerte celular programada” fue acuñado por Lockshin y Williams en 1964, y describía la muerte de las células que ocurría en lugares y momentos determinados como eventos programados dentro del plan de desarrollo del organismo. Años después, en 1972, Kerr, Wyllie y Currie (Kerr JFR, 1972), a partir de una recopilación de evidencias morfológicas, establecieron las diferencias entre dos tipos de muerte celular. La patológica que ocurre, por ejemplo, en el centro de una lesión aguda como trauma o isquemia, está caracterizada por la rotura celular y recibe el nombre de necrosis celular; y la fisiológica, que ocurre durante el desarrollo o la hemostasis del organismo, que mantiene la integridad de la célula y a la que Kerr y sus colaboradores llamaron apoptosis. Según este grupo, la muerte por apoptosis respondía a un programa de muerte intracelular que podía ser activado o inhibido por una variedad de estímulos, tanto fisiológicos como patológicos. En 1982 tuvo lugar un descubrimiento que abrió las puertas al estudio profundo de las bases moleculares y genéticas del proceso de apoptosis. Horvitz publicó los estudios genéticos realizados sobre el nematodo caenorhabditis elegans, en los que se describieron los genes encargados del control y la ejecución de la apoptosis en este organismo (Ellis R, 1991). Gracias a la homología existente entre los genes de C. elegans y organismos superiores, la apoptosis en este nematodo

ha sido tomada como referente del proceso en todos los sistemas, y ha permitido identificar una parte importante de la red de mecanismos que lo controlan. La ventaja de C. elegans como sistema experimental es que posee 959 células somáticas transparentes, que se pueden estudiar individualmente mediante microscopía, y 17 mil 800 genes diferentes que forman su mapa genético secuenciado íntegramente. A pesar de su simplicidad, este nematodo desarrolla los procesos que en organismos superiores son motivo de estudio: Embriogénesis, desarrollo, funcionamiento del sistema nervioso, comportamiento y envejecimiento regidos por genes que se han conservado a lo largo de la evolución hasta los mamíferos. La apoptosis juega un papel importante en el desarrollo embrionario de C. elegans. A partir de los estudios de Horvitz de 1986, se estableció el número y la localización de las células que morían por apoptosis durante el desarrollo, y mediante el análisis de mutantes se describieron los genes implicados en este mecanismo. Estos genes se denominaron ced y se numeraron desde el -1 al -10. Así, ced-3, -4 y -9 regulan la fase ejecutora de la apoptosis, y el resto está implicado en los procesos de eliminación por fagocitosis de la célula apoptótica.

MOLÉCULAS IMPLICADAS EN LA APOPTOSIS

Receptores de muerte Las moléculas relacionadas con el proceso de apoptosis que se han mantenido a lo largo de la evolución, desde organismos como el C. elegans hasta los mamíferos, llevan a cabo un programa de apoptosis iniciado por señales que provienen del interior celular. Estas señales responden a eventos que comprometen el buen funcionamiento de la célula: Pérdida de contacto con las células que la rodean, estrés celular o señales contradictorias y simultáneas en cuanto a la puesta en marcha o no, de su ciclo de división. Ante esta situación, en la cual la célula es potencialmente peligrosa para el sistema donde se encuentra integrada, se activa la maquinaria de apoptosis y es eliminada. En la apoptosis tienen un papel fundamental los llamados receptores de muerte, situados en la superficie de la célula, y que reciben la señal de ligandos de muerte específicos para cada uno de ellos. Los receptores

83


Cuatro muertes y un funeral

pueden dar la señal directamente a las caspasas en pocos segundos, disparando así el programa de apoptosis.

determinar el papel jugado por algunas moléculas, estudiar el efecto que tiene la pérdida de función en ratones knockout.

Los receptores de muerte pertenecen a la superfamilia del receptor de TNF (tumor necrosis factor), cuyos integrantes tienen en común un dominio extracelular rico en cisteína. Otro rasgo común a todas estas moléculas señalizadoras, es la presencia de una secuencia situada en su dominio intracitoplásmico y que serviría para acoplar al receptor con el resto de la maquinaria apoptótica. Los receptores de muerte mejor caracterizados son:

En el caso de CD95/CD95L, los ratones que portan las mutaciones homocigóticas lpr (lymphoproliferation) o gld (general lymphoproliferation disease), se traducen en una pérdida de función de los genes CD95 y CD95L respectivamente. Estos ratones presentan linfoadenopatías y esplenomegalia por acumulación de células de origen T CD4- CD8-, niveles elevados de auto-anticuerpos y desórdenes de carácter autoinmune e inflamatorio. En el caso de las moléculas CD95/ CD95L, se ha descrito en una serie de niños una mutación heterocigótica en el gen que codifica CD95. Esta mutación da lugar a un fenotipo similar al de los ratones lpr y gld, incluyendo linfoadenopatías, esplenomegalia, hipergammaglobulinemia y, en forma variable, una serie de alteraciones autoinmunes.

CD95 (APO-1/Fas)

84

Esta proteína fue identificada inicialmente mediante un anticuerpo dirigido contra ella y que define un antígeno presente en la superficie de células, como linfocitos humanos B y T activados, algunas líneas tumorales de origen linfoide y otros tipos celulares, como los hepatocitos. El anticuerpo contra CD95 se une a las células que lo expresan, provocándoles apoptosis in vitro. Por otra parte, inyectando in vivo anticuerpo anti-CD95 a ratones nu/nu con xenotransplantes de tumores humanos, eliminaban éstos por apoptosis. El gen que codifica para la proteína CD95 en humanos, se encuentra en la localización 10q23, y se compone de nueve exones interrumpidos por ocho intrones. El dominio extracelular de la proteína está formado por tres subdominios ricos en cisteínas, codificados por los exones 2, 3 y 4, mientras que la zona intracitoplásmica, incluida la región reguladora llamada “death domain”, se encuentra en el exón 9. El ligando fisiológico de CD95 se denomina CD95L y es una proteína de la familia del TNF. La proteína ha podido ser detectada en células epiteliales, fibroblastos, osteoblastos y ciertos tipos de células endoteliales. Además, en el ARN mensajero del ratón, se ha detectado abundantemente en timo, corazón, hígado y ovario. Por otra parte, CD95L se expresa predominantemente en células T y NK activadas, así como de forma constitutiva en los tejidos que gozan de “privilegio inmune”. Este patrón de expresión de ambas moléculas demuestra que deben estar implicadas en una serie importante de procesos fisiológicos relacionados con el sistema inmune. Resulta importante a la hora de

TNFR1 El receptor 1 de TNF es una proteína de aproximadamente 55 kDa y se expresa en casi todos los tipos celulares. Esta proteína da nombre a la familia en que está integrada, y comparte con CD95 los tres subdominios ricos en cisteínas situados en la zona extracelular. El ligando de TNFR1 es TNF, una citocina producida principalmente por macrófagos activados y células T en respuesta a infección. A diferencia de la pareja formada por CD95/ CD95L, NFR1/TNF es capaz de trasmitir a la célula dos tipos de señales muy distintas entre sí. Por una parte, la unión de TNF a su receptor TNFR1 activa a los factores de transcripción NF-κB y AP-1, dando lugar a la inducción de genes de carácter proinflamatorio e inmunomodulador. Por otra parte, esta unión puede dar lugar también a una señal de apoptosis. La señalización de apoptosis por medio de TNFR1 es mucho más limitada que la mediada, por CD95. En el caso de TNFR1, la unión de su ligando sólo señaliza la apoptosis en algunos tipos celulares cuando la síntesis de proteínas ha sido bloqueada. Por lo anterior, se deduce que debe existir en las células algún factor que bloquee las señales de apoptosis derivadas de TNFR1. La expresión de este factor estará probablemente controlada a través de NF-κB y JNK/AP-1.


Ma. del Carmen Mejía Vázquez

DR3 El receptor DR3 (death receptor 3) es muy parecido en cuanto a su secuencia, a TNFR1. Cuando se une a su ligando Apo3L, da lugar también a una doble señal que puede llevar a la activación de NF-κB o a la muerte por apoptosis de la célula. Las moléculas que median ambas vías de la señalización, son también las mismas que en el caso de TNFR. La diferencia entre ambas rutas de señalización es la expresión, tanto de receptores como de ligandos. El mensajero de Apo3L se encuentra expresado de forma constitutiva en muchos tejidos, mientras que DR3 se encuentra presente principalmente en bazo, timo y sangre periférica y se induce por la activación en linfocitos T. De forma inversa, es el receptor de TNF el que se encuentra expresado de forma ubicua mientras que el ligando se expresa sólo en linfocitos y macrófagos activados. Esta diferencia sugiere distintas funciones biológicas para ambas vías de señalización.

DR4 y DR5 DR4 y DR5 son receptores de muerte cuyo ligando TRAIL o Apo2L es el que muestra más similitud con CD95L, aunque, a diferencia de esta molécula, su ARN mensajero se encuentra expresado de forma constitutiva en gran cantidad de tejidos, y la expresión se eleva en linfocitos T de sangre periférica cuando éstos son estimulados. La señal a través de Apo2L produce apoptosis en una gran variedad de líneas tumorales. Se ha descrito también en una subpoblación de células T maduras y un aumento de la apoptosis mediada por Apo2L al tratarlas con IL-2, lo que puede sugerir un posible papel de estos receptores en la deleción periférica de los linfocitos T. Otro posible papel de la apoptosis mediada por Apo2L, es la eliminación de células infectadas por virus. La señal de apoptosis mediada por estos receptores puede ser regulada mediante una familia de receptores “decoy” (señuelo) [Sartorius U, 2001], DcRs, que protegen a la célula de la apoptosis provocada por la unión de TRAIL. Uno de los miembros de esta familia es DcR1 (TRID, TRAIL-R3 o LIT), una proteína ligada a la superficie celular por una unión glicosil fosfatidil-inositol (GFI), que se asemeja a la porción extracelular de DR4, pero sin poseer ningún dominio intracitoplásmico.

DcR1 es capaz de unirse a TRAIL, y su transfección en células sensibles a esta vía de señalización, reduce notablemente la apoptosis mediada por esta señal. DcR2 (TRAIL-R4 o TRUNDD) es también un receptor homólogo a DR4 y DR5 con el dominio intracitoplásmico truncado. Se ha demostrado que la transfección con DcR2 inhibe la apoptosis mediada por TRAIL de forma no activa, ya que la eliminación de su dominio interno no influye en su actividad inhibidora. Todos estos datos indican que, tanto DcR1 como DcR2, compiten con DR4 y DR5 por la unión de TRAIL, dificultando así que la señal de apoptosis sea transmitida a través de estos receptores.

Proteínas de la familia Bcl-2 Una de las vías de regulación más importante de la apoptosis se lleva a cabo por una familia de proteínas que en la actualidad cuenta con 15 miembros en mamíferos y otros tantos en virus, y que tienen como característica, la homología de todos sus integrantes con Bcl-2, que fue la primera que se describió. Las moléculas de esta familia tienen su equivalente en el sistema de C. elegans. Una de sus proteínas encargadas de llevar a cabo el programa de apoptosis, (CED-9), muestra gran similitud, tanto estructural como funcional, con Bcl-2, impidiendo la activación de CED-3, efectora de la apoptosis, por CED-4. La descripción del primer miembro de la familia Bcl-2, se realizó al estudiar el punto de corte de la translocación t(14:18), presente en 85% de los linfomas foliculares de células B humanas. Esta translocación trasladaba un protooncogén, al que se denominó bcl-2, desde su posición normal en 18q21 hasta el locus de la cadena pesada en 14q32. Esto colocaba a bcl-2 bajo las órdenes del promotor de la cadena pesada de la inmunoglobulina, desregulando su transcripción y dando como resultado la sobreexpresión de Bcl-2 en las células de linfoma. A partir de la descripción de esta proteína, tuvieron lugar otras muchas descripciones de moléculas que guardaban homología con ésta, y que tenían carácter anti o pro-apoptótico. Lo que identifica a todas estas proteínas como miembros de una sola familia, es la presencia en su estructura de al menos una de cuatro secuencias consecutivas descritas, y que se numeran desde BH1 a BH4. De estos dominios parece que BH3 está directamente relacionado con una función pro-apoptótica, y el resto de ellos con una función anti-apop-

85


Cuatro muertes y un funeral

tótica. La estructura que presentan está también condicionada a la presencia de estos dominios. BH1, BH2 y BH3 forman una α-hélice cada uno de ellos y cuando están presentes en la misma molécula, por ejemplo Bcl-x, pueden formar una hendidura hidrofóbica, en la cual podría encajar la α-hélice formada por el dominio BH3 si se encontrara en otra molécula de la familia orientado hacia el exterior. Este dato estructural explica el importante papel en el funcionamiento de estas moléculas, las homo y heterodimerizaciones, que tienen lugar entre ellas y que pueden dar lugar a su activación o inactivación. De esta forma, se crearía un equilibrio entre ellas en el que sería de vital importancia la cantidad relativa de cada una. La heterodimerización no es necesaria para la actividad de los miembros anti-apoptóticos de la familia y para los pro-apoptóticos del grupo Bax. Sin embargo, es muy importante para los miembros proapoptóticos del grupo BH3, que basan gran parte de su funcionamiento en la unión a las proteínas anti-apoptóticas alterando su actividad. Los miembros más estudiados y que poseen una relación con el sistema inmune, son:

86

• Bcl-2: Es la proteína prototipo de esta familia, pesa 26 KDa y tiene los cuatro dominios que la definen (BH1-BH4). Es una proteína integral de membrana, y se encuentra en la cara citoplásmica de la membrana externa de la mitocondria, el retículo endoplásmico y la membrana nuclear. En esas membranas, debido a que puede formar una estructura similar a un poro, se desarrolla una de sus posibles funciones: Modificar el flujo de moléculas o pequeñas proteínas a través de ellas, interviniendo en la estabilidad de organelos, como la mitocondria, ante la existencia de posibles daños. Su sobreexpresión puede evitar o al menos retrasar varias formas de muerte celular programada, como las inducidas por retirada de factores de crecimiento, radiación g, glucocorticoides y múltiples drogas quimioterapeúticas. En contraste, parece no influir en otros mecanismos de apoptosis como, por ejemplo, la señalización vía CD95 en la mayoría de los tipos celulares. • Bcl-xL: Es una proteína estrechamente relacionada con Bcl-2, tanto en estructura como en función. Tiene los cuatro dominios BH y su peso molecular es de 30 KDa. Su sobreexpresión puede mediar una resistencia a la muerte celular por apoptosis, dependiente de la retirada de factor de crecimiento. Se ha estudiado la expresión del ARN

mensajero de esta molécula y parece encontrarse en una gran variedad de tejidos, entre los que destacan algunas poblaciones del sistema hematopoyético y el SNC. Esta distribución preferencial puede sugerir algunos de los papeles fisiológicos de la expresión de esta proteína. La sobreexpresión constitutiva del mensajero en tejido neural adulto, puede estar relacionada con la capacidad de este tejido para mantener la viabilidad celular postmitótica durante largos periodos de tiempo. Dentro de la ontogenia de los linfocitos B, Bcl-xL, se expresa en dos momentos muy concretos: En el estadio pre-B y durante la estancia de las células en los CG, al mismo tiempo en que se produce una desregulación de Bcl-2. Aunque todavía no se ha podido establecer su mecanismo de acción, se ha observado que el ratón knockout para este gen es inviable, lo que demuestra su enorme importancia también durante el desarrollo embrionario. • Bax: Esta proteína es uno de los miembros pro-apoptóticos más importantes de la familia. Pesa 21 KDa y posee los dominios BH1, BH2 y BH3, aunque son BH1 y BH2 los que guardan una estrecha homología con Bcl-2. Bax está ampliamente expresado en los distintos tejidos, y su sobreexpresión acelera la muerte en respuesta a distintas señales. Recientemente, Bax ha sido objeto de estudio por su implicación en los fenómenos mitocondriales de la apoptosis, y su capacidad de llevar a cabo una forma de muerte celular programada independiente de muchos de los mecanismos de regulación y ejecución de este proceso. Esto parece estar relacionado con su capacidad para interaccionar con los canales que controlan la permeabilidad y el flujo iónico en dicho organelo. • Subfamilia BH3: Está compuesta sólo por miembros proapoptóticos que, excepto por el dominio BH3, no muestran homología con Bcl-2. Para ejercer su actividad, estas proteínas pueden formar heterodímeros con miembros antiapoptóticos de la familia. Para ello, el dominio BH3 de los miembros de este grupo puede introducirse en el hueco hidrofóbico formado por la asociación de las regiones BH1, BH2 y BH3 de los miembros antiapoptóticos. Un ejemplo de la acción de esta familia de proteínas es la que ejercen Bid y Bik sobre la mitocondria, donde inducen la liberación de citocromo c y posterior apoptosis.


Ma. del Carmen Mejía Vázquez

La familia de las caspasas

las que actúan al final de la cascada sobre los componentes celulares, llevando a cabo la proteólisis.

Los ejecutores de la apoptosis son una familia de proteasas llamadas caspasas. Este sistema se ha mantenido a lo largo de la evolución y, luego de su descripción en C. elegans, se encontró el equivalente en mamíferos gracias a la homología que presentaban ambas moléculas. La primera pro teasa encontrada en mamífero se denominó ICE (interleukin-1b-converting enzime) o caspasa-1 (cisteínaaspartasa-1), y es precisamente uno de los pocos miembros de la familia al que no se le ha podido encontrar relación directa con el proceso de apoptosis, sino más bien con el de la inflamación.

Las caspasas cortan una cisteína precedida por un aspártico, cuando existe en el sustrato una secuencia de reconocimiento compuesta de cuatro aminoácidos y que varía significativamente entre las diferentes caspasas. Además, es necesario que la proteína sustrato posea también una estructura terciaria que le permita ser reconocida por las caspasas. A la hora de estudiar el papel de las caspasas en los distintos sistemas, se utilizan péptidos inhibidores sintéticos, que compiten con los sustratos fisiológicos por el sitio activo de la enzima. Estos péptidos pueden ser específicos para bloquear la acción de una o varias caspasas o generales. También existe variabilidad en cuanto a la reversibilidad de su efecto.

La familia de las caspasas en humanos está formada hasta el momento por 14 miembros (Yigong S, 2002), y todos ellos se encuentran en forma de cimógeno o proenzima con una estructura bien definida. El dominio N-terminal es muy variable tanto en secuencia como en longitud, y tiene funciones de regulación y activación. La región catalítica está formada por dos dominios, uno de 20 KDa y otro de 10 KDa, que darán lugar a las dos subunidades de la enzima una vez activada. Las caspasas se dividen en dos grupos, según la longitud de su región reguladora N-terminal o prodominio. Las caspasas con prodominio largo como la -1,-2, -4, -5, -8 y -10, parecen estar involucradas en funciones de regulación de la activación de la cascada. Ejemplos bien conocidos de este grupo son las procaspasas -8 y -10, que contienen en sus largos prodominios repeticiones de una secuencia de interacción proteína-proteína llamada dominio efector de muerte, o DED (death effector domain), y las procaspasas -1, -2, -4, -5 y -9, que contienen dominios de reclutamiento de caspasas o CARDs (caspase recruitment domains). La presencia de estas secuencias unida a su localización cercana a la membrana plasmática, hacen posible su reclutamiento hacia el complejo formado en torno a receptores de superficie señalizadores de apoptosis como CD95 y TNF, activándose allí y dando lugar al comienzo de la cascada de proteólisis, por lo que se les conoce como caspasas iniciadoras. El otro grupo está compuesto por las caspasas con prodominio corto, como las caspasas -3, -6 y -7. Éstas parecen estar situadas “downstream” en la cadena, y se ha demostrado in vitro que son activadas por alguna de las caspasas iniciadoras. Diversos estudios sugieren que estas caspasas efectoras son

El mecanismo de acción de las caspasas tiene importancia a la hora de explicar tanto su papel dentro de la apoptosis, como su activación. Todas las caspasas se activan por proteólisis y cumplen las condiciones para que esta activación sea llevada a cabo por otras caspasas. Una de estas moléculas activa a la otra cortando entre sus dominios; de esta forma, el prodominio se pierde y la enzima activa queda formada por un heterodímero compuesto por las subunidades grande y pequeña. Ambas subunidades aportan al sitio activo residuos encargados tanto del reconocimiento del sustrato como de la catálisis. A la hora de actuar, las caspasas lo hacen en forma de tetrámero, donde dos unidades enzimáticas se unen entre sí, manteniendo ambos sitios activos independientes (Figura 2). Este proceso de activación puede permitir a las caspasas realizar su función con un efecto de cascada, que se amplifica a sí mismo. Aún no se conoce cómo se origina la señal que determina la primera autocatálisis activadora que disparará el sistema, lo que podría ser además, uno de los puntos donde puede regularse el sistema. Existe una hipótesis basada en la observación de que la sobreexpresión de determinadas procaspasas en la célula, hace que éstas se agrupen y se autoactiven. Lo que sugiere que las caspasas iniciadoras podrían encontrarse como monómeros a bajas concentraciones, y que la molécula adaptadora unida al receptor de muerte serviría para unirlas propiciando su autocatálisis. Existe también un modelo llamado “de autocatálisis facilitada”, que postula que las caspasas se encuentran en la célula formando complejos, o con una conformación tal, que previene su autocatálisis. Un cofactor

87


Cuatro muertes y un funeral

actuaría facilitando la activación, cambiando la conformación, o liberando un inhibidor del complejo formado, de manera que se permitiese la autocatálisis de la proteína y el comienzo de la señal apoptótica.

Figura 2: a) Activación proteolítica por una caspasa río arriba, para caspasas efectoras, utilizada también por proteasas no-caspasas como la granzima B. b) Activación por proximidad, por el reclutamiento o agregación de múltiples moléculas de procaspasa-8, activación cruzada. c) Formación de una holoenzima, por cambio conformacional.

88

Los sutratos celulares sobre los que actúan las caspasas, son un número determinado de proteínas cortadas de manera coordinada, con la finalidad de hacerles perder su función o modificársela, de tal manera, que la organización celular resulte desmantelada. La rotura de sustratos por parte de las caspasas produce: • Degradación de moléculas implicadas en la protección de la célula del proceso de apoptosis, como es el caso de ICAD/DFF45, la molécula que mantiene inhibida a CAD, la nucleasa responsable de la degradación del ADN durante la apoptosis. Otras moléculas protectoras de la célula, y que son degradadas por caspasas, son algunos de los miembros anti-apoptóticos de la familia Bcl-2. En el caso de estas proteínas, la proteólisis libera un fragmento con poder pro-apoptótico por sí mismo. De esta forma, las caspasas realizan una alimentación positiva de su propio efecto.

• Degradan moléculas implicadas directamente en la estructura celular, como son la cinasa de adhesión focal o FAK (focal adhesion kinase), y la cinasa 2 activada por p21, modificando su actividad. En otras ocasiones, como en el caso de la gelsolina, la rotura por caspasa le hace perder la región reguladora, pasando a expresarse de forma constitutiva. • Otras proteínas degradadas por las caspasas son algunas de las relacionadas con la reparación, replicación y transcripción del ADN (DNA-PKCS) o la poli (ADP-ribosa) polimerasa (PARP). En este último caso, no está bien claro qué objetivo persigue la rotura de estos sustratos dentro del programa general de apoptosis. Ante el gran número de caspasas que existen, aparentemente con funciones intercambiables, se plantea la cuestión de la existencia de una función redundante entre ellas, o si lo que ocurre, es que su actividad es específica de cada tejido. Experimentos con ratones knockout, para varios miembros de las caspasas, concluyen que existe una activación de las caspasas dependiente tanto del tejido como del estímulo desencadenante de la apoptosis. Por último, la actividad de las caspasas se acompaña de la acción de sus inhibidores, al igual que ocurre con otros sistemas proteolíticos. Se han identificado varios de estos inhibidores, en virus. Los mejor estudiados son CrmA y p35. CrmA (cytokine response modifier A) es una molécula producida por el virus cowpox. Inhibe potencialmente las caspasas -1 y -8, y bloquea la apoptosis causada por TNF, CD95, la provocada por retirada de suero u otros factores de crecimiento, así como la que se origina tras romper las uniones de la células con la matriz extracelular. P35 es una proteína de baculovirus que bloquea principalmente la apoptosis producida por infección viral. Aunque estos inhibidores han sido encontrados sólo en varios virus, existe una familia de proteínas inhibidoras de apoptosis (IAPs), cuyos componentes se han descrito ya en humanos. Se ha descrito in vitro una potente activación selectiva de caspasa-3 y-7 por parte de IAP, aunque el mecanismo de esta inhibición continúa sin aclararse.


Ma. del Carmen Mejía Vázquez

Eliminación de la célula apoptótica

estructura no presentaba carácter proteico, ya que su acción no se inhibía por proteasas ni por inhibidores de su síntesis.

En el proceso de apoptosis, es tan importante que la muerte sea rápida, efectiva y sometida a buenos procesos de regulación, como que, una vez muerta, la célula sea rápidamente retirada. De esta manera se evita su rotura y que vierta su contenido al medio, lo que daría lugar a una respuesta inflamatoria. Estudios en C. elegans describen la existencia de siete genes implicados en el aclaramiento de las células apoptóticas, lo que demuestra la importancia de este proceso en la apoptosis. En general, existen dos estrategias para este proceso: 1) En tejidos con bajos índices de apoptosis, la fagocitosis es llevada a cabo por células vecinas; 2) en ciertos tejidos con altas tasas de apoptosis, existen células “profesionales” (generalmente macrófagos) que desarrollan esta función. Los mecanismos de reconocimiento de la célula apoptótica incluyen tanto sistemas de reconocimiento por parte de los fagocitos, como sistemas de señalización de su estado por parte de las células apoptóticas.

A partir de los estudios de inhibición, se identificó también un posible receptor presente en los fagocitos, la integrina a4b3, a la que se atribuían previamente sólo funciones de adhesión a la matriz. Trabajos posteriores confirmaron el papel de esta molécula en diferentes sistemas experimentales. En la interacción de esta proteína con la célula apoptótica, interviene una molécula puente, la trombospondina, que es secretada y sintetizada por los macrófagos y sirve de puente al unirse al complejo formado por a4b3 y CD36 en el fagocito, y a una estructura aún por determinar en la célula apoptótica. El tercer mecanismo de reconocimiento es la pérdida de asimetría de fosfolípidos. Esta provoca la exposición al exterior de la fosfatidilserina (FS). La inhibición de reconocimiento en ciertos sistemas mediante la adición de liposomas que contenían FS en su superficie, sugirió una posible interacción de la FS en la superficie de la célula apoptótica con un receptor en los macrófagos, lo que ha sido posteriormente confirmado. Todos estos mecanismos intervienen en el aclaramiento de las células apoptóticas. El funcionamiento de uno u otro depende de la especie y de la naturaleza, tanto de la célula apoptótica como del fagocito. En el caso de fagocitos “profesionales”, existe además el interrogante de qué estímulos quimiotácticos intervienen para atraer a dicha célula hacia el foco donde tiene lugar la apoptosis.

El primer mecanismo implica uno de los sistemas de interacción célula-célula más familiares: Los carbohidratos de superficie de una célula se unen a las lectinas de otra célula (Figura 3). Este sistema fue considerado a partir de la observación de que al añadir un azúcar, reconocido por determinada lectina de la superficie celular, como es el N acetil glucosamina, se reduce en un 50% la unión de macrófagos peritoneales de ratón a timocitos apoptóticos, sin afectar su unión basal a timocitos no apoptóticos. Se demostró que esta acción era específica de determinadas lectinas, ya que sólo algunos azúcares tenían propiedades inhibidoras. A partir de aquí, se estableció que la apoptosis provocaba cambios en los carbohidratos de la superficie celular que lo hacían reconocibles por algunas lectinas. Para confirmar esta hipótesis, se demostró en experimentos de microelectroforesis celular que existía una pérdida en la superficie celular de cargas negativas, lo que genera la pérdida de residuos terminales de ácido siálico de las cadenas laterales de las glicoproteínas por parte de las células apoptóticas, exponiendo residuos normalmente enmascarados por ellas, que interaccionan con las lectinas de la superficie de macrófagos. El segundo mecanismo se describió a partir de estudios de inhibición dependientes de carga eléctrica. Estos hicieron suponer la presencia de una estructura en la superficie de estas células apoptóticas, capaz de interaccionar con los fagocitos. Esta

Figura 3: Un repertorio de señales “cómeme” (arriba): Azúcares en proteínas y lípidos, y externalización de fosfatidil serina interactúan con receptores en el fagocito (abajo).

89


Cuatro muertes y un funeral

Regulación molecular del proceso de apoptosis

90

Dentro del proceso de apoptosis, todos los elementos se encuentran coordinados entre sí, tanto física como funcionalmente, y constituyen una gran variedad tanto de rutas de iniciación en respuesta a muy diferentes estímulos, como de puntos de regulación. En la vía señalizadora de apoptosis que, más que una forma lineal, presenta una estructura reticular muy ramificada en sus inicios, y que después va confluyendo hacia rutas comunes para terminar en una o varias, tienen especial importancia esos puntos de regulación. Existen sobre todo algunos, situados al final dentro de la red, donde se deciden acciones tan drásticas para la integridad celular que constituyen auténticos puntos de no retorno. A la hora de entender la interacción existente entre la señal de apoptosis y la puesta en marcha de la cascada de proteólisis mediada por caspasa, es necesario conocer la existencia de una serie de proteínas, los adaptadores. Entre estos adaptadores se encuentran FADD, TRADD y Apaf-1. FADD (Mort-1), una proteína que sirve de puente entre CD95 (Schlottmann KC, 1998) y la procaspasa-8. Para ello posee dos regiones de unión que la que distinguen a las moléculas adaptadoras. Por una parte, un dominio DD (death domain), por el cual se une a una región homóloga presente en la región intracitoplásmica de CD95; y por la otra, un dominio DED (death effector domain), por ejemplo las partículas del dominio CARD (caspase recruitment domain) de unión homotípica que poseen tanto las moléculas adaptadoras como las caspasas de prodominio largo y, que en este caso, le sirve para unirse a la procaspasa-8. La pérdida de FADD, estudiada mediante ratones knockout, es letal en la etapa embrionaria, lo que muestra que FADD debe tener otras funciones de señalización críticas, además de servir de puente entre CD95 y procaspasa-8. TRADD es el adaptador que se une mediante un dominio DD a la región intracitoplásmica de los receptores de superficie TNFR1 y DR3, y actúa como plataforma de emisión de varias señales, mediante su unión con otros adaptadores. La unión de TRADD con FADD, también por la región DD, media la activación de procaspasa-8, como se vio anteriormente. Por otra parte, TRADD puede unirse también al complejo formado por RIP (que posee también un dominio DD) y TRAF2

(Strasser A, 2000), dirigiendo la señal hacia la activación de NF-κb. Por último, la proteína Apaf-1, homóloga de la proteína de C. elegans. CED-4, actúa como una molécula adaptadora a nivel de mitocondria, uniéndose a procaspasa-9 a través de un dominio CARD que posee en su extremo N-terminal. Apaf-1 tiene la capacidad de homodimerizarse, facilitando la agregación de la procaspasa. El papel de Apaf-1 es muy importante, como lo demuestra el efecto que su ausencia tiene en el ratón knockout, que muere durante la embriogénesis con graves alteraciones craneofaciales, sobrecrecimiento del cerebro y malformaciones en el ojo. El inicio de la señal de apoptosis puede encontrarse tanto fuera de la célula, en los receptores de superficie, como dentro de ella respondiendo a estímulos de estrés celular a nivel de mitocondria o a disfunciones dentro del ciclo celular. Los receptores en la superficie de la célula como CD95 y TNFR1, dan comienzo a la señal de apoptosis realizando un reclutamiento de la procaspasa-8. Para ello, interviene la molécula adaptadora FADD, que en el caso de CD95 se une de forma directa y en el de TNFR1 lo hace a través de la molécula intermedia TRADD (TNFR-associated death domain). La proteína FADD contiene un dominio DED que recluta varias subunidades de procaspasa-8. TNFR1 puede dar lugar también a la activación de otras procaspasas mediante la unión de otras moléculas adaptadoras, como son RAIDD y RIP2, que contienen regiones CARD, el otro dominio de interacción proteínaproteína que sirve para el reclutamiento de procaspasas. A partir de esta activación, se desencadena el proceso de apoptosis. Otro punto de inicio de la señal de apoptosis es la mitocondria. Existe una molécula, Apaf-1, homóloga en mamíferos de la proteína CED-4 de C. elegans, que puede unir procaspasa-9 mediante la interacción de sus regiones CARDs. Apaf-1 posee además otra región capaz de mediar su homodimerización y por tanto, la unión de las procaspasas-9, lo que lleva a su autocatálisis y posterior activación. En todos estos sistemas, el complejo formado por los receptores, los adaptadores y la procaspasa se denomina apoptosoma, y es la formación de este complejo lo que da lugar a la activación de la procaspasa. En el caso de Aaf-1, para llevar a cabo el proceso de formación de este apoptosoma es necesaria la presencia de ATP y de citocromo c, una molécula de pequeño tamaño liberada por la mitocondria.


Ma. del Carmen Mejía Vázquez

De esta forma, la liberación de citocromo c por parte de la mitocondria puede mediar la activación de la procaspasa-9. Esta señal de activación puede venir de la mitocondria en sí misma como respuesta a distintas formas de estrés celular o también, puede formar parte de un bucle de amplificación de la señal mediada por receptores de superficie en la que interviene la mitocondria. En este bucle de amplificación participan una proteína pro-apoptótica de la familia Bcl-2, Bid, que es procesada por caspasa-8, dividiéndose en dos fragmentos. Uno de ellos, el C-terminal, actúa sobre la mitocondria haciéndole liberar al exterior citocromo c, que activa el apoptosoma formado por Apaf-1 y procaspasa-9, llevándole a su procesamiento. De esta forma, en apoptosis mediada por receptor de muerte en las que existen pocos precursores de caspasa-8, la señal se amplifica mediante este sistema. Este punto de la red de señalización es susceptible a regulación por miembros anti-apoptóticos de la familia Bcl-2, que actuarían inhibiendo el transporte de citocromo c al exterior y estabilizando la membrana mitocondrial. Por eso la apoptosis mediada por receptor no se afecta por proteínas de la familia Bcl-2, excepto en los casos en que en esta ruta tiene gran peso la amplificación llevada a cabo por Bid en la mitocondria. En cuanto a la señal de muerte que parte exclusivamente de la mitocondria, puede responder a una gran variedad de estímulos que impliquen estrés celular, como son algunas drogas, radiaciones, agentes oxidantes, sobrecarga de Ca++, etc. Algunos de estos estímulos actúan directamente sobre la mitocondria y otros lo hacen a través de moléculas mediadoras, como son las ceramidas, segundos mensajeros en la señalización de apoptosis y Bax. Los efectos de estas señales en la mitocondria se traducen en una serie de alteraciones en el buen funcionamiento del organelo. Se produce una liberación de citocromo c, rotura de la cadena de transporte de electrones, liberación de iones superóxido y una hiperpolarización de la membrana interna que puede terminar con una expansión de la matriz y rotura de la membrana externa de la mitocondria. Otros efectos sobre la mitocondria son la inducción del poro mitocondrial que quedaría permanentemente abierto, permitiendo la entrada de agua y solutos en la matriz, con el consiguiente choque osmótico, y la liberación del factor inductor de apoptosis (AIF), que se ha demostrado que procesa procaspasa-3 in vitro. También la activación de Bax que puede formar, como otros miembros de la familia

Bcl-2, un canal en la membrana de la mitocondria que en su caso, en lugar de estabilizarla, como ocurre con los miembros antiapoptóticos de la familia, haría lo contrario.

Figura 4: Las dos mayores vías apoptóticas en mamíferos: a) La vía del receptor de muerte (izquierda) CD95 que sufre trimerización y activa a procaspasa-8 que por proximidad activa a caspasa-3, cuyos sustratos apoptóticos están en el núcleo. b) La vía mitocondrial (derecha) en respuesta a daño al DNA. Convergen en mitocondria frecuentemente mediante bcl-2, liberación de AIF y citocromo c, hay formación del apoptosoma y se activa la caspasa-3. La activación de caspasa-3 se ve antagonizada por IAP’s como DIABLO. La caspasa-8 media la rotura de Bid, lo que aumenta la actividad pro-muerte mediante la translocación a mitocondria y liberación de citocromo c.

Por último, existen señales de apoptosis que tienen su inicio en el núcleo y esto es debido a que, en el contexto de un organismo pluricelular, una célula que ha adquirido por daño en el ADN un carácter neoplásico, debe ser eliminada por apoptosis, ya que la desaparición de una célula no supone ningún perjuicio al organismo y en cambio sí su transformación. Existen en la célula mecanismos capaces de detectar daños en el ADN y discriminar entre las dos posibles respuestas celulares a estos daños. La reparación, que puede ser útil en el caso de células que se van a diferenciar de forma inminente perdiendo su capacidad mitótica (ej: células epiteliales), la apoptosis o la detención de la célula en los estadios G1 y G2 del ciclo, lo cual es una forma de muerte, ya que la célula queda genéticamente inhabilitada de manera

91


Cuatro muertes y un funeral

irreversible. Las respuestas celulares a daños genéticos están mediadas por cinasas, de las que cabe destacar dos: ATM y la cinasa dependiente de ADN, DNA-PK. Ambas dirigen una serie de respuestas entre las que se encuentran activación de ciclo, detención del crecimiento celular, reparación y apoptosis. ATM y posiblemente DNA-PK, actúan sobre el factor de transcripción p53. Este factor se encuentra normalmente a bajos niveles, ya que es degradado por la proteína Mdm-2. El daño en el ADN induce fosforilación de p53 o Mdm-2, en el caso de Mdm-2, posiblemente por DNA-PK. La fosforilación inhibe la interacción de ambas proteínas y por tanto, p53 se estabiliza, incrementando su expresión y activándose. La activación de p53 puede dar lugar a dos respuestas: 1) Detención en el ciclo celular de forma irreversible mediante la inducción de p21, un inhibidor de la cinasa dependiente de ciclina (Cdk); 2) apoptosis mediante un mecanismo que aún permanece sin determinar, pero en el que parece que influye la activación de genes como el de Bax y otras moléculas. Se han podido comprobar también otros mecanismos, como transrepresión de genes anti-apoptóticos y otros mecanismos no transcripcionales. Ésta es la visión general de la red de eventos que rigen la apoptosis.

92

Después de conocer los eventos que rigen a los dos principales tipos de muerte, no puede decirse que la célula sólo muere de esta forma, ya que pueden existir todas las combinaciones posibles. Es por esto que la muerte celular puede agruparse en cuatro categorías, todas ellas encaminadas a llevar a la célula a su paso final. a) La apoptosis tiene rasgos característicos como la evidente condensación de la cromatina en forma geométrica aparentemente simple, la exposición de FS, la compactación citoplásmica y la formación de cuerpos apoptóticos rodeados de membrana. En la forma más clásica de apoptosis se observa activación de la caspasa-3. b) La pseudo-apoptosis: Es un tipo de muerte en el que la condensación de cromatina es menos compacta, y las moléculas de reconocimiento de la fagocitosis se observan antes de la lisis de la membrana plasmática. Pueden observarse diversas combinaciones de rasgos apoptóticos y algunos modelos clásicos de apoptosis independiente de caspasas, como el caso de las células MCF-7 muestran esta morfología. c) La pseudo-necrosis: En esta categoría se encuentra la muerte en la que hay ausencia de condensación de cromatina, o en el mejor de los casos sólo existen

granos de cromatina. También existen diferentes grados de variantes, incluyendo externalización de FS, la cual puede ocurrir antes de la lisis. Aunque usualmente no involucra vías de señalización de las caspasas, la caspasa-8 puede estar activada y la caspasa-1, que lleva a la necrosis, también es observada. Un subgrupo de modelos con este tipo de muerte son clasificados como “apoptosis abortada”, esto es, que se ha iniciado un programa de apoptosis estándar que es bloqueado a nivel de activación de caspasas, y finalmente terminado por rutas alternativas independentes de caspasas. d) La necrosis: Es la contraparte de la muerte celular programada y sólo se impide por remoción del estímulo. Ocurre luego de la exposición a altas concentraciones de detergentes, oxidantes, ionóforos o altas intensidades de daño patológico. La necrosis a menudo está asociada con edema celular (Leist M, 2001). Existen, dentro de toda esta compleja red, numerosos procesos aún por determinar, relaciones por establecer y mecanismos por entender dentro de un programa encaminado por igual a asegurar la vida de la célula y a procurar su muerte rápida y efectiva.


Ma. del Carmen Mejía Vázquez

Bibliografía

Ellis, R., Yuan, J., Horvitz, H.R. (1991). “Mechanisms and functions of cell death”. Annu Rev Cell Biol; 7: 663-698. Kerr, J.F.R., Wyllie, A., Currie, A.R. (1972). “Apoptosis: a basic biological phenomenon with wide-ranging implications in tissue kinetics”. Br J Cancer; 26: 239-257. Leist, M., Jäättelä, M.(2001). “Four deaths and a funeral: from caspases to alternative mechanisms”. Mol Cell Biol, 2: 1-10. Sartorius, U., Schmitz, I., Krammer, P. (2001). “Molecular mechanisms of death-receptor-mediated apoptosis”. Chembiochem; 2: 20-29. Schlottmann, K. C., Coggeshall, K. M., (1996). “CD95/Fas/Apo-1 mediated signal transduction”. Cell Physiol Biochem; 6: 345-360. Strasser, A., O’Connor, L., Dixit, V. (2000). “Apoptosis Signaling”. Annu Rev Biochem; 69: 217-245. Yigong, Shi. (2002). “Mechanisms of caspase activation and inhibition during apoptosis”. Molecular Cell, 9: 459-470.

93



Melatonina y ansiedad Elia Brosla Naranjo Rodríguez Sección de Farmacología y Toxicología Facultad de Química, UNAM

Ansiedad La ansiedad es una emoción universal relacionada íntimamente con el temor. Es sentir una aprensión o tensión ante la presencia de un peligro (ya sea interno o externo) o ante el estrés de la vida cotidiana a la que todos nos enfrentamos. Además, la ansiedad es un mecanismo de adaptación psicobiológica que alerta a nuestro sistema corporal, reaccionando ante el medio circundante. Si bien es cierto que el sujeto suele activar las mismas manifestaciones corporales ante el miedo y la ansiedad (como tensión muscular, expectación y vigilancia ante el entorno) se suele diferenciar una de la otra. Mientras que el miedo se siente ante un peligro real o conscientemente reconocible, la ansiedad provoca inquietud ante una amenaza de naturaleza no específica. Es normal sentir estas dos emociones como respuesta a un evento, pero no se considera normal cuando la ansiedad se instala en forma permanente, cuando se vive en un terror constante y llega a ser tan penetrante que provoca comportamientos poco usuales (evitación, crisis, tendencias suicidas, etc.).16, 17, 38 Al evaluar a los pacientes con ansiedad, se deben distinguir entre la ansiedad normal y la patológica. Los pacientes que presentan una ansiedad patológica requieren una evaluación neuropsiquiátrica completa y planes de tratamiento individuales.16, 21 A diferencia de la ansiedad patológica, la ansiedad normal es una respuesta apropiada ante una situación amenazante. Por ejemplo, los pequeños que se sienten amenazados por la separación de sus padres, los niños en su primer día de colegio, los adolescentes en su primera cita, los adultos que se acercan a la vejez y a la muerte, y las personas que se enfrentan a una enfermedad, experimentan una ansiedad normal. Este tipo de ansiedad suele estar acompañada por un crecimiento individual, cambios, nuevas experiencias y descubrimientos de identidad y del sentido de la vida. Por el contrario, la ansiedad patológica, en virtud de su intensidad y duración, es una respuesta inapropiada a un estímulo dado.19 Inicialmente, Freud en 1953 usó el término “Psiconeurosis” para definir ansiedad, y la clasificó en 4 subtipos: neurosis de ansiedad, histeria de ansiedad (fobia), neurosis obsesiva-compulsiva e histeria. Freud utilizó estos términos para describir e indicar el proceso etiológico de la ansiedad.19

95


Melatonina y ansiedad

La investigación acerca de la neurosis es vasta y ha permitido crear asociaciones para poder estudiarla, tal es el caso de la Neurosis en la Clasificación Internacional de Desórdenes (ICD), los cuales se han realizado desde 1948 con la ICD-6 hasta la ICD-9 de 1978, esto permite que los trastornos psiquiátricos sean diferenciados en psicosis y psiconeurosis.17 En la ICD-10 de 1992, en donde se realiza una diferencia entre neurosis y psicosis como organización fundamental, fue delegada a la clasificación de la Organización Mundial de la Salud (OMS), la que procede a estructurar una nueva clasificación de grupos de desórdenes de ansiedad en comunes y descripciones similares, tal como se clasifican actualmente.17, 19 En 1980, la Asociación Psiquiátrica Americana (APA) durante la tercera revisión del Diagnostic and Statistical Manual of Mental Disorders, DSM-III, propone la supresión de neurosis en dicha revisión, desatándose una gran preocupación de varios clínicos, especialmente de los psicoanalistas. Sin embargo, se lleva a cabo una revisión de los transtornos de ansiedad con base en su clasificación, convirtiéndose en DSM-III /R (Manual Diagnóstico y Estadístico de Transtornos Mentales/ Revisión) quedando completamente aceptada por la OMS.17, 38 96

En 1994, se publicó el DSM-IV (4ª Edición) que incluye la nomenclatura diagnóstica oficial que se utiliza en la actualidad.17 El DSM-IV define los siguientes trastornos de ansiedad: Crisis de angustia, Agorafobia, Trastornos de angustia, Trastornos de angustia con agorafobia, Trastornos de angustia sin agorafobia, Agorafobia sin historia de trastorno de angustia, Fobia específica (antes fobia simple), Fobia social, Trastorno obsesivo-compulsivo, Trastorno por estrés postraumático, Trastorno por estrés agudo, Trastorno de ansiedad generalizada, Trastorno de ansiedad debido a enfermedad médica, Trastorno de ansiedad inducido por sustancia, Trastorno de ansiedad no especificado.16

Farmacología de la ansiedad Como se aprecia, el proceso de ansiedad involucra eventos físicos y psíquicos, que llevan a los individuos a situacio-nes

realmente considerables de “desestabilización”, por lo que se ha recurrido a establecer tratamientos para pacientes ansiosos y se ha implementado la Farmacología de la Ansiedad,9 en ella los primeros tratamientos se basaron en fármacos sedantes-hipnóticos y, como su nombre lo indica, su principal uso terapéutico es producir sedación (con alivio concomitante de la ansiedad) o sueño, por lo tanto son comunes los problemas de ansiedad y trastornos del sueño, entonces, esto ha dado pauta a que los sedantes hipnóticos se encuentren entre los fármacos más prescritos en todo el mundo.21 Dentro de estas sustancias tenemos al grupo de las benzodiacepinas (BZD),27 (Figura 1) porque presentan un mayor margen de seguridad, lo que les permite tener una razón importante para su amplio uso clínico en el tratamiento de los estados de ansiedad y los trastornos del sueño.15, 21

R1

R2

N C

R6 R5

R3 N R4

Figura 1. Estructura general de las benzodiacepinas. R1, R2, R3, R4, R5 y R6, variarán dependiendo de la BDZ en cuestión.15, 21

Las BZP potencian la neurotransmisión GABA-érgica, aumentando, al parecer, la inhibición sináptica como producto de la disminución de descarga neuronal debida al ac. gamaaminobutírico (GABA) en diversas partes del cerebro. A pesar de que las BZPs son un grupo de compuestos que poseen cierta especificidad como fármacos ansiolíticos, no dejan de tener innumerables efectos adversos como: ataxia, cefalea, fiebre, somnolencia, náuseas, vómitos, diarrea, etc., además de reportarse efectos teratogénicos y alteraciones del periodo menstrual. Cuenta también con efectos psicológicos como disminución de la capacidad


Elia Brosla Naranjo Rodríguez

cognoscitiva y de la concentración, así como tolerancia y dependencia, lo que ha motivado a los investigadores a desarrollar compuestos con potencial farmacológico ansiolítico-sedante-hipnótico, con menores efectos adversos como por ejemplo los barbitúricos (dependencia psicológica y física), tales esfuerzos no siempre han sido exitosos, también comprende compuestos de estructura química simple, incluyendo alcoholes (etanol, hidrato de cloral) y los éteres cíclicos.15, 21 Actualmente, se han introducido varios fármacos con estructuras químicas nuevas, por ejemplo la buspirona que es una azaspirodecanodiona, y como agente ansiolítico tiene acciones distintas a las de los sedantes hipnóticos ordinarios. El zolpidem (una imi-dazopiridina) y el zaleplon (una pirazolopirimidina), BZDs estructuralmente no relacionadas, son fármacos hipnóticos que interactúan con receptores de BZDs.15 La buspirona como fármaco ansiolítico no ocasiona sedación intensa o efectos eufóricos. A diferencia de las BZDs, no tiene propiedades hipnóticas, anticonvulsivas o relajantes musculares. No interactúa en forma directa con sistemas GABA-érgicos, y puede ejercer sus efectos ansiolíticos al actuar como un agonista parcial de receptores a serotonina (5-HT 1A). Los pacientes tratados con buspirona no presentan ansiedad de rebote o signos de supresión o de discontinuación súbita. El fármaco no es eficaz para bloquear el síndrome de supresión resultante de la suspensión súbita de BZDs u otros sedantes hipnóticos; la buspirona tiene un mínimo de riesgo de abuso.11 (Figura 2).

de origen natural como “ansiolíticos”, tal es el caso de la melatonina, que aunque, es de origen sintético, inicialmente fue de origen natural.24, 25

Melatonina La melatonina (MEL) es una neurohormona o transductor neuroendocrino2 que alcanza su concentración máxima durante la noche (escotofase) y mínima durante el día (fotofase)5, 22 y que al igual que otros polipéptidos e indoles se sintetizan y secretan por la glándula pineal (GP). Cada vez existen evidencias más firmes, las cuales muestran que la GP ejerce un papel importante en la regulación de la actividad de un gran número de órganos y sistemas de todas las especies de animales hasta ahora estudiados, incluyendo al hombre. En la rata, la GP42 es una estructura epitalámica de forma esferoidal, reside en la parte más posterior del cerebro en la línea media por debajo de la confluencia del seno venoso sagital con los senos venosos laterales, descansando sobre los colículos superiores y oponiéndose a la tienda del cerebelo (Figura 3). La descripción anatómica de la GP precedió a la de casi todos los órganos endocrinos; así el griego Herophilus (325-280) la consideró como la válvula reguladora del flujo de “espíritus” del tercer al cuarto ventrículo. Galeno, en el siglo II, al describir la anatomía de la GP en detalle, la denominó Konarium (piña, en griego) y Vesalio, quien apoyó esta información.1, 7.

O N - CH2(CH2)2CH2 - N O

N N N

Buspirona

Figura 2. Fórmula estructural de la buspirona (8-[4-(2-pirimidil)-1-piperazimil]-butil)-8-azaspiro-(4,5)decano-7,9-diona, un fármaco utilizado específicamente para el tratamiento de la ansiedad y, que a diferencia de las BZDs, actúa sobre receptores 5-TH.11

Figura 3. Corte sagital de la GP de la rata.42

Hasta ahora, el tratamiento de la ansiedad se basa en el uso de fármacos que producen diversas reacciones adversas que son complicadas para los pacientes, o que son de costo elevado, por lo tanto, se ha recurrido a utilizar sustancias

Probablemente, Herophilus fue el primero en considerar a la epífisis como el “asiento del alma”, esta nomenclatura terminó siendo famosa con el filósofo Francés René Descartes quién se refirió de esta manera a la GP.7, 48 [Figuras 4 a) y 4 b)].

97


Melatonina y ansiedad

A finales del siglo XIX, se dio a conocer el papel fotosensor de la GP de vertebrados inferiores y su relación con la GP secretora de los mamíferos.7 Simultáneamente, Heubner (1898) y Merburg (1907) (citados por Naranjo-Rodríguez [1992]) descubrieron que la GP tenía una relación con el sistema reproductor, basados en sus observaciones de tumores pineales. Por otro lado, el científico Alemán Kappers20 realizó estudios acerca de la inervación de la glándula por el sistema nervioso simpático en el ganglio simpático cervical superior (GSCs), lo que dio inicio a una amplia investigación.

Posteriormente, fue reconocida por McCord y Allen en 1917,26 pero fue hasta 1958 que Lerner y cols, la aislaron de un extracto de GP bovina y un año después, ellos mismos establecieron su estructura química (Figura 6).24, 25

Figura 4 b). Esquema representativo de la GP, realizada por René Descartes.7 Figura 4 a). René Descartes (1596-1650).7

98

Sin duda alguna, los más importantes descubrimientos con respecto a la pineal fueron la identificación y caracterización de la hormona melatonina (MEL) por Lerner y cols., 1958,24, 25 de miles de GP de bovinos (40 mil), estos autores aislaron el componente que era responsable de la aclaración de la piel en los anfibios, por lo que este compuesto fue identificado químicamente como N-acetil-5-metoxitriptamina y denominado “melatonina” basado en su habilidad para contraer (τονοσ = contractor) gránulos de melanina en los melanóforos de estos anfibios.25

La indolamina MEL derivada del aminoácido (aa) triptófano, es un compuesto de naturaleza lipofílica y no ionizada. Aunque, la GP no es el órgano exclusivo para sintetizar a la MEL, sí es responsable de sintetizar la mayor cantidad de ella en los organismos. Los sitios extrapineales donde se realiza la biosíntesis de MEL son la retina,18, 44 la glándula Harderiana36, 44 de los roedores, leucocitos mononucleares, la piel y el tracto gastrointestinal que contiene una concentración mayor de MEL que la GP.39 La síntesis de la MEL se inicia con la captura del aminoácido (aa) triptófano por parte del pinealocito, unidad funcional de la GP, y con la participación de una serie de enzimas se forman la MEL y otros compuestos metoxiindólicos,2, 22, 23, 46 controlados principalmente por el núcleo supraquiasmático (NSQ) en la misma GP.4, 18


Elia Brosla Naranjo Rodríguez

Con estos antecedentes y con algunas investigaciones se muestra que la actividad de la MEL no sólo se basa en sus propiedades “farmacológicas”, sino en la activación de sus receptores,6, 8, 28, 35 por lo tanto se ha propuesto la existencia de varios tipos de receptores en la membrana (MT1 y MT2),8 en el citosol al interactuar con la calmodulina3 y nucleares (linfocitos y monocitos).20 Sin embargo, no existe un mecanismo hasta ahora definido por el cual la MEL produce todos sus efectos.

Figura 6. Esquema de cerebro con estructura química de la MEL, quien es la principal hormona producida por la GP. Su nombre químico es la N-[2-(5-Metoxi-1H-indol-3-il) etil] acetamida o N-acetil-5 metoxitriptamina.23, 24, 25, 46

Con estos antecedentes a la MEL endógena se le han atribuido diferentes efectos endocrinos y conductuales en mamíferos y vertebrados inferiores y se han relacionado con los ciclos reproductivos y de iluminación ambiental.4, 34, 45 Con base en esto, Wurtman y cols. 47 reportaron que la GP de los mamíferos sintetiza MEL en función de la cantidad de luz ambiental y la denominaron transductor neuroendocrino. Reiter reportó que los ciclos circanuales de reproducción del hámster están regulados por la GP.43 La MEL también, produce varios efectos farmacológicos como: sueño, sedación, analgesia, actividad anticonvulsiva,27 y efectos ansiolíticos,13, 14, 33 todos ellos estudiados en ratas.13 Los efectos de la MEL exógena dependen de la fase del ciclo circadiano en que se administre, siendo mayor la respuesta alrededor de la transición del ciclo luz-oscuridad. Uno de ellos es el efecto ansiolítico, éste presenta una variación durante el día y conforme se va acercando la escotofase, el efecto ansiolítico se incrementa llegando a un máximo en la noche, alrededor de las 12 p.m. a las 2 a.m. Rivest y Milline reportaron que la MEL tiene una acción moduladora de las reacciones fisiológicas de defensa y adaptación al “síndrome del estrés”, con estos antecedentes se sugiere una relación entre la GP y los sistemas GABA-ergicios,13, 14 esta relación fue postulada por Romijn,40 quien sugirió que la GP es un órgano tranquilizante, información apoyada por Naranjo-Rodríguez y cols., quienes la denominaron “hormona antiestrés” u “hormona ansiolítica” respectivamente.33

Por otro lado, considerando las cualidades y bondades de la MEL, estamos en la búsqueda de sustancias, que nos permitan en un futuro no muy lejano contar con fármacos ansiolíticos que carezcan de los efectos adversos producidos por los fármacos existentes, motivos por los cuales estudiamos a la MEL como posible fármaco ansiolítico.29, 30, 31, 32, 33

99


Melatonina y ansiedad

Referencias

1   2   3  4

7   5   6

8

9

10 11

100

12

13

14

15

16

Adam, C. and Tannery P. (1974). Oeuvre de Descartes. Vol. XI, Librairie Philosophique J. Vrinn, París. Axelrod, J. (1974). “The pineal gland: a neurochemical transducer”. Science, 184:1341-1348. Benítez-King, G., (1991). Huerto-Delgadillo L., Antón-Tay F. Brain Res, 557, 289-292. Boutin, J., Adinot, V., Ferry, G., Delagrange, P. (2005). Trends in Pharmacological Sciences, 26(8), 412-419. Cardinali, D.P. (1981). “Melatonin: a mamalian pineal hormone”. Endocrine Rev., 2:327-343. Cardinali D., Furio, A., Reyes, M. (2005). Ann. N.Y. Acad. Sci., 1057, 327-336. Descartes, R. (1596-1650). L’homme et un traitté de la formation du foetus René Descartes. Reproduction:  Num. BNF de l’éd. de, Cambridge: Omnisys, [1990] (French books 1601-1700; 56.10). 1 microfilm. Reprod. de l’éd. de Paris: chez Charles Angot, 1664. Publication:  1995, pp. 448. Dubocovich, M.L., Cardinali, D.P., Delagrange, P. et al. “Melatonin Receptors”. The IUPHAR Compendium of Receptor Characterization and Classification. Editado por IUPHAR Media, London, pp. 271-275. Freedman, A.M. (1980). Psychopharmacology in psychotherapy in the treatment of anxiety. Pharmacopsychiat. Neuropsychopharmacol., 13: 277-289. García-Maurino, S., Pozo, D., Calvo, J.R., Guerrero, J.M. (2000). J. Pineal Res. 29, 129-137. Goldberg, H.L. (1979). “Buspirone: A new antianxiety agent not chemical related to any presently marketed drugs”. Psychopharmacol. Bull., 15(2): 90-92. Golombek, D.A., Mar tini, M, Cardinali, D.P. (1993). Behavioral, Neuroendocrine, And Biochemical Effects Of 5-Hydroxytryptophan Administration In Panic Disorder. Psychiatry Res. 1990 Mar;31(3):267-78. PMID: 2139731. Golombek, D.A., Martini, M., and Cardinali, D.P. (1993). “Melatonin as an anxiolytic in rats: time dependence and interaction with the central GABA-ergic system”. Euro. J. Pharmacol., 237: 231-236. Golombek, D.A., Pévet, P. and Cardinali, D.P. (1992). “Melatonin Effects On Behavior: Possible Mediation By The Central Gabaergic System”. Neurosci. Biobehav. Rev., 20(3):403-412. Goodman, A.G.,Rall, T.W., Nies, A.S. y Taylor, P. (1991). Las bases farmacológicas de la terapéutica, 8ª Edición, Capítulo 18, Ed. Panamericana, México. Gray, A.J. (2000). The Neuropsychology of Anxiety. Capítulo IV. Oxford Medical Publications. 2ª Edición pp. 59-82.


Elia Brosla Naranjo Rodríguez

Hales, E.R. (2000). DSM-IV Tratado de psiquiatría. Tomo I. Capítulo XIV. Masson. 3ª Edición Española, pp. 563-618. 18 Hardeland, R., Pandi-Perumal, S.R., Cardinali, D.P. (2006). Int. J. Cell Biol. 38, 313-316. 19 Kaplan, I.H. y Sadock, J.B. (1999). “Sinopsis de Psiquiatría. Ciencias de la conducta psiquiátrica clínica”. Capítulo XVI. Médica Panamericana . 8ª Edición. Madrid-España, pp. 657-710. 20 Kappers, J.S., Schade, V.P. (1965). “Structure and function of the epiphysis cerebri”. Prog. Brain Res., 10:233-23. 21 Katzung, B.G. (1996). Farmacología básica y clínica. Capítulo 21. Ed. El Manual Moderno. 6a Edición, México. 22 Klein, C.D. (1979). Circadian rhythms in the pineal gland. In Endocrine Rhythms. D.T. Krieger (ed) Raven Press. New York, pp. 203-223. 23 Klein, D.C. and Weller, J.L. (1970). “Indole metabolism in the pineal gland: A circadian rhythm in N-Acetyltransferase”. Science, 169:1093-1095. 24 Lerner, A.B. and Case, J.D. (1960). “Melatonin”. Fed. Prod. 19: 590-593. 25 Lerner, A.B. Case, J.D., Takahashi, Y., Lee, T.H. and Morri, W. (1958). Isolation of melatonin, the pineal gland factor that lightens melanocytes. J. Am. Chem. Soc. 80: 2387. 26 McCord, C.P. and Allen, F.P. (1917). “Evidences associating pineal gland function with alterations in pigmentation”. J. Exp. Zool. 23: 217-224. 27 Marks, J. (1983). “The benzodiazepines for good or evil”. Neuropsychobiol. 10: 115-126. 28 Mor, M., Silva, C., Vacondio, F., et al. (2004). J. Pineal Res.36, 95-102. 29 Naranjo‑Rodríguez, E.B. and Reyes‑Vázquez, C. (1988). “Anxiolytic‑like actions of melatonin on a procedure conflict”. Neuroscience 14(2): 1175. 30 Naranjo‑Rodríguez, E.B., Vázquez, A.M. and Reyes‑Vázquez, C. (1992). “Melatonin effects on two anxiolytic test in rats.” Neuroscience, Vol. 18: 1167. 31 Naranjo‑Rodríguez, E.B., Mendoza‑Fernández, V. and Reyes‑Vázquez, C. (1994). “Melatonin anxiolytic effects are time dependent.” Neuroscience, Vol. 20: 1603. 32 Naranjo‑Rodríguez, E., Hernández‑Avitia, E., Barrera‑Mera, B. and Reyes‑Vázquez, C. (1995). “Pinealectomy, Melatonin and 5‑hydroxytryptophol effects on anxiety on rats”. Neuroscience, Vol. 21: 1133. 33 Naranjo-Rodríguez, E.B., Osornio, A.O., Hernández-Avitia, E., Mendoza-Fernández, V. and Escobar, A. (2000). “Anxiolytic-like actions of melatonin, 5-metoxytryptophol, 5-hydroxytryptophol and benzodiazepines on a conflict procedure”. Prog. Neuropsychopharmacol. Biol. Psychiatry, 24(1):117-29. 34 O’Callaghan, D., Karsch, F.J., Boland, M.P. and Roche, J.F. (1991). “Role of short days in the onset and duration of reproductive activity in ewes under artificial photoperiods”. 44(1): 23-28. 17

101


Melatonina y ansiedad

Oxenkrug, G. (2005). Ann. N.Y. Acad. Sci. 1053, 334-347. Pang, S.F., Brown, G.M., Grota, L.J., Chambers, J.W. and Rodman, R.L. (1977). “Determination of N-Acetylserotonin and melatonin activities in the pineal gland, Harderian gland, brain and serum of rats and chickens”. Neuroendocrinol., 23:1-13. 37 Pecknold, J.C. (1997). “A risk-beneficit assesment of buspirone in the treatment of anxiety disorders.” Drug Safety 16 (2): 118-132. 38 Pichot, P. (1995). DSM-IV Manual diagnóstico y estadístico de los trastornos mentales. Masson. 1ª Edición. Barcelona, España, pp. 401-456. 39 Railkhlin, N.T., Kvetnoy, I.M., Tolkachev, V.N. (1975). “Melatonin may be synthesized in enterochromaffin cells”. Nature 255:334-345. 40 Romijn, H. (1978). “Is the pineal gland a tranquilizing organ?” Life Sci., 23:2257-2274. 41 Sugden, D. (1983). “Psychopharmacological effects of melatonin in mouse and rat”. J. Pharmacol. Exp. Ther., 227: 587-591. 42 Reiter, R.J. (1981). “Anatomy of the pineal gland of the mammals.” In: The pineal. Vol 6. Reiter RJ (ed). Eden Press, pp. 1440. 43 Reiter, R.J. (1980). “The pineal and its hormones in the control of reproduction in mammals.” Endocr. Rev.,1: 109-131. 44 Tang, P.L. and Pang, S.F. (1988), “Changes in melatonin levels in the pineal, serum, and brain in males rats followins the removal of the retina and retina plus Harderian gland. Neuros. Lett. 10 (suppl): 473. 45 Woodfill, C.J., Robinson, J.E., Malpaux, B. and Karsch, F.J. (1991). “Syncronization of the circannual reproductive rhytm of the ewe by discrete photoperiodic signals”. Biol. Reprod. 45 (1): 110-121. 46 Worldwide News source for life science research. (2006). 11(1): 1-2. 47 Wurtman, R.J., Axelrod, J. and Phillips, L.S. (1963). “Melatonin synthesis in the pineal gland: control by ligth.” Science, 142: 1071-1073. 48 Zrenner, C. (1985). “Theories of pineal function from classical antiquity to 1900: a history” In: Reiter, R.J. Eds., Pineal Research Reviews III, Alan R. Liss, New York, pp. 40. 35

36

102


Química analítica a microescala total Alejandro Baeza Departamento de Química Analítica Facultad de Química, UNAM El escalamiento en Química va más allá de la adaptación técnica de los contenedores de reacción y de las operaciones unitarias a gran escala (Ingeniería Química), o a escalas menores inclusive a nivel atómico (Nanoquímica). Implica también la adecuación de los principios de la reactividad química a la nueva escala; es decir, el desarrollo de nuevas metodologías analíticas y sintéticas. Respecto a la Química a escala convencional, la Química a Microescala ha demostrado su gran utilidad en los siguientes aspectos prácticos:

103

La mayoría de los trabajos publicados en la literatura, muestran el predominio de la Química orgánica sintética (Química a Microescala). A modo de ejemplo, se analizan los títulos de los trabajos publicados en una revista de educación química de gran difusión mundial.1


Química analítica a microescala total

Química sintética orgánica

59.1%

Química general (aspectos pedagógicos)

11.9%

Química sintética inorgánica

10.2%

Química analítica (titulometría con indicadores)

7.4%

Fisicoquímica (gases) 5.7%

química por medio de las operaciones de calibración adecuadas, con una precisión asociada aceptable si se opera observando las correctas prácticas de laboratorio. La exactitud de las determinaciones analíticas depende, al igual que en la escala convencional, del uso de la balanza analítica y del material volumétrico profesional: Matraces aforados de 10, 5, 1 mL, pipetas volumétricas de 1 mL o automáticas y de las sustancias, electrodos e indicadores oficiales de referencia.

Electroquímica Ambiental 3.4%

La sensibilidad y la selectividad dependen de los sistemas químicos empleados, y de su adecuación a las condiBioquímica 2.2% ciones de microescalamiento.

3%

12%

2% 6%

7%

10%

La eficiencia de las determinaciones se incrementa, ya que el microescalamiento permite disminuir notablemente los tiempos de operación. El acoplamiento de métodos y la automatización de las determinaciones son posibles.

Métodos químicos de análisis 60%

104

La totalidad de los libros de texto publicados en Química a microescala están dirigidos a la enseñanza de la Química general en los primeros años universitarios y a nivel pre-universitario1. Los temas tratados de Química analítica se limitan a las microtitulaciones ácido-base semicuantitativas, con indicación del punto final con indicadores coloridos. La Química analítica a microescala total está basada en la utilización de aparatos e instrumentos de medición diseñados y construidos con materiales de fácil adquisición local: Plástico, acrílico, pegamento, frascos pequeños, jeringas desechables, puntas de plástico desechables, minas de carbón, alambres de cobre cortos y delgados, acero inoxidable, plata, tungsteno para soldadura, algodón, resina epóxica, ventiladores de computadora, conexiones y circuitos usados en electricidad y electrónica, multímetros de bajo costo para medir voltaje, corriente y resistencia eléctrica, etcétera. Con estos materiales es posible construir equipo de dosificación y medición instrumental para obtener información

Las titulaciones clásicas (con uso, de indicadores visuales) ácido-base, redox, complejométricas, por precipitación, en medios bifásicos o en medios no acuosos, pueden llevarse a cabo en condiciones de microescala total con volúmenes de muestra £ 0.5 mL. Para ello, se construye una microbureta utilizando una jeringa de 1 mL sujetada con un soporte construido con acrílico y un microagitador magnético integrado, construido con un ventilador pequeño de computadora y una fuente de 9V. La adición de titulante se efectúa con una llave de tres pasos usado en clínica: Una vía para la jeringa, otra para la salida de titulante, y la tercera para llenado rápido de la microbureta. Se utiliza la aguja de la jeringa con la punta cortada para tirar las microgotas de titulante. Para dosificar las alícuotas de solución de analito, puede usarse otra microjeringa de 1 o 0.5 mL. Las muestras se titulan en pequeños matraces de 5 mL o vasos de plástico de uso farmacéutico. Las microbarras de agitación se construyen encerrando en un capilar de vidrio una pequeña parte de un alambre de cromo-níquel proveniente de un clip, o sujetapapeles de metal.2


Alejandro Baeza

Métodos fisicoquímicos de análisis

Fotocolorimetría7,9:

La idea principal de los métodos instrumentales a microescala total, radica en la medición de una propiedad eléctrica: Voltaje, corriente, resistencia; con un multímetro conectado al binomio “sistema químico sensor”, y correlacionar la respuesta eléctrica a las variaciones de concentración o de comportamiento químico de un analito. Es decir, darle un significado analítico a una respuesta eléctrica. Potenciometría3,4,5,6: Electroquímica analítica7:

Conductimetría7,8: Cromatografía: 105


Química analítica a microescala total

Desde el punto de vista docente, la enseñanza de la Química analítica a microescala total con equipo producido con materiales locales de bajo costo, conlleva las siguientes ventajas formativas:

5) Cursos a profesores en la Facultad de Química de la UNAM, las facultades de Estudios Superiores Zaragoza y Cuautitlán de la UNAM, las Universidades Autónomas de Quéretaro, Oaxaca, Tlaxcala, Chihuahua, Chiapas, Nuevo León, San Luis Potosí y Guadalajara; Universidad Regiomontana y Universidad Simón Bolívar, y en el Colegio de Posgraduados de Chapingo, Texcoco. 6) Cursos a profesores en la Universidad de Oriente, Montevideo, Uruguay (2002); la Universidad Metropolitana de Ciencias de la Educación, Santiago de Chile (2003); la Universidad Central de Las Villas, Cuba (2001, 2002 y 2003); la Universidad de La Habana, Cuba (2004) y la Universidad de San Carlos, Guatemala (2005). 7) Conferencias plenarias en las Universidades de León, España y de Rennes-1, Francia y patente en trámite en Pakistán.

En esta conferencia se muestran los resultados obtenidos de la experiencia docente y de investigación en Química analítica a microescala total, durante el periodo de 1998 hasta 2006. Los resultados presentados han sido probados y obtenidos durante los siguientes cursos y talleres:

106

1) Cursos regulares de laboratorio de Química analítica I, II y III (Métodos químicos de análisis en medios simples y condicionados) y Química analítica instrumental I (Métodos ópticos y electrométricos de análisis) impartidos por el autor durante 10 semestres (de 2000 a 2005), en grupos de 15 alumnos por semestre. 2) Estancias experimentales intersemestrales de investigación con estudiantes de bachillerato y licenciatura, de 1997 a 2004. 3) Talleres del Centro Mexicano de Química a Microescala en la Universidad Iberoamericana en 1998,1999, y 2002 a 2003 con la participación de profesores de bachillerato y licenciatura prácticamente de toda la República Mexicana. 4) Taller dentro del 3er. Simposio Internacional de Química a Microescala en 2005 en la Ciudad de México.

Las experiencias y los resultados obtenidos se han sometido a la crítica de la comunidad química en diversos trabajos cortos, y conferencias en foros nacionales (congresos de la Sociedad Química de México y de la Asociación Mexicana de Química Analítica) e internacionales (Cuba, Uruguay, Canadá, México, España y Francia) así como en publicaciones arbitradas para resolver diversos problemas en investigación10-17.


Alejandro Baeza

Referencias

Ibáñez Cornejo, J. Revisión de 176 artículos del Journal of Chemical Education de 1963 a 2003, Centro Mexicano de Química a Microescala. www.uia.mx/investigacion/ cmqm/default.html 2 Baeza, A. (2003). “Microbureta a Microescala Total para titulometría”, Revista Chilena de Educación Científica, 1[2] 4-7. 3 Baeza, A. (2003). “Titulaciones ácido-base Potenciométricas a Microescala Total con Microsensores de pH y de Referencia de Bajo Costo”, Revista Chilena de Educación Científica, 1[2]16-19. 4 Baeza, A., Vargas, J., Urzúa, T., Rodríguez, J., Cáceres, L., (2004). “Titulaciones Ácido-base a Microescala Total Química usando Microsensores de pH y Microelectrodo de Referencia: Adquisición de Datos con Nuevas Tecnologías”, Revista Chilena de Educación Cientifica, 2[2](2004)25-28. 5 Baeza, A. (2004). “Titulación de Halogenuros a Microescala Total con Microsensores de Ag° y de Microreferencia de Bajo Costo sin puente Salino”. Revista Chilena de Educación Científica, 3[1] 22-25. 6 Hernández, I., Baeza, A., (2005) “Detección de Fosfatos en disolución acuosa a pH controlado con ISE a Microescala Total”, Revista Cubana de Química, XVII[1]20. 7 Baeza, A., de Santiago, A., Galicia, E., Martínez, J., (2005) “Total Microscale Analytical Chemistry: Instrumental Analysis Experimental Teaching”, 3rd International Microscale Chemistry Symposium. 11-4. 8 López, A., García, A., de Santiago, A., Baeza, A., (2005). “Química Analítica a Microescala Total: Conductimetría”, Revista Cubana de Química. XVII[1]19. 9 Martínez, J.M., Baeza, A. (2004). “Química Microanalítica de Ácido Acetilsalicílico con Microfotocolorímetros de Mínima Instrumentación (MIMC) de Bajo Costo”, Revista Cubana de Química, 16[3] 29-39. 10 Prado, H., Díaz, P., Ortiz, J.L. and Baeza, A. (2004). “Polarographic determination of Km´and Vmax of Glutathione Reductase”, Current Separations, 20-4 117-120. 11 Akhtar, M., Hernández, V.E. , Baeza, A.,Qazi, A.M. and Escobar, R. N. (2003). “The Use of W° Microsensor to Measure the Site-specific pH Changes in the Rhizosphere of Lupinus Silvestres Fertilizad with Different sources of P”, Pakistan Journal of Soil Sciences, 22[2] 41-46. 1

107


Química analítica a microescala total

Espinosa, V., Katar, M., Baeza, A., Mujeeb, A. and Núñez, R. (2005). “Effect of Incubation on Phosphate Sorption from Three P-sources in Morelos Soil”, Pakistan Journal of Biological Sciences, 8[1]61-64. 13 Jiménez, N., Roman, R., Baeza, A., Vázquez-Duhalt, R. and Valderrama, B., (2005). “Álcali and Halideresistant catalisis by the Multipotent from Marinomonas mediterranea”, Journal of Biotechnology, 117 73-82. 14 González, X., Baeza, A., (2005). “Estudio Electroquímico por Voltamperometría Cíclica del glutatión oxidado y reducido”, Revista Cubana de Química, XVII[1]22. 15 Casanova Moreno, J.R., Baeza Reyes, J.A. (2005). “Estudio Integral del Cloro en Desinfectantes Hospitalarios”, Revista Cubana de Química, XVII[1] 43-51. 16 Verdín, J., Pogni R., Baeza, Baratto, M. C., Basosi, R., Vázquez-Duhalt., R., (2006).“Mechanism of Versatile Peroxidase Inactivation by Ca2+ depletion”, Biophysical Chemistry, 121, 163-170. 17 Aceves, J. M., Miranda, R., Baeza, A., Galicia, E., Hosanilla, R. and Kappe, C.O. (2006). “Electrooxidation of Bignelli Dihydropirimidones”, Electrochimica Acta. In press. 12

108


Ondas gravitacionales: Una nueva ventana al universo William H. Lee Instituto de Astronomía, UNAM Antes de que existieran telescopios, la única herramienta a nuestra disposición para hacer observaciones astronómicas eran nuestros ojos. Por razones obvias, éstos son sensibles a un tipo de radiación que llamamos “luz visible”, y que está conformada por los colores que vemos en un arcoíris. El Sol brilla en luz visible y, de hecho, emite la mayor parte de su energía en esta forma. La atmósfera de la Tierra es básicamente transparente a esta luz, y por ello la mayoría de los seres vivos están ajustados a utilizarla para ver. Sin embargo, no es más que una pequeña ventana en lo que se denomina el espectro electromagnético. Otra banda en este espectro es lo que llamamos ondas de radio, utilizadas hoy en día para transmisión de señales de comunicación, principalmente. La luz es un fenómeno ondulatorio, y una onda dada está descrita por su velocidad de propagación, c (para el sonido 330 metros por segundo aproximadamente, para la luz 300,000 kilómetros por segundo), y su frecuencia, ν, o longitud de onda, λ. Estos tres números están relacionados, de manera que c=νλ, y su significado es muy sencillo. La frecuencia, ν, es simplemente el numero de máximos (o mínimos) que pasan frente a un cierto punto del espacio en cada segundo. La unidad utilizada para medirla es 1/s, o Hertz (Hz). La longitud de onda, λ, es la distancia entre dos máximos (o mínimos) sucesivos, y se mide en metros (m). Todas las ondas del espectro electromagnético se propagan a través del vacío a la misma velocidad, c=300,000 kilómetros por segundo. La única diferencia entre las ondas de radio y la luz visible, por ejemplo, es su longitud de onda (o equivalentemente, su frecuencia): la luz visible tiene λ~0.5 micras (una micra es la millonésima parte de un metro =10 -6m), mientras que las ondas radio tienen λ~10 cm o más. Así, el espectro electromagnético se divide puramente por razones históricas, o de practicar en regiones que denominamos (pasando de λ grande hacia λ pequeña) como radio, infrarrojo, visible, ultravioleta, rayos X y rayos gamma. La atmósfera de la Tierra es transparente en ciertas regiones del radio, el visible y algo del ultravioleta, y opaca en las demás. Para hacer observaciones en cada una de estas regiones del espectro, es preciso utilizar diferentes instrumentos. Los grandes telescopios ópticos, que tienen su origen en los instrumentos desarrollados por Galileo Galilei, observan en las mismas bandas que nuestros ojos, pero con mucha mayor sensibilidad, detectando objetos menos brillantes de lo que nosotros podríamos ver. Hasta 1930, toda la astronomía se hacía en el visible, no existía la tecnología para observar en otras regiones del espectro. A raíz de la Segunda Guerra Mundial, se desarrolló el radar, y fue rápidamente puesto al servicio de la astronomía, para detectar señales provenientes del cielo.

109


Ondas gravitacionales: Una nueva ventana al universo

El resultado fue una revolución en Astronomía. En el visible, el universo parece un lugar tranquilo, donde las cosas suceden sin prisa, a excepción de algunos eventos espectaculares, como las explosiones de supernova (de las cuales hablaremos más adelante). Las observaciones en radio cambiaron todo, revelando fenómenos insospechados, como por ejemplo los pulsares, descubiertos en 1968. Estos objetos son estrellas muy compactas (estrellas de neutrones, de las cuales hablaremos más adelante), que giran a ritmos altísimos (hasta 500 veces por segundo). El desarrollo de la aeronáutica a partir de la década de 1960 permitió, por primera vez, hacer observaciones arriba de la atmósfera terrestre, en rayos X inicialmente. De inmediato se detectaron fuentes en esta banda, también inesperadas, y nació la astronomía de rayos X, hoy en día una de las áreas en astrofísica de mayor interés. Más recientemente se ha inaugurado la observación en rayos gamma, y existen grandes observatorios orbitales en todas las bandas del espectro electromagnético: SIRTF (Space Infrared Telescope Facility) en el infrarrojo, HST (Hubble Space Telescope), Chandra-AXAF (Advanced X-ray Astrophysics Facility) y XMM-Newton (X-Ray Multi-Mirror) en rayos-X e INTEGRAL en rayos gamma.

110

Cada vez que se ha abierto una nueva ventana en el espectro electromagnético a la observación, se han tenido resultados sorprendentes. Además de las preguntas que se han podido responder, parcial o totalmente, hay toda una serie de descubrimientos que eran inesperados, y que han permitido aumentar nuestro conocimiento de la vida de las estrellas, las galaxias y el universo en su conjunto de manera importantísima. Hoy en día se tiene cubierto prácticamente todo el espectro electromagnético, de una forma u otra, y el trabajo es intenso en todas estas áreas. Sin embargo, existen ciertos problemas difíciles de tratar, por la naturaleza misma de la radiación electromagnética. La luz (en todas sus formas) es producida por la materia. Más exactamente, es producida por cargas eléctricas aceleradas, o por cambios en los estados excitados de los átomos y moléculas del medio que produce la emisión (puede ser la superficie de una estrella, una nube de gas y polvo en el medio interestelar, o la atmósfera de un planeta). Los detalles de la emisión pueden calcularse a partir de la teoría electromagnética desarrollada por James Clerk Maxwell a finales del siglo XIX, y con la teoría cuántica, que tuvo sus inicios en la

década de 1990. A estos fenómenos, que extraen energía del medio, se les denomina procesos de emisión, y suelen ser más intensos cuanto más elevadas sean la densidad del material y su temperatura. Sin embargo, una onda electromagnética producida en alguna de estas formas no necesariamente es libre de salir del medio. Puede interactuar una o más veces con partículas cargadas o átomos neutros en el mismo gas y devolverle una parte, o toda la energía que lleva. A estos fenómenos se les llama procesos de absorción, o dispersión. Así que la luz que se produce es también afectada por las propiedades globales del medio en cuestión. En particular, a mayor temperatura y mayor densidad, la opacidad del material aumenta, y la radiación debe escapar lentamente, por un proceso de difusión a través del gas. Una ilustración trivial es observar la superficie del Sol. No vemos el centro porque la densidad y temperatura aumentan tan rápido con la profundidad que el gas de hidrógeno que lo compone se vuelve opaco. Así que la información que tenemos a nuestra disposición nos puede decir algo directamente sobre la superficie (en el Sol está a unos 5,800 grados Kelvin), pero no sobre el centro. El problema entonces es que algunas de las regiones que producen mayor radiación electromagnética (de la cual se puede extraer información con observaciones), en particular en torno a grandes concentraciones de masa, son opacas y no pueden verse directamente. Para examinarlas en detalle es necesario tener manera de ver a través del gas. Afortunadamente, existe manera de hacerlo, en principio. Para entender cómo, es preciso estudiar la Teoría de la Relatividad General. La Teoría de la Relatividad General fue formulada por Albert Einstein en 1915, diez años después de su trabajo sobre la Teoría de la Relatividad Especial. La diferencia fundamental entre los dos trabajos es que la Teoría General incluye completamente los efectos de la gravitación, mientras que la Especial no lo hace. Sin embargo, un punto fundamental de ambas es que consideran al espacio y al tiempo de manera conjunta, a diferencia de la Física clásica, que hasta entonces consideraba al tiempo como una variable separada del espacio. Una consecuencia directa de esta distinción es que, en el caso clásico (previo a la relatividad), cualquier velocidad es en principio posible (arbitrariamente grande) y la propagación de una señal puede darse de manera instantánea (es decir, con velocidad de propagación infinita). Los trabajos de


William H. Lee

Einstein nos indican que existe una velocidad máxima en la naturaleza para cualquier fenómeno, o propagación de una señal. Este límite está dado por la velocidad de la luz en el vacío, c=300,000 kilómetros por segundo. De manera que, por ejemplo, si el Sol se sacudiera violentamente por alguna razón, el movimiento de la Tierra en torno a él no se afectaría de inmediato, sino después de unos ocho minutos, que es el tiempo que le toma a una señal a la velocidad c en viajar los 150 millones de kilómetros que nos separan del Sol. ¿Y cómo es que se propaga esta señal? Para responder esto es útil pensar en la siguiente analogía en relatividad general: suponga que el espacio consta de dos dimensiones, en lugar de tres. Así, el espacio en el Sistema Solar, por ejemplo, puede visualizarse mediante una manta plana, sostenida por sus bordes. La presencia de una masa colocada sobre esta manta, por ejemplo una pesada pelota de boliche, le dará una cierta curvatura, produciendo una depresión centrada en la pelota (imagine que la manta es de hule). La Tierra puede visualizarse como una canica, que si es lanzada con cierta velocidad sobre la manta, cerca de la depresión, girará en torno a esta última. Si uno sacude la pelota de boliche de algún modo, esta perturbación se propagará a través de la manta, y la canica la sentirá cuando la onda llegue a su posición actual. En este ejemplo sencillo, la velocidad de propagación de la perturbación sobre la manta depende de la tensión con la que esté sostenida. En la relatividad general la velocidad de propagación es c, la velocidad de la luz en el vacío, y la perturbación de la manta corresponde a una onda gravitacional, que transporta la información del movimiento de la masa. Esta onda es una distorsión en el espacio-tiempo mismo, que altera a su paso de manera sutil las distancias entre objetos. El efecto es pequeño, y difícil de detectar, como veremos más adelante. Una vez que hemos descrito a grandes rasgos cómo se emiten las ondas gravitacionales, cabe preguntarse qué clase de objetos en el universo las producen. Más importante aún es determinar con toda la precisión que sea posible la energía que liberarán (i), la forma precisa que tendrán las ondas (ii) y la frecuencia con la que se puede esperar que ocurran eventos de estos tipos (iii). La Teoría de la Relatividad General nos permite hacer una estimación en cuanto al primer punto. Para que las ondas sean intensas, debe moverse una gran cantidad de masa, en un volumen lo más pequeño posible, a velocidades tan

altas como sea permitido. Cuantitativamente, esto puede expresarse de la siguiente forma, expresando el "brillo" de las ondas gravitacionales (i.e. su luminosidad) como función del tamaño, la masa y las velocidades características dentro de la región que emite: L = L0 (Rsch/R)2 (v/c)6. En esta ecuación c es la velocidad de la luz (que no puede ser excedida por v, la velocidad característica de la masa en movimiento), Rsch es el radio gravitacional del objeto (proporcional a su masa M, y equivalente a 3 kilómetros por cada masa solar), y R es su tamaño característico. Nótese que el cociente v/c está elevado a la sexta potencia, por lo cual conviene que v sea tan cercano a c como sea posible para maximizar la luminosidad L. Del mismo modo, conviene que la masa esté contenida en un volumen pequeño, para que Rsch/R sea tan grande como sea posible. L0 es una constante con unidades de luminosidad, que en este caso es 1026 veces el valor para el Sol. De manera que si disponemos de dos esferas, cada una con la masa del Sol, hay que colocarlas en una caja de aproximadamente 50 kilómetros de lado, y sacudir cada una a velocidades comparables con la de la luz. Suena increíble, pero la naturaleza lo logra. En sistemas binarios, o durante el colapso del núcleo de estrellas muy masivas al término de sus vidas (en catástrofes que dan lugar a explosiones de supernova), el acelerador capaz de realizar esto es la misma fuerza de atracción gravitacional. Las explosiones de supernova representan el término de la vida de estrellas masivas (de unas ocho veces la masa del sol o más), cuando ya no pueden soportar su propio peso y se colapsan. Una estrella normal, como el Sol, está en un equilibrio casi perfecto, balanceando por un lado la fuerza de atracción gravitacional, que intenta reducir su tamaño en todo momento, y por otro, la presión de gas, que intenta aumentarlo. La presión proviene de las reacciones termonucleares en su centro, que queman continuamente hidrógeno (el elemento más ligero) en helio al increíble ritmo de 400 millones de toneladas por segundo. Para que esta reacción se mantenga, es necesario que la temperatura sea mayor a 10 millones de grados Kelvin. Al agotarse el hidrógeno en el centro de la estrella, ésta se contrae, y la temperatura aumenta. Al sobrepasar aproximadamente 150 millones

111


Ondas gravitacionales: Una nueva ventana al universo

112

de grados Kelvin, el helio creado en el primer ciclo de reacciones nucleares es quemado a su vez, para producir oxígeno y carbono. Cada ciclo de combustión nuclear produce un elemento más pesado en el centro de la estrella y requiere de temperaturas cada vez más altas, pasando así del hidrógeno al helio, carbono, oxígeno, neón, silicio y finalmente al hierro. La energía generada por cada una de estas reacciones proporciona la presión necesaria para evitar el colapso de la estrella. Al llegar al hierro, sin embargo, sucede algo diferente, ya que no es posible extraerle energía por combustión. Cuando el núcleo de hierro de la estrella alcanza 1.5 masas solares aproximadamente (y mide 10,000 kilómetros), ya no le es posible generar la suficiente presión para soportar su propio peso, y la estrella colapsa sobre sí misma. El núcleo se reduce a una bola de 10 kilómetros de radio, y la densidad aumenta 10 millones de veces, hasta que los protones y neutrones del material prácticamente se tocan unos a otros. En este estado, la materia se resiste violentamente a más compresión, y las capas superiores de la estrella rebotan sobre el núcleo. Éste es el nacimiento de una estrella de neutrones, con M~1.5 masas solares y R~10 kilómetros. Es la clase de objeto más compacto que se conozca (excluyendo a los agujeros negros). La densidad en su interior es de aproximadamente 1014 gramos por centímetro cúbico. El colapso y rebote son extremadamente violentos, ocurriendo en cuestión de unos segundos, y expulsando las capas exteriores de la estrella al medio interestelar a unos 10,000 kilómetros por segundo, produciendo lo que vemos como una explosión de supernova. Estos fenómenos pueden ser, por unos instantes, más brillantes que toda una galaxia, y han sido observados en numerosas ocasiones. Grandes cantidades de masa son redistribuidas a altas velocidades, así que se espera que estos eventos sean fuentes importantes de ondas gravitacionales. La mayoría de las estrellas no están solas, sino que se encuentran en sistemas binarios, donde giran una en torno a la otra por su atracción gravitacional mutua. El tiempo T que tardan en dar una vuelta depende tanto de la masa total del sistema M = M1+ M2, como de la distancia que las separa, a. Esta relación es la famosa tercera ley de Kepler: T2~M a3. Así que para una masa total dada, las estrellas tardarán menos en completar una órbita cuanto menor sea la distancia que las separa. Esta ley se aplica también por supuesto para planetas en órbita en torno a una estrella, lo

que explica de inmediato por qué aquellos más cercanos al Sol, como Mercurio, giran más rápido (88 días) que aquellos que están lejos, como Plutón (248 años). Al estar constituido por masas aceleradas, dichos sistemas emiten ondas gravitacionales, que se llevan cierta cantidad de energía. La respuesta a esta pérdida es una disminución de la separación entre las dos estrellas, de manera que cada vez tardan menos en completar una órbita. La velocidad a la que se mueven también aumenta drásticamente. Este proceso produce por lo tanto una trayectoria espiral, en la que las estrellas se acercan una a la otra cada vez más rápido, al disminuir el periodo. Se produce una colisión cuando la separación entre las dos estrellas se vuelve comparable al diámetro de éstas. Por lo tanto, para que la velocidad al momento del contacto sea lo más grande posible, conviene que las estrellas sean pequeñas. Como se mencionó arriba, las estrellas más compactas que se conocen son las estrellas de neutrones, productos del colapso de los núcleos de estrellas muy masivas. Puede ocurrir (como veremos más adelante) que en un sistema binario, ambas estrellas lleguen a convertirse en estrellas de neutrones a través de explosiones de supernova. En este caso, la colisión entre las estrellas se dará cuando la separación sea de 20 kilómetros aproximadamente, y cada una se estará moviendo a 1/3 de la velocidad de la luz, bajo la atracción gravitacional de su compañera. Las ondas gravitacionales generadas en estos casos tendrán típicamente frecuencias de 500 a 1000 ciclos por segundo (500 a 1000 Hz). Otra clase de sistema, al extremo opuesto en la escala de masas, que podría generar ondas gravitacionales intensas (pero a frecuencias muy distintas que las involucradas en la colisión de estrellas de neutrones), son parejas de agujeros negros supermasivos. Se piensa que la mayoría de las galaxias espirales (como nuestra propia Vía Láctea) poseen un agujero negro supermasivo, de unas 10 millones de masas solares, en su centro. Las galaxias frecuentemente interactúan con sus vecinas, y en ciertos casos colisionan. Una posibilidad es que después de la colisión, los agujeros negros se fusionen en el centro de la nueva galaxia, por el mismo mecanismo que opera en el caso de estrellas de neutrones. Ya que los agujeros son muy grandes, chocarán cuando su separación sea de unos 30 millones de kilómetros, y la frecuencia característica de las ondas será de un ciclo cada mil segundos (1mHz).


William H. Lee

Los instantes previos a la colisión, y la colisión misma, son en ambos casos otra potente fuente de ondas gravitacionales que se espera detectar. El segundo aspecto (la forma exacta de las ondas) es mucho más difícil de calcular que el primero, y es un problema de gran interés en astrofísica hoy en día. Se pueden hacer ciertas suposiciones para simplificar el problema en ciertos casos. Por ejemplo, para un sistema binario, cuando la separación, a, es mucho mayor que el radio de las estrellas, R1 o R2, se puede aproximar a las estrellas como masas puntuales sin tamaño alguno. Esto hace que los cálculos sean posibles en relatividad general, y proporciona una muy buena idea de cómo es la onda que se produce. Para la colisión en sí, sin embargo, es necesario usar no sólo la relatividad general, sino también considerar la hidrodinámica, las reacciones nucleares, el transporte de la radiación así como conocer la relación entre la presión de gas y la densidad del material, indicadores imposibles de duplicar en un laboratorio. Esto también se aplica de principio a fin en el caso del estudio de explosiones de supernova. Sólo puede llevarse a cabo con simulaciones numéricas por computadora, y está aún lejos de ser resuelto. Para el tercer aspecto (la frecuencia de eventos) es necesario hacer estudios de poblaciones de las estrellas, para saber cuántas hay capaces de producir una explosión de supernova (por galaxia por ejemplo), o qué fracción de los sistemas binarios que se forman llegarán a una etapa en la que estén formados por dos estrellas de neutrones. Aunque las ondas gravitacionales no han sido detectadas en forma directa todavía, existen evidencias indirectas que confirman las predicciones de la teoría general de la relatividad en este sentido. En 1973, los astrónomos norteamericanos Russell Hulse y Joseph Taylor descubrieron un sistema estelar único. Éste consta de dos estrellas de neutrones, girando una en torno a la otra. Cada una de ellas tiene aproximadamente 1.5 veces la masa del Sol, y están tan cerca (a unos cuantos cientos de miles de kilómetros) que tardan sólo 8 horas en completar una órbita. Bajo estas condiciones, los efectos de la relatividad general son considerables. La órbita del sistema es tan pequeña y, por lo tanto, la generación de ondas gravitacionales es tan importante, que el cambio en el tamaño de la órbita se puede apreciar en poco tiempo. Desde el descubrimiento del sistema por Hulse y Taylor

han pasado ya 30 años, así que se tienen suficientes datos como para comparar la predicción de la relatividad general con la observación. El ajuste es asombroso, y es ampliamente considerado como la confirmación de la existencia de las ondas gravitacionales. Por este hallazgo recibieron el Premio Nobel en 1993. Aún así, la separación entre las estrellas en este sistema es tan grande que habrá que esperar 100 millones de años para que se produzca una colisión como la que se mencionó anteriormente. La detección directa de ondas gravitacionales es uno de los problemas abiertos de Física experimental más complicados. Para darse cuenta de la magnitud del problema, basta dar el siguiente ejemplo: una masa equivalente a la del Sol, en movimiento violento (con velocidades cercanas a la de la luz) colocada en el centro de nuestra galaxia (a 30,000 años luz de distancia), producirá sobre una barra metálica de un metro de largo una perturbación no mayor al diámetro de un átomo. Suena entonces prácticamente imposible realizar una detección con estas características, y de hecho ésta era la opinión de la mayoría de los físicos. Joe Weber (1919-2000) opinaba lo contrario. Trabajó en los EU, inicialmente como ingeniero, y después, durante 20 años construyó detectores de ondas gravitacionales, a la espera de recibir una señal. El principio de sus detectores era sumamente sencillo. Cualquier sólido (como una barra de metal, o una cavidad de madera) tiene una frecuencia natural de oscilación, que depende para nuestros propósitos esencialmente de su tamaño. Si uno perturba la barra (con un leve golpe por ejemplo), ésta responderá con una oscilación, que será máxima cuando la perturbación esté afinada a la frecuencia natural de oscilación. Éste es el principio de cualquier instrumento musical, y el hecho de que los violines sean chicos y los contrabajos grandes es un reflejo de que la frecuencia natural (el tono) de una caja chica es más alta que la de una caja grande. Si una onda gravitacional con frecuencia igual a la frecuencia natural de oscilación de una barra incide sobre ésta, la hará vibrar con (relativamente) gran amplitud. Para detectar la vibración se pueden colocar cristales piezo-eléctricos alrededor de la barra. Este tipo de material responde a esfuerzos de compresión produciendo una pequeña señal eléctrica, que puede ser transferida a un amplificador de señales para analizarse. En realidad las ondas gravitacionales no son de una sola frecuencia, sino que contienen muchas (de la misma forma que hay muchos colores contenidos en la luz blanca, revelados en un arcoíris), así

113


Ondas gravitacionales: Una nueva ventana al universo

que alguna frecuencia hará probablemente vibrar la barra, si uno escoge su tamaño de manera adecuada. Weber preparó entonces una barra de aluminio puro, de aproximadamente un metro de diámetro, y la colgó por medio de cables en un laboratorio. Los problemas principales de éste y todos los detectores de ondas gravitacionales es la eliminación del ruido externo, principalmente en forma de vibraciones sísmicas (para lo cual hay que aislar la barra del exterior a través de un complicado sistema de suspensión) y térmicas (para lo cual hay que enfriar todo el dispositivo). Esto es exactamente como construir un xilófono, utilizando barras de diferentes tamaños, y dejándolas suspendidas a la espera de que una onda gravitacional atraviese el laboratorio y literalmente toque el instrumento. Casi de inmediato, Weber reportó que había detectado ondas, provenientes del centro galáctico. Esto produjo gran interés, y varios grupos de inmediato intentaron confirmar el resultado con sus propios experimentos. No tuvieron éxito, y hoy en día se piensa que de hecho no hubo una detección real, sino que probablemente las señales se debieron a ruido o fallas en los detectores. Sin embargo, fue el trabajo de Weber que provocó toda esta actividad, y no es exageración decir que fundó prácticamente solo el campo de la detección de ondas gravitacionales. Desgraciadamente, la controversia en torno a las detecciones hizo que se tensara su relación con el resto de la comunidad científica. 114

Hoy en día, los detectores más ambiciosos usan un principio distinto al de Weber (aunque los hay de todos tipos), en su búsqueda por hacer la primera detección: la interferometría. La interferencia es un fenómeno propio a cualquier onda, y se puede observar en un estanque. Al arrojar dos piedras en puntos cercanos, éstas producen anillos concéntricos, y la altura de las olas que se generan es una superposición de las olas individuales generadas por cada piedra. Así, la cresta de una ola puede cancelar el valle producido por otra y no alterar el nivel del agua. En el caso de la luz, se producen franjas de luz (al superponerse crestas con crestas) y sombra (al superponerse crestas con valles). Es una manera precisa de medir la diferencia de caminos recorridos por la luz, y los aparatos utilizados se denominan interferómetros. La idea detrás de un detector de este tipo es sumamente sencilla. Las ondas gravitacionales perturban el espacio

alterando la distancia relativa entre dos objetos, como se mencionó anteriormente. Este desplazamiento hace que si uno coloca dos largos brazos a un ángulo recto, e incide una onda sobre el plano definido por estos brazos (que podrían estar sobre el suelo), uno de ellos se alargará mientras el otro se encoge, y poco tiempo después será a la inversa, con el primero encogiéndose y el segundo alargándose. Así que la distancia entre el codo y el extremo de cada brazo cambiará a medida que pasa la onda. Si hacemos que un rayo de luz láser, partido en dos haces distintos, viaje por cada brazo continuamente, la distancia recorrida será diferente para cada uno. Al combinarlos después del recorrido, se producirá un fenómeno de interferencia de la luz. En el caso de las ondas gravitacionales, los interferómetros son de dimensiones nunca antes vistas. En Estados Unidos se han construido dos detectores de este tipo, llamados LIGO (Laser Interferometric Gravitational wave Observatory), uno en Hanford, Washington, y otro en Livingston, Luisiana. La luz viaja por brazos de 4 kilómetros de largo, en túneles donde se ha hecho un vacío casi perfecto. Al final de cada túnel hay una masa cubierta con una capa reflectora, suspendida con un dispositivo que filtra gran parte de las vibraciones del exterior. En Europa se construye otro con el mismo principio, VIRGO (cerca de Pisa, Italia) con brazos de 2 kilómetros de largo. Estos aparatos ya están funcionando, y se encuentran en la etapa inicial de calibración y ajuste. Se espera que en los próximos años se pueda reducir el nivel de ruido, lo suficiente como para hacer una detección directa de ondas gravitacionales. Del mismo modo que las observaciones en diferentes regiones del espectro electromagnético han revelado sorpresas, además de resolver problemas abiertos, podemos esperar que la detección directa de ondas gravitacionales tenga un impacto importante sobre nuestra visión del universo. Por un lado, se podrán verificar aspectos detallados de la Teoría de la Relatividad General de Einstein. Además, se tendrá una herramienta invaluable para interpretar fenómenos que hasta ahora sólo han podido ser observados a través de la radiación electromagnética que emiten, utilizando literalmente una nueva ventana de observación.


William H. Lee

Bibliografía

Bartusiak, M. (2002). La sinfonía inacabada de Einstein, Ed. Océano (trad. del ingés). Begelman, M. y Rees, M. (1996). Gravity’s fatal attraction, Scientific American Library. Einstein, A. (1961). Relativity: the special and the general theory, Crown Publishers, New York. Pais, A. (1982). Subtle is the Lord: The Science and the life of Albert Einstein, Oxford University Press. Thorne, K.. (1994). Black holes and time warps: Einstein’s outrageous legacy, Norton & Co. Wheeler, J. A. y Ford, K. (1998). Geons, black holes and quantum foam, Norton & Co.

115



Síntesis biológica de compuestos aromáticos: Cómo modificar las bacterias para que se transformen en fábricas químicas Guillermo Gosset Lagarda Departamento de Ingeniería Celular y Biocatálisis Instituto de Biotecnología, UNAM Entre los compuestos generados por la industria química, los aromáticos se distinguen por su gran número de aplicaciones en las industrias farmacéutica y de alimentos. Actualmente, este tipo de moléculas se obtienen mediante procesos basados en síntesis química a partir de benceno, tolueno y xileno, los cuales son derivados del petróleo. Estos procesos permiten generar compuestos aromáticos útiles con un costo de producción relativamente bajo. Sin embargo, algunas de las vías de síntesis química generan subproductos que pueden contaminar el medio ambiente. Por otro lado, la dependencia del petróleo como materia prima tiene la desventaja de que este recurso natural no es renovable. Por lo tanto, en el futuro su disponibilidad será limitada. Por estos motivos, ha surgido interés por la búsqueda de alternativas tecnológicas que permitan producir compuestos aromáticos mediante procesos no contaminantes y que no dependan del hidrocarburo. En este sentido, una de las opciones más promisorias es la Biotecnología. Esta área puede definirse como el uso de organismos o sus componentes, con el fin de generar bienes y servicios. Todos los seres vivos tienen la capacidad natural de realizar transformaciones químicas, debido a que poseen proteínas especializadas llamadas enzimas, las cuales funcionan como catalizadores. La Biotecnología estudia y aprovecha esta capacidad catalítica natural de los organismos, para con ellos generar procesos biológicos que produzcan moléculas útiles (Alper, 1999). Al conjunto de las reacciones químicas que ocurren en un organismo, se le llama metabolismo. Esta serie de transformaciones químicas tiene el propósito de generar diversas moléculas que serán unidas en diferentes configuraciones y así irán dando pie a nuevos componentes celulares. Mediante este proceso, la célula va creciendo, llegando a un punto en que ésta se divide dando lugar a nuevas células. Mediante reacciones específicas, la energía química para llevar a cabo estos procesos es extraída de moléculas orgánicas, principalmente carbohidratos. Es así que cualquier célula puede considerarse como una fábrica microscópica, capaz de llevar a cabo un gran número de reacciones químicas diferentes. Sin embargo, en su estado natural, las células generalmente no producen cantidades elevadas de los compuestos útiles desde el punto de vista industrial. Por este motivo, es necesario modificar su metabolismo para que adquieran la capacidad de sintetizar una cantidad elevada de compuestos químicos útiles para el ser humano, convirtiéndose así en fábricas químicas.

117


Síntesis biológica de compuestos aromáticos: Cómo modificar las bacterias para que se transformen en fábricas químicas

La ingeniería de vías metabólicas

118

El área de la Biotecnología que se relaciona con el estudio y la modificación del metabolismo es la Ingeniería de Vías Metabólicas (IVM). Ésta puede definirse como el cambio racional y directo de las reacciones que constituyen el metabolismo de un organismo, con el propósito de mejorar sus propiedades o su productividad (Bailey, 1991). La IVM surge como un nuevo campo dentro de la Biotecnología como resultado del cúmulo de conocimientos generados por varias disciplinas biológicas, que incluyen principalmente a la Bioquímica, la Genética, la Biología Molecular y las Ciencias Genómicas. En la Figura 1 se muestra un esquema que representa el flujo de información genética en la célula, así como las áreas de la Biología y la Ingeniería que son utilizadas como herramientas teóricas y prácticas de la IVM. En la parte central de la figura se muestra la relación existente entre la información genética contenida en el genoma de una célula con la composición de proteínas y su efecto sobre el metabolismo. Este esquema representa el dogma central de la Biología Molecular, el cual dicta que la información genética fluye del ácido desoxirribonucleico (DNA) hacia el ácido ribonucleico (RNA) y finalmente hacia las proteínas. Las proteínas son las responsables de llevar a cabo la mayoría de las funciones celulares. Por lo tanto, el tipo y la cantidad de proteínas específicas (proteoma) presentes en una célula determinan qué funciones celulares estarán activas. El metabolismo es un proceso celular en donde participa un gran número de proteínas diferentes. La célula posee mecanismos para coordinar cuáles proteínas y en qué cantidad son necesarias dependiendo de las condiciones externas. Cualquier célula microbiana típica tiene el potencial genético en su genoma para sintetizar un número considerable de proteínas. En el caso de la bacteria Escherichia coli, se estima que este número es cercano a 4,400 proteínas diferentes. El control sobre cuáles proteínas se sintetizan, ocurre principalmente al nivel de la síntesis del RNA. Existen proteínas llamadas reguladores, las cuales tienen la función de facilitar o impedir que un gen sea transcrito en RNA. De esta manera, mediante la regulación genética, la célula tiene un mecanismo para controlar que sólo se sinteticen las proteínas necesarias para una condición ambiental determinada.

La posibilidad de modificar de manera directa el metabolismo es el resultado del conocimiento actual sobre las reacciones químicas que lo constituyen, las enzimas que catalizan dichas reacciones y los genes que las codifican. Debido a que el metabolismo es una red muy extensa y compleja de reacciones, se necesitan metodologías que permitan analizarlo de manera cuantitativa. Asimismo, se requiere de herramientas especializadas con las cuales se pueda modificar de manera directa a los componentes celulares. Este conjunto de herramientas se presenta en la Figura 1.

Figura 1.

La Ingeniería Genética y sus técnicas de DNA recombinante surge en los años 70 como resultado del conocimiento acumulado en el campo de la Biología Molecular. Con ello se abre la posibilidad de aislar, editar y modificar el material genético. Lográndose incluso el transplante de genes entre especies diferentes. Una importante aplicación ha sido el desarrollo de cepas bacterianas con la capacidad de producir cantidades elevadas de proteínas terapéuticas, como es el caso de la insulina y la hormona de crecimiento humanas (Swartz, 2001). El desarrollo en años recientes de las técnicas de Biología Molecular ha permitido la determinación de las secuencias nucleotídicas de genomas completos. Surge así la Ciencia Genómica, la cual tiene como objeto el estudio de la función, interrelación y evolución de todos los genes de un organismo. La Ciencia Genómica se ha desarrollado con el apoyo de la Bioinformática. Esta área de interfase entre la Biología y la Informática es indispensable para que se pueda llevar a cabo el análisis teórico de las secuencias de DNA que son depositadas en bases de datos (Wiemer y Prokudin, 2004).


Guillermo Gosset Lagarda

La Biología Estructural y las técnicas de DNA recombinante han sido aplicadas al estudio y modificación de proteínas, desarrollándose así el campo llamado Ingeniería de proteínas. Esta disciplina tiene como objetivo la modificación racional de las propiedades de este tipo de biomoléculas, tomando como base la información funcional y estructural. La Ingeniería de proteínas generalmente se aplica al mejoramiento de enzimas, como: incrementar la actividad específica, cambiar la especificidad hacia nuevos sustratos, eliminar la inhibición alostérica, entre otras (Jestin y Kaminski, 2004). El análisis de flujos metabólicos tiene como objetivo determinar la distribución y la magnitud de los flujos de materia y energía en la célula (Stephanopoulos et al., 1999). Este tipo de estudios es posible debido a que se conoce prácticamente la totalidad de las reacciones químicas que constituyen el metabolismo de E. coli, proceso en el cual participan aproximadamente 994 enzimas y 794 metabolitos. En esta red metabólica algunas reacciones siempre están activas y otras se inducen o reprimen dependiendo de las condiciones donde se encuentre la bacteria. La complejidad del metabolismo ha generado la necesidad del desarrollo de métodos de estudio especiales, basados en enfoques teóricos y experimentales. Uno de ellos es el diseño de modelos del metabolismo celular in silico, es decir simulados en una computadora. Ésta es una área en la cual se fusionan la Informática y la Bioquímica. Ahora es posible simu-lar, mediante algoritmos implementados en un programa de computadora, los flujos en las reacciones metabólicas de una bacteria. Así se pueden calcular los efectos sobre la distribución de flujos metabólicos de cambios en la composición de nutrientes o la ausencia de una o varias enzimas. Este tipo de estudios ha sido muy valioso para ayudar a entender cuáles son los límites teóricos en la capacidad de producción de algunos metabolitos y cuáles son las distribuciones de flujos que permiten llegar a dicho resultado (Price et al., 2004). La determinación de flujos metabólicos en una célula viva es otra aproximación al estudio del metabolismo celular. Esta metodología se basa en la utilización de moléculas marcadas con isótopos. Esta metodología es muy poderosa, permitiendo la determinación de la mayoría de los flujos metabólicos intracelulares. Sin embargo, para su aplicación se requiere de equipos costosos y cálculos muy complejos. La determinación de flujos metabólicos se basa en el uso

de moléculas de azúcares, en las cuales uno o varios de sus átomos de carbono son el isótopo 13C. Los isótopos son átomos de un elemento que difieren en el número de neutrones en su núcleo. Para el carbono, el isótopo más abundante es el 12C. Utilizando técnicas analíticas es posible determinar si una molécula contiene átomos del isótopo 12C o 13C. En este tipo de experimentos, generalmente se utiliza glucosa marcada. La glucosa es alimentada en un cultivo bacteriano y como resultado del metabolismo, sus átomos de carbono terminan formando parte de la mayoría de los componentes celulares. Utilizando métodos analíticos, es posible determinar la posición de los átomos de 13C en un gran número de moléculas en la célula. Con esta información y el conocimiento de la estequiometría en la red metabólica del organismo, es posible calcular los flujos internos en la célula (Flores et al., 2002). El objetivo del análisis de control metabólico (ACM) es definir la relación cuantitativa de una reacción enzimática sobre el flujo en una vía metabólica completa. Cuando se desea modificar el metabolismo de un microorganismo, una de las principales preguntas es: ¿cuál o cuáles de las actividades enzimáticas deberán ser modificadas para lograr un efecto específico? No es sencillo encontrar la respuesta a esta pregunta, debido principalmente a la gran complejidad del metabolismo celular. El ACM es la principal herramienta que permite identificar las enzimas clave dentro de vías metabólicas específicas. La relación entre una actividad enzimática y el flujo metabólico se expresa como un coeficiente de control de flujo (CCF). El CCF se define como el cambio en el flujo en una vía metabólica que resulta al incrementar la actividad de una enzima particular en un 10%. La determinación de los CCF para las enzimas dentro de una vía metabólica específica, permite establecer cuáles de ellas son las que limitan el flujo. Una vez que se identifican las enzimas limitantes, mediante la aplicación de la Ingeniería Genética se puede incrementar el nivel de expresión de sus genes, por consecuencia, la actividad específica (Bakker et al., 1995).

119


Síntesis biológica de compuestos aromáticos: Cómo modificar las bacterias para que se transformen en fábricas químicas

Estrategias generales de Ingeniería de vías metabólicas para incrementar la producción de un metabolito de interés La modificación del metabolismo con el fin de generar cepas microbianas que puedan producir una cantidad elevada de un metabolito particular es la aplicación más frecuente de la IVM. Existen estrategias generales que se pueden aplicar con este fin, independientemente del metabolito que se desee producir: 1. Con base en el conocimiento bioquímico de la vía metabólica que sintetiza al compuesto de interés, identificar a las enzimas que son sujetas a control por inhibición alostérica. Éstas son las enzimas clave que regulan el flujo de carbono hacia una vía específica. 2. Para incrementar el flujo de carbono hacia la vía biosintética de interés, identificar y eliminar los controles alostéricos y transcripcionales en las enzimas clave de esa vía y en los genes que las codifican.

Las vías metabólicas de síntesis de compuestos aromáticos en bacterias Como se mencionó, los diferentes compuestos aromáticos, que son producidos actualmente, tienen aplicaciones en varias ramas de la industria. Algunos de estos compuestos pueden ser sintetizados en pequeñas cantidades de manera natural por ciertas especies de microorganismos y plantas. Esta capacidad natural abre la posibilidad de aplicar la IVM para modificar estos organismos y convertirlos en productores industriales de compuestos aromáticos. Existe gran diversidad en cuanto a los diferentes compuestos aromáticos que pueden ser sintetizados por bacterias, pero prácticamente todas ellas poseen la capacidad de sintetizar los llamados compuestos aromáticos primarios, que incluyen a los aminoácidos aromáticos triptofano (L-Trp), fenilalanina (LFen) y tirosina (L-Tir), así como el ácido fólico, menaquinona y ubiquinona. Estos compuestos son componentes de las proteínas y participan en reacciones de oxidoreducción (Bentley, 1990).

3. Mediante la utilización de promotores fuertes y la inserción en plásmidos multicopia, lograr un alto nivel de expresión de los genes que codifican para las enzimas clave a las que ya se les eliminó el control alostérico. 120

4. Identificar y eliminar posibles pasos limitantes dentro de la vía de interés. 5. Incrementar la disponibilidad metabólica de los intermediarios del metabolismo central que sean los precursores del metabolito que se desea producir. Estos puntos representan la serie de análisis y modificaciones mínimas a realizar, con el propósito de generar una cepa de producción mediante la aplicación de la IVM. A continuación se presentarán ejemplos de cómo se aplican estas estrategias para el desarrollo de cepas productoras de compuestos aromáticos.

Figura 2.

En la Figura 2 se muestra un esquema de las principales vías de síntesis de compuestos aromáticos presentes en la bacteria Escherichia coli (E. coli). Para su estudio, estas vías pueden dividirse en dos grupos: a) la vía común de síntesis de compuestos aromáticos o vía del ácido siquímico, la cual da lugar a la síntesis del compuesto corismato (COR) y b) las vías terminales que dan lugar a la síntesis de los aminoácidos aromáticos L-Trp, L-Tir y L-Fen. La vía del ácido siquímico inicia con la condensación entre el fosfoenolpiruvato (PEP)


Guillermo Gosset Lagarda

y la D-eritrosa 4-fosfato (E4P) para formar el compuesto 3-desoxi-D-arabino-heptulosonato 7-fosfato (DAHP) en una reacción catalizada por la enzima DAHP sintasa. En E. coli existen tres isoenzimas de DAHP sintasa, codificadas por los genes aroF, aroG y aroH, estando sujetas a inhibición alostérica por los aminoácidos L-Tir, L-Fen y L-Trp, respectivamente. Después de seis pasos enzimáticos, se genera el intermediario COR, a partir del cual inician las vías de síntesis para cada uno de los aminoácidos aromáticos. La vía biosintética de L-Trp inicia con una reacción catalizada por la enzima antranilato sintasa, misma que es inhibida alostéricamente por el aminoácido L-Trp y activada por COR. Después de cinco pasos enzimáticos, se sintetiza el aminoácido L-Trp. A partir del COR también se sintetizan los aminoácidos L-Tir y L-Fen. La enzima bifuncional corismato mutasa-prefenato deshidrogenasa (CM-PDH), codificada por el gene tyrA, cataliza los dos primeros pasos en la vía biosintética de L-Tir, generando el compuesto hidroxifenilpiruvato (HPP). Esta enzima es inhibida alostéricamente por la L-Tir. Después de una reacción de transaminación, el HPP es convertido en L-Tir. Por otro lado, la enzima corismato mutasa-prefenato deshidratasa (CM-PDT), codificada por el gene pheA, cataliza los dos primeros pasos en la vía biosintética de L-Fen, generando el fenilpiruvato (PPI). Esta enzima es inhibida alostéricamente por el aminoácido L-Fen. El PPI es transformado en L-Fen mediante una reacción de transaminación (Pittard, 1996).

Estrategias de Ingeniería Metabólica para incrementar el flujo de carbono hacia las vías de síntesis de compuestos aromáticos El conocimiento sobre las reacciones que constituyen las vías biosintéticas para la síntesis de L-Trp, L-Tir y L-Fen, las enzimas que las catalizan, sus respectivos genes codificantes y la estructura regulatoria de las mismas, han permitido definir estrategias de IVM para lograr su modificación con fines de producción. El objetivo final de esta estrategia consiste en lograr la redirección del máximo flujo de carbono hacia la vía metabólica de interés (LaDuca et al., 1999; Bongaerts et al., 2001).

Al igual que otras vías biosintéticas, las vías de síntesis de aminoácidos aromáticos se encuentran altamente reguladas en E. coli. Los diferentes mecanismos de regulación aseguran que la bacteria no sintetice los aminoácidos aromáticos cuando éstos se acumulan intracelularmente o cuando se encuentren presentes en el medio externo. Lo anterior asegura que la bacteria no desperdicie energía metabólica ni moléculas precursoras para la síntesis de compuestos que pudiera obtener fácilmente del exterior. La regulación en la biosíntesis de aminoácidos aromáticos ocurre a nivel transcripcional y alostérico. La regulación transcripcional de la biosíntesis de aminoácidos aromáticos depende de las proteínas reguladoras TyrR y TrpR. El represor TyrR se activa al unírsele una molécula del aminoácido L-Tyr, esto ocurre cuando éste se acumula en el interior de la célula. La proteína TyrR unida a L-Tir tiene la capacidad de unirse a las regiones promotoras de los genes aroF, aroG, aroL y tyrB, ocasionando con ello la represión de la transcripción. De forma similar, la proteína TrpR se activa en presencia del aminoácido L-Trp para formar el represor TrpRL-Trp, el cual se une a los promotores de los genes aroH y trpE, reprimiendo su transcripción (Camakaris y Pittard, 1973; Cohen y Jacob, 1959). Adicionalmente, la transcripción de los genes trpE, pheA y tyrA se encuentra sujeta a control por atenuación. Este mecanismo de regulación también responde a la presencia de los aminoácidos aromáticos, ocasionando la terminación prematura de la transcripción al nivel de la región promotora (Zurawlki et al., 1978). Por otro lado, y como se mencionó previamente, las enzimas que catalizan el primer paso en la vía del siquimato y las vías para la síntesis de cada uno de los aminoácidos aromáticos, se encuentran sujetas a inhibición alostérica (Figura 2). Asimismo, se ha determinado que la enzima siquimato deshidrogenasa (AroE) es inhibida por su producto, el siquimato (Dell y Frost, 1993). Como resultado de estos procesos regulatorios, la bacteria E. coli únicamente produce la cantidad necesaria de aminoácidos aromáticos para la síntesis de sus proteínas. Por esta razón, E. coli y otras bacterias no secretan al medio de cultivo una cantidad apreciable de los aminoácidos aromáticos. Por lo tanto, para lograr que una bacteria produzca una cantidad elevada de estos compuestos, es necesario eliminar el estricto control transcripcional y alostérico sobre la capacidad biosintética.

121


Síntesis biológica de compuestos aromáticos: Cómo modificar las bacterias para que se transformen en fábricas químicas

La represión ejercida por las proteínas TyrR y TrpR puede eliminarse si se inactivan los genes que codifican para estas proteínas. Sin embargo, una estrategia más efectiva consiste en sustituir las regiones promotoras de los genes controlados, por promotores que no sean reprimidos por estas proteínas y que permitan lograr un alto nivel de expresión (Patnaik et al., 1995). Los genes modificados, generalmente, son insertados en plásmidos. Éstos son moléculas de DNA circular de tamaño relativamente pequeño (1,000 a 100,000 pares de bases), los cuales se replican independientemente del cromosoma bacteriano. Los plásmidos difieren en varios aspectos, entre los que destacan el número de copias, la estabilidad segregacional, la presencia de genes que confieren resistencia a antibióticos, la presencia de promotores regulables y la disponibilidad de sitios de reconocimiento para enzimas de restricción (Bolívar et al., 1977; Balbás y Bolívar, 1990).

122

En las vías de síntesis de compuestos aromáticos la regulación alostérica se presenta en las enzimas que se encuentran al inicio de cada vía individual. Para incrementar el flujo de carbono hacia la vía del siquimato es necesario generar una versión insensible a inhibición alostérica (IIA) de alguna de las tres isoenzimas de DAHP sintasa. Por otro lado, para dirigir el flujo de carbono hacia las vías de síntesis de L-Trp, L-Fen o L-Tir es necesario generar versiones IIA de las enzimas antranilato sintasa, CM-PDT y CM-PDH, respectivamente. La estrategia general, utilizada para obtener versiones IIA de cualquiera de estas enzimas, se basa en la selección de cepas mutantes capaces de crecer en la presencia de análogos tóxicos de los aminoácidos aromáticos. Los análogos son moléculas estructuralmente similares a cada uno de los tres aminoácidos aromáticos. Este tipo de compuestos por lo general no existen naturalmente, por lo tanto, deben ser sintetizados químicamente. Cuando se añaden al medio donde crece la bacteria, los análogos son internalizados e incorporados a las proteínas durante su síntesis. Debido a las diferencias químicas con los aminoácidos naturales, los análogos interfieren con el funcionamiento de las proteínas y en ciertas concentraciones pueden ocasionar la muerte celular. Esta estrategia se basa en que la capacidad de crecimiento de la bacteria se recupera cuando en ella se presenta una mutación que incrementa la capacidad de síntesis del aminoácido natural y, como resultado, se diluye la concentración del análogo tóxico. Generalmente, estas mu-

taciones ocurren en genes que codifican para enzimas, las cuales ahora son IIA. Análogos de triptofano como el 5-fluorotriptofano, han sido utilizados para la obtención de versiones insensibles a inhibición de la enzima antranilato sintasa de E. coli. Diferentes análogos de los tres aminoácidos aromáticos han sido empleados exitosamente para obtener mutantes IIA de las enzimas reguladas de las vías de síntesis de aromáticos (Berry, 1996). En resumen, las modificaciones mínimas para generar una cepa sobreproductora de alguno de los aminoácidos aromáticos, serían las siguientes: a) Para los tres aminoácidos aromáticos es necesaria la expresión elevada de un gen que codifica para una versión IIA de la enzima DAHP sintasa. b) Para L-Trp, además de a), la expresión elevada de un gen que codifique para una versión IIA de la enzima antranilato sintasa. c) Para L-Fen, además de a), la expresión elevada de un gen que codifique para una versión IIA de la enzima CM-PDT. d) Para L-Tir, además de a), la expresión elevada de un gen que codifique para una versión IIA de la enzima CM-PDH. Además de estas modificaciones, para la producción de cada aminoácido pueden efectuarse modificaciones adicionales que mejoran la capacidad de producción. En el caso de L-Trp, se sabe que la mayoría de las cepas de E. coli poseen el gene tnaA que codifica para la enzima triptofanasa. Esta enzima cataliza la conversión del L-Trp en indol y piruvato, permitiéndole a la bacteria utilizar este aminoácido como fuente de carbono y nitrógeno. Por lo tanto, para evitar la pérdida del L-Trp generado en un cultivo, es necesario inactivar el gene tnaA en la cepa de producción (LaDuca et al., 1999). Para la producción de L-Fen, se han inactivado los genes que codifican para las enzimas antranilato sintasa o CM-PDH. Esta estrategia ocasiona que la cepa de producción no pueda sintetizar L-Tir o L-Trp, compuestos que contaminan a la L-Fen producida. Con esta estrategia también se logra reducir la competencia de estas dos vías por el corismato producido en la vía del siquimato. En cepas productoras de L-Tir, se ha logrado un incremento en la producción de


Guillermo Gosset Lagarda

este aminoácido al sobre expresar el gene que codifica para la enzima siquimato cinasa (AroL) (Ito et al., 1990).

Estrategias para incrementar la disponibilidad de los precursores de compuestos aromáticos, PEP y E4P Cepas de E. coli, con modificaciones como las descritas previamente, pueden sintetizar aminoácidos aromáticos en fermentación llegando a concentraciones elevadas (aproximadamente 20-40 g/L). Desde el punto de vista comercial, generar una concentración elevada del producto es deseable, ya que de esta manera se pueden facilitar los procesos de purificación. Adicionalmente, un parámetro importante en un proceso de producción es la eficiencia en la conversión del substrato en producto, también conocido como rendimiento. El término utilizado para designar rendimiento es: Yproducto/sustrato. En los cultivos a nivel industrial con E. coli, la fuente de carbono más comúnmente utilizada es la glucosa, debido a que este azúcar es bastante abundante y es, además, la fuente de carbono y energía preferentemente utilizada por esta bacteria. Por lo tanto, se considera a la glucosa como la materia prima principal para los compuestos producidos por E. coli. En la Figura 3, se muestran las reacciones de transporte y del metabolismo central relacionadas con el consumo de glucosa por E. coli. Los dos precursores de los compuestos aromáticos, el PEP y la E4P provienen de la vía glicolítica y la vía de las pentosas fosfato, respectivamente. El PEP es una molécula que participa en varias reacciones del metabolismo celular, las cuales compiten por este precursor con la vía de síntesis de compuestos aromáticos, limitando así el rendimiento en la síntesis de compuestos aromáticos a partir de glucosa.

Figura 3.

En la Figura 3 se muestran las principales reacciones que compiten por el PEP: el sistema de fosfotransferasa (PTS), las isoenzimas de piruvato cinasa (PykA y PykF), la enzima fosfoenolpiruvato carboxilasa (Ppc) y las isoenzimas de DAHP sintasa (AroF, AroG y AroH). De estas reacciones, el principal consumidor de PEP es el PTS, consumiendo una molécula de PEP por cada molécula de glucosa que es internalizada (50% del PEP total), generando una molécula de glucosa 6-fosfato (G6P) y una de piruvato (PIR). Por lo tanto, se esperaría que la inactivación de PTS tenga un efecto positivo en el rendimiento en la síntesis de los compuestos aromáticos a partir de glucosa. Sin embargo, una desventaja de esta estrategia es que la inactivación de PTS en E. coli ocasiona que la cepa mutante no pueda transportar eficientemente la glucosa (Postma et al., 1996). Por lo tanto, una cepa PTS- crece muy lentamente en un medio de cultivo con glucosa como única fuente de carbono. A este fenotipo se le llama PTS- gluc- y debido

123


Síntesis biológica de compuestos aromáticos: Cómo modificar las bacterias para que se transformen en fábricas químicas

a su muy baja capacidad de transportar glucosa, no sería útil en un proceso de producción industrial. Por esta razón, diversos grupos de investigación han explorado el uso de modificaciones genéticas adicionales para que una cepa PTS- gluc- recupere la capacidad de transportar glucosa. A partir de una cepa PTS- gluc-, se ha reportado la obtención de una mutante que espontáneamente adquirió la capacidad de transportar eficientemente la glucosa (fenotipo PTS- gluc+). Esta cepa fue seleccionada a partir de un cultivo continuo con base en su capacidad para crecer rápidamente utilizando glucosa como única fuente de carbono (Flores et al., 1996). La caracterización de esta cepa PTS- gluc+ reveló que el transporte y la fosforilación de glucosa ocurre ahora debido a las actividades de la galactosa permeasa (GalP) y la glucocinasa, respectivamente (Figura 4) (Flores et al., 2002). En esta nueva cepa la fosforilación de la glucosa depende de ATP y no de PEP como ocurre en una cepa PTS+. Por lo tanto, es de esperarse que la mayor disponibilidad metabólica de PEP (2 moles de PEP por mol de glucosa) en la cepa PTS- gluc+ pueda ser canalizada hacia una mayor producción de compuestos aromáticos.

et al., 2001). Un estudio similar permitió establecer que una cepa PTS- gluc+ que expresa genes codificantes para versiones IIA de las enzimas DAHP sintasa y CM-PDT sintetiza el aminoácido L-Fen con un YL-Fen/Glc equivalente al 60% del teórico máximo (Báez-Viveros et al., 2004). Estos estudios indican que la inactivación de PTS es una estrategia viable de Ingeniería Metabólica para incrementar significativamente el rendimiento en la síntesis de compuestos aromáticos a partir de glucosa. Los ejemplos presentados aquí han permitido comparar los efectos de diferentes estrategias encaminadas al mejoramiento de E. coli con fines de producción de compuestos aromáticos. Sin embargo, las estrategias enfocadas a la modificación del metabolismo central aún no han sido evaluadas a nivel de producción industrial, por lo tanto, aún no es posible concluir cuál de ellas sería la más adecuada dentro de un contexto de competencia comercial. En este sentido, será fundamental la contribución de la Ingeniería Bioquímica al permitir evaluar el rendimiento de las cepas modificadas bajo condiciones controladas que simulen un proceso industrial.

Síntesis en E. coli de compuestos aromáticos con aplicación industrial mediante la introducción de genes heterólogos

124

Figura 4.

Un estudio enfocado a determinar el efecto de la inactivación de PTS sobre el rendimiento en la síntesis del intermediario DAHP, a partir de glucosa, reveló que este compuesto se puede sintetizar con un rendimiento de 0.71 molDAHP/molGlc, lo cual equivale al 83% del rendimiento teórico máximo. Una cepa con el sistema PTS activo (PTS+) sintetiza DAHP con un rendimiento equivalente al 50% del teórico máximo (Báez

Las técnicas de Ingeniería Genética permiten el aislamiento de genes de cualquier organismo y su modificación para que sean funcionales en otra especie. Siguiendo este esquema, ha sido posible generar cepas de E. coli con la capacidad de sintetizar proteínas humanas de uso terapéutico (Olmos et al., 1994). De la misma manera, se ha logrado la transferencia a E. coli de genes que codifican para enzimas y con esto modificar su metabolismo. Es así como se abre la posibilidad de dotar a esta bacteria con la capacidad de sintetizar metabolitos que se encontrarían normalmente fuera de su repertorio natural. En el caso de los compuestos aromáticos, existen ya varios ejemplos de cómo se pueden extender las vías biosintéticas naturales para que este microorganismo pueda sintetizar nuevos compuestos (Figura 5).


Guillermo Gosset Lagarda

Fosfoenolpiruvato

Eritrosa-4-P

3-Deoxi-D-arabino-heptulosonato-7-P

3-Dehidroquinato

MnO2

qad Klebsiella pneumoniae

Hidroquinona

Ácido Quínico

Benzoquinona MnO2, H+

catA H2 aroZ aroY Catecol +2 Ácido Adípico Cu Ácido Gálico 3-Dehidrosiquinato Pirogalol Acinetobacter química Klebsiella Fehling calcoaceticus pneumoniae Síntesis

Benzocaína

Síntesis Ácido p-Aminobenzoico química Ácido Fólico

Indigo

Corismato

Antranilato Genes nah Indol Pseudomonas putida

Síntesis Aspartamo L-Fenilalanina química

L-Tirosina melA Rhizobium etli Melanina

L-Triptófano

Figura 5.

Siguiendo esta estrategia, se han construido cepas de E. coli con la capacidad de producir directamente a partir de glucosa: ácido quínico, catecol, melanina e índigo. Algunas cepas modificadas pueden producir precursores, los cuales mediante transformaciones químicas dan lugar a los compuestos:hidroquinona, benzoquinona, ácido adípico, aspartamo, benzocaína, ácido gálico y pirogalol (Berry, 1996). Varios de estos productos son sintetizados actualmente usando al petróleo como materia prima. Al contar ahora con cepas bacterianas capaces de producirlos a partir de glucosa, se abre la posibilidad de desarrollar tecnologías biológicas sustentables y no contaminantes.

Agradecimientos Se reconoce la ayuda del Programa de Apoyo a Proyectos de Investigación e Innovación Tecnológica (PAPIIME), UNAM, proyectos: IN220403 e IN205005.

125


Síntesis biológica de compuestos aromáticos: Cómo modificar las bacterias para que se transformen en fábricas químicas

Bibliografía

126

lper, J. (1999). “Engineering metabolism for commercial gains”. Science. 283: 1625-1626. Báez, J.L., Bolívar, F. y Gosset, G. (2001). “Determination of 3-Deoxy-D-Arabino-Heptulosonate 7-Phosphate Productivity and Yield from Glucose in Escherichia coli Devoid of the Glucose Phosphotransferase Transport System.” Biotechnol and Bioeng. 73, 530-35. Báez-Viveros, J.L., Osuna, J., Hernández-Chávez, G., Soberón, X., Bolívar, F. y Gosset, G. (2004). “Metabolic engineering and protein directed evolution increase the yield of L-phenylalanine synthesized from glucose in Escherichia coli.” Biotechnol and Bioeng. 87:516-524. Bailey, J.E. (1991). “Toward a science of metabolic engineering”. Science. 252: 1668-75. Bakker, B.M., Westerhoff, H.V. y Michels, P.A. (1995). “Regulation and control of compartmentalized glycolysis in bloodstream form Trypanosoma brucei.” J. Bioenerg. Biomembr. 27:513-25. Balbás, P. y Bolívar, F. (1990). “Design and construction of expression plasmid vectors in Escherichia coli.” Methods Enzymol. 185:14-37. Bentley, R. (1990). “The shikimate pathway: a metabolic tree with many branches.” Crit. Rev. Biochem. Mol. Biol. 5:307-384. Berry, A. (1996). “Review. Improving production of aromatic compounds in Escherichia coli by metabolic engineering.” T. Biotech. 14: 250-256. Bolívar, F. Rodríguez, R.L., Greene, P.J., Betlach, M.C., Hyenecker, H.L., Boyer, H.W., Crosa, J.H. y Falkow, S. (1977). “Construction and characterization of new cloning vehicles. II. A multipurpose cloning system.” Gene. 2:95-113. Bongaerts, J., Krämer, M., Müller, U., Raeven, L., y Wubbolts, M. (2001). “Metabolic engineering for microbial production of aromatic amino acids and derived compounds.” Metab. Eng. 3: 289-300. Camakaris, H. y Pittard, J. (1973). “Regulation of tyrosine and phenylalanine biosynthesis in Escherichia coli K-12: properties of the tyrR gene product.” J. Bacteriol. 115:1135-44. Cohen, G. y Jacob, F. (1959). “Inhibition of the synthesis of the enzymes participating in the formation of tryptophan in Escherichia coli.” C. R. Hebd Seances. Acad. Sci. 248:3490-2. Dell, K.A. y Frost, J.W. (1993). “Identification and removal of impediments to biocatalytic synthesis of aromatics from D-glucose: rate-limiting enzymes in the common pathway of aromatic amino acid biosynthesis.” J. Am. Chem. Soc. 115: 11581-11589. Flores, N., Xiao, J., Berry, A., Bolívar, F. y Valle, F. (1996). “Pathway engineering for the production of aromatic compounds in Escherichia coli.” Nat. Biotechnol. 14, 620-23.


Guillermo Gosset Lagarda

Flores, S., Gosset, G., Flores, N., de Graaf, A.A. y Bolívar, F. (2002). “Analysis of carbonmetabolism in Escherichia coli strains with an inactive phosphotransferase system by 13C labeling and NMR spectroscopy.” Metab. Eng. 4, 124-37. Ito, H., Sato, K., Enei, H., y Hirose, Y. (1990). “Improvement of microbialproduction of l-tyrosine by gene dosage effect of aroL gene encoding shikimate kinase.” Agric. Biol. Chem. 54, 823-824. Jestin, J.L. y Kaminski, P.A. (2004). “Directed enzyme evolution and selections for catalysis based on product formation.” J. Biotechnol. 113:85-103. LaDuca, R. J., Berry, A., Chotani, G., Dodge, T., Gosset, G., Valle, F., Liao, J. C., Xiao, J.Y. y Power, S. (1999). “Metabolic pathway engineering of aromatic compounds.” Manual of Industrial Microbiology and Biotechnology, 2nd. Edition. Editores: Davies J.E. y Demain A.L. American Society for Microbiology, Washington, D.C., pp. 605-615. Olmos, J., Cruz, N., Sánchez, M., López, M., Balbás, P., Gosset, G., Valle, F. y Bolívar, F. (1994). Production in Escherichia coli of a rat chimeric proinsulin polypeptide carrying human A and B chains and its preparative chromatography. J. Biotechnol. 38:89-96. Patnaik, R., Spitzer, R.G. y Liao J. C. (1995). Pathway engineering for production of aromatics in Escherichia coli: Confirmation of stoichiometric analysis by independent modulation of AroG, TktA, and Pps activities.” Biotechnol. Bioeng. 46: 361-370. Pittard, A.J. (1996). “Biosynthesis of the aromatic amino acids”, in Neidhardt FC. 2nd. Ed. In Escherichia coli and Salmonella: cellular and molecular biology,. pp. 1:458-484, ASM Press. Postma, P.W., Lengeler, J.W. y Jacobson, G.R. (1996). “Phosphoenolpyruvate: carbohydrate phosphotransferase systems”, in Neidhardt FC. 2nd. Ed. In Escherichia coli and Salmonella: cellular and molecular biology, pp. 1:1149-1174, ASM Press. Price, N.D., Reed, J.L. y Palsson, B.O. (2004). “Genome-scale models of microbial cells: evaluating the consequences of constraints.” Nat. Rev. Microbiol. 2:886-97. Stephanopoulos, G. (1999). “Metabolic Fluxes and Metabolic Engineering.” Metabolic Engineering 1, 1-11. Swartz, J.R. (2001). “Advances in Escherichia coli production of therapeutic proteins.” Curr Opin Bio-technol. 2:195-201. Wiemer, J.C. y Prokudin, A. (2004). “Bioinformatics in proteomics: application, terminology, and pitfalls.” Pathol. Res. Pract. 200:173-178. Zurawlki, G., Brown, K.D., Killingly, K. y Yanofsky, C. (1978). “Nucleotide sequence of the leader region of the phenylalanine operon of Escherichia coli.” Proc. Natl. Acad. Sci. USA 75: 4271-4275.

127



Photon findings VĂ­ctor Manuel Urbina Bolland Director general Fitochem, S. A. de C. V.

In this letter, a new photon model is proposed, which fits much better than the actual based on both theoretical and experimental tests. Two experiments were made using microwave equipment at a frequency of 10.5 gigahertz with a Gunn diode oscillator, producing a low potency and very coherent radar beam. In the first experiment with linear polarization focused by a parabolic reflector, the signal was received by a horn antenna and a diode coupled to a field strength meter. In the middle of the beams projection a metallic plate was inserted so that the edge intercepted half the beam, and was moved horizontally by a mechanism, takings measures of the field strength every millimeter. The obtained graph showed clearly that the free spaces suggested the movement of a double cycloid. In the second experiment, the arrangement was the same as the first one, but in this case the parabolic reflector and the horn antenna were replaced by two helical antennas. The graph showed a different plot, which suggested the helical trajectories found in circular polarization. These two experiments give evidence that the photon is made of two particles. 42.25.Bs,42.25.Ja,41.20jb

129


Photon findings

Introduction The actual photon model raises many questions such as: What is the physical difference between lineal and circular polarization if the photon is only one particle? How can a simple particle moves in sinusoidal path? How can a photon, its electrical charge being zero, produces power with a 90 degrees magnetic field? How can the duality of the particlewave be explained? “Quantum Electro Dynamics ´resolved´ this wave-particle duality by saying that light is made of particles (as Newton originally thought), but the price of this great advancement of science is a retreat by physics of being able to calculate only the probability that a photon will hit a detector without offering a good model of how it really happens”1.

130

With the purpose of finding the truth of the trajectories of photon and the relative movements of them, two experiments were made with linear and circular polarizations, using a very coherent and low potency microwave transmitter with a frequency in the range of radar. A microwave beam of 10.5 Ghz has been used, as its wavelength is around 2.8 cm and if a visible light beam were used for these experiments, it would be within 0.4 to 0.8 microns and high pressure mechanical instruments would have be used. The measure of these trajectories at these wavelengths would be less accurate. Microwave and visible light have similar behaviors, both follow the laws of refraction, diffraction, particle wave duality, spin, both have electrical and magnetic fields and reflections. The only difference between them is that they have different frequencies or wavelength (in this presented model they have different distance between particles).

Photon experiments

A. Linear polarization experiments For this experiment a Gunn diode oscillator2 was used coupled to a resonant cavity with which frequency was adjusted to 10.5 Ghz, 2.846 cm wavelength without modulation, focused by a parabolic antenna. A horizontal movement system with a metallic plate was installed with the edge at the center of the microwave beam, measuring every millimeter, as seen in Figure 1a obtaining the results shown in Table I.

Figure 1a. Experiment diagram. Displacement Field strength in mm µW

Displacement in mm

Field strength µW

8

46

21

46

9

46

22

47

10

43

23

46

11

38

24

43

12

32

25

39

13

19

26

35

14

9

27

28

15

8

28

16

16

16

29

7

17

26

30

8

18

35

31

18

19

39

32

30

20

42

33

36

34

41

Table I. Linear polarization experiment data.


VĂ­ctor Manuel Urbina Bolland

These results were plotted where the horizontal axis coincides with the movement of the plate in centimeters and vertically in the field strength in microwatts (Figure 2a)

Figura 1b. Second experiment diagram

Figure 2a. Linear polarization experiment plotted.

In this graph it is clearly observed that the trajectories are not sinusoidals but coincide exactly with the empty spaces of the plate following double cycloidal paths (Figura 2b), when generated by a spinning wheel, when the tangential speed is the same as its translational speed. It is interesting to observe that the peaks of minimum power coincide exactly with half of the wavelength, which is 1.423 cm. It is demonstrated that the path of the electromagnetic radiations is not sinusoidals. Instead, the trajectories are cycloidal in linear polarization. The simple harmonic movement in circular trajectories gene-rates in its projection, a sinusoidal path. The interpretation of the curves obtained in the field strength meter coincide with the hollow spaces left by double cycloids colliding with the metallic plate.

Displace-

Field

Displace-

Field

ment

strength

ment

strength

in mm

in ÂľW

in mm

in ÂľW

8 9

0 1

21 22

1 2

10

2.5

23

2.5

11

4.5

24

4

12

8

25

5.5

13

10

26

7

14

12.5

27

11

15

13

28

12.5

16

11.5

29

13

17

10

30

11.5

18

7

31

9

19

4

32

7.5

20

2

33 34

5 3

Table II: Circular polarization experiment data.

Plotting in X axis distance in millimeters and the filed strength in Y axis (microwatts). Figure 2b. Linear polarization experiment graph with two cycloids overlapped.

B. Circular polarization experiment In this experiment the same equipment was used but instead of the parabolic antenna, two helical antennas were used. The edge of the metallic plate at the center of the beam was moved horizontally every millimeter, measuring the field strength. As shown in Figura 1b obtaining the data displayed in Table II.

Figure 3a was obtained. The two dimensional projection of two spiral trajectories are double senoidal curves, Figure 3b is graphed using the Figure 3a data. In this once case again, the curve obtained by the field strength meter coincides with the lower empty spaces of a double sinusoidal trajectory.

131


Photon findings

1 hf m= 2 2 2C

Substituting constants by its value: m= Figura 3a. Circular polarization.

(6.26 x 10–34)f (2.998 x 108)2

Then m = 7.37 x 10–51f or related to its wavelength m=

Figura 3b. Helical trajectories.

Photon Model

132

A careful observation of the linear polarization trajectories, shows that each minimum is located at half a wavelength, so a cycloid suggests, by itself, the movement of two particles whose tangential velocity is the same as the translational velocity, the distance between particles is l/p in circular polarization, the plane of particle gyration is perpendicular to the beam trajectory, forming double spiral curves, whose projection on a plane are double sinusoidal curves. Nevertheless the total electrical charge of a photon is zero, electric and magnetic fields with sinusoidal intensity variation have been detected, the magnetic field being perpendicular to the electric field. In both fields, the maximal and minimal variations coincide with the cycloid curves vortices, and hence, it is deduced that the particles that form the photon have opposite electrical charge, forming a dynamic equilibrium system. The electrical attraction force is balanced by the centrifugal force being produced by the gyration of both particles.3, 4 It, by itself, explains the particle-wave duality of the photon, since the two particle mass is proportional to its frequency, and the mass of each particle is half the photon mass, as per the following equation:

2.2101 x 10–42 l

Each particle mass has been considered as half the photon mass due to the symmetry of the field intensity curves. Frequency, or ondulatory quality, is established by the distance between particles. No additional media considerations are required to explain ondulatory phenomena. The hypothesis of the photon two-particle existence is strengthened because photon has a spin equal to one, and most subatomic particles have a spin of 1/2 . This single fact suggests that the photon is constituted by two particles whose spins are added. On the other hand, it is well known that light is its own antiparticle, because once it is emitted, it is not possible to distinguish if it comes from matter or antimatter, the only difference being the sign of each particle electric charge. In addition, Stephen Hawkins establishes that “for a subatomic particle, when after a gyration, the particle is in its original position, the number of turns should be: turns =

1 spin

In this case, photons have a spin equal to 1. With only one turn, the particles remain in the same position as in the original.


Víctor Manuel Urbina Bolland

Circular gyration belongs to the simple harmonic motion to which pendulums and springs also belong. However, circular gyration is more frequently found in nature. It is the one that stars and atoms have. Simple harmonic motion is described by means of sinusoidal mathematical equations. But this does not mean that photon moves following a sinusoidal path, since it is against inertia law. Once the parameters of the distance between particles (d = l/p) and its individual mass (½ m) have been established, the charge of the particles can be calculated by equaling the electrical attraction with the centrifugal force at follows (please refer to Figure 4) 5,6

Solution for q: q2 = 2

mc2r k

(4)

From Planck and Einstein´s equations:

h u C2

m=

(5)

Substituting (5) for (4):

q2 =

2 hur k

(6)

On the other hand, frequency is related to wavelength by: u=

c l

For this case, l = 2pr, therefore, ur = Figure 4. Photon model.

Substituting the value of ur in eq. (6): hC q2 = pk

Mechanical parameters: Fa=Fc

mc2 Fc = 2r

(1)

Solution for q: hC q = pk

Substituting (2) and (3) for (1) mC2 q2 = k 2 2r 4r

(7)

Substituting values in (7):

q=

k q 2 4r2

133

(2)

Electrical parameters:

Fa =

c 2p

(6.26 x 10–34) (2.998 x 108) 3.14159 (8.987 x 109) q = 2.653 x 10–8 Colombs

(3)

This charge is 16.558 7, 8 times the electron charge. It is also possible to find the photon total energy by adding translational kinetic energy and rotational kinetic energy as follows:


Photon findings

Etotal = Etranslational–kinetic + Erotacional–kinetic

Linear polarization

E = Ek + Ek (8) Et =

1 1 mc2 x x 2mc2 = 2 2 2

EKt =

1 1 Iw2 x x 2Iw2 = 2 2 2

Circular polarization

But at the moment of inertia, I, for a punctual body [9] is I = m2 Replacing the former Er equation, 2 2 Ekt = mr w 2

Elliptical polarization

2 But r2 w2 = c2 hence Ek = mc 2

Substituting Et and Er values in eq. (8): The well-known equation is reached [10] E = mc2 This equation could not be obtained if photon2 were conmc mc2 sidered a simple particle. Ekr = + 2 2 134

The trajectories are variable, depending on polarization; if polarization is linear, the gyration plane coincides with the translational displacement, forming double cycloidal trajectories. When the translational movement is perpendicular to the rotation plane, the trajectories are double spirals, called circular polarization. Any intermediate position will produce an elliptical polarization (Figure 5).

Figure 5. Different trajectories.


Víctor Manuel Urbina Bolland

Conclusions

• Diffraction happens when a light beam goes close to

slits or an edge of opaque matter, due to the action of electrical charges of photon and the external electrons of matter resulting in a bending of the beams, creating the known bands of interference.

The photon model presented here explains itself with the following facts:

• It resolves the duality of particle-wave, as it is made of

two particles with a variable mass directly proportional to its frequency. The wave properties are given by the gyration of the particles, one around the other in perfect dynamic equilibrium in which it is possible to establish a frequency that depends only in the distance between particles.

Glossary m

Photon mass

c

light velocity in vacuum (2.998 x 108 m/s)

r

particle radius of gyration

k

Coulomb constant (8.897 x 109 Nm2/c2)

f

frequency, Hz

has to give a number of turns equal to one divided by its spin. In the case of a photon, since its spin is one, with only one revolution it will be the same as the beginning.”

l

wavelength, m

h

Planck constant (6.626 x 10–34 joules/sec)

• The two particles photon model explains very well the

p

3.14159

q

particle charge (2.653 x 10–18 Coulombs)

E

energy in Joules

d

distance between particles (2r)

Ekt

translational kinetic energy, Joules

Ekr

rotational kinetic energy, Joules

I

inertia moment Kg . m2

w

angular velocity, rad / sec

• Explains very well why a photon has a spin equal to one, most subatomic particles have spins ± ½. This one fact suggests that photons are made of two particles and its spin is the summation of two spins of ½.

• As Stephen Hawking said: “A rotating subatomic particle

polarization of electromagnetic radiations in all their forms. If the plane of revolution coincides with its translation, a linear polarization is obtained, producing double cycloidal paths. If the plane of rotation is perpendicular to the translation, a circular polarization is obtained. Double spiral paths are also obtained and its projections in a plane are double sinusoidal curves. Any intermediate state will produce an elliptical polarization.

• All

other electromagnetic behavior is understandable because the electrical attractions and repulsions of the photon with the charge of external electrons of matter explain the refraction, diffraction, photoelectric effect and the induction of electrical p otential in the antennas.

• Refraction is explained when one particle arrives first to

the electric field of the transparent matter and it is slowed down proportionately to the refractive index in a very short period of time, the other particle remains with the same velocity, resulting in a bending of the beam.

135


Photon findings

References

Feynman Richard, R. (1988). The strange theory of light and matter, Princeton University Press, 7th ed. p. 37. 2 Tischler, M. (1988). Microwave Antennas, Science Instruments Company SIC3634. 3 Natarajan, T.S. (1996). Phys. Essays, 9,No.2, pp. 301-310. 4 Natarajan, T.S. Do Quantum Particles Have a Structure?, Department of Physics, Indian Institute of Technology. 5 Courtial, J. Robertson, D.A., Dholakia, K., Allen, L. and Padgett, M.J. (1998). Phys. Rev. Lett. 81,22. 6 Bialynicki-Birula, I., Bialynicki-Birula, Z. (1997). Phys. Rev. Lett. 78,13. 7 Binder, B. With Iterative and Bosonized Coupling towards Fundamental Particle Properties, 88682 Salem, Germany http://www.quanics.com (dated 31-12-2002). 8 Gautier, R. Superluminal Helical Models for the Electron and Photon, Falls Church, VA USA, http://www.home.zonnet.nl/microvita/articles/superluminal.pdf 9 McKelvey and Grotch, H. (1980). Physics for science and engineering, Harla,1ed. 10 Einstein, A. (1961). Relativity, Special and General Theory (Translated by R.M. Lawson), Crown New York. 1

136


Tácticas y estrategias en electroquímica orgánica Alejandro Baeza Departamento de Química Analítica Facultad de Química, UNAM

La electroquímica orgánica Es conocido que la Química de los compuestos de carbono se estudia dentro del área conocida como Química Orgánica, toda vez que estos compuestos constituyen prácticamente toda la materia orgánica viva. La Química Orgánica, como cualquier otra área de la Química, se estudia bajo tres especialidades y sub-especialidades metodológicas de la Ciencia Química:

FISICOQUÍMICA (ESTRUCTURA) (EQUILIBRIO) (CINÉTICA)

QUÍMICA ANALÍTICA

Electroquímica Analítica

QUÍMICA SINTÉTICA Electroquímica Sintética

Electroquímica Teórica

Química Farmacéutica

Química Inorgánica

137

simulación

electrosíntesis

electroanálisis

QUÍMICA TEÓRICA

Química Orgánica

Química Biológica

Química Alimentos

La jerarquización anterior es dinámica. Las áreas interactúan vertical y horizontalmente así como a distancia. En este artículo se presentan las tácticas y estrategias que proporciona la Electroquímica Analítica al estudio de los procesos de reacción en Química Orgánica, que tienen potencial impacto en la determinación de estructuras, reactividad y métodos de síntesis química y electroquímica.


Tácticas y estrategias en electroquímica orgánica

Impacto de la electroanalítica en la electrosintética

Una reacción de síntesis vía química o electroquímica puede ser medida, monitoreada o caracterizada por la Química Analítica en varios niveles: Control de pureza de reactivos

Esquema General de Electro-reducción Caracterización de Productos de síntesis

Reacción electrosintética

Diseño del medio de reacción: disolvente, electrolito, pH, pL, pe, control del mecanismo: mejorar rendimientos mejorar selectividad

138

Monitoreo de la síntesis

De los aspectos anteriores, el menos investigado es el que se refiere al medio de reacción bajo la óptica de la termodinámica de las disoluciones orgánicas (no acuosas), por medio de estrategias analíticas de estudio.

Esquema General de Electro-oxidación

Es posible determinar a priori las condiciones químicas para favorecer alguna de las reacciones arriba mencionadas dependiendo del producto que se necesita obtener, es decir, es posible dirigir el mecanismo de la electrotransformación: tipo de electrófilo El

Naturaleza de RX pH

tipo de electrodo M°

Reactividad electroquímica de las moléculas orgánicas

naturaleza de Ox

PRODUCTO tipo de nuclófilo Nu

Naturaleza de Red

Cuando una molécula orgánica toma electrones de un electrodo (se reduce) o bien pierde electrones al electrodo (se oxida) el producto de la electrotransformación puede llevar a cabo reacciones químicas acopladas diversas:

+

Disolvente

potencial impuesto

Se ha realizado un gran trabajo sobre la influencia del tipo de electrodo, de la naturaleza de RX con grupos funcionales sustituyentes, de la polaridad del disolvente. Sin embargo, muy poco se ha estudiado la influencia del control del nivel de acidez imponiendo el pH con amortiguadores convenientes. Lo anterior se debe a que el conocimiento de las reacciones ácido base en disolventes orgánicos es un campo especializado poco estudiado.


Alejandro Baeza

La importancia del control de la acidez del medio orgánico radica en el hecho de que las especies electrogeneradas, RX - o RX.+, son bases o ácidos muy reactivos (radicales aniones o radicales cationes), por lo que el control del pH del medio conlleva un control de la reactividad de éstos.

PROGRAMAS DE PERTURBACIÓN

Imposición de potencial E =f (t)

Tácticas y estrategias electroanalíticas

Potenciostático (pulsos de potencial)

Los eventos posteriores a la electrorreducción ocurren a diferentes etapas y velocidades, por ello, es necesario emplear técnicas electroanalíticas (tácticas) a diferentes velocidades de sondeo y combinadas entre sí (estrategias). Los métodos electroanalíticos son parte de los procedimientos fisicoquímicos de análisis y, por tanto, se basan en los mismos principios de estimulación del sistema químico, el cual responde en función de sus características estructurales, reactivas y de concentración: ESTÍMULO → SISTEMA → RESPUESTA ANALÍTICA El estímulo puede ser la imposición de un potencial eléctrico o de una corriente eléctrica. Los sistemas están constituidos por cualquier interfase polarizada o electrodo. La más conocida es la constituida por un conductor sumergido en una solución iónica, pero existen electrodos constituidos por dos disoluciones iónicas no miscibles, las membranas celulares o las microestructuras metálicas que sufren corrosión. La respuesta analítica depende del tipo, magnitud y duración del estímulo eléctrico empleado, el cual puede imponerse en pulsos o de manera continua (barridos) en un solo sentido o de manera cíclica. El tiempo es una variable muy útil, toda vez que es posible técnicamente aplicar el estímulo eléctrico desde milisegundos hasta horas, en función del evento que quiere detectarse en el electrodo. Las siguientes figuras muestran los tipos de técnicas electroanalíticas posibles en el estudio de los mecanismos de reacción electroquímicos:

Potenciodinámico*

Imposición de corriente I = f (t)

Galvanostático (pulsos de corriente)

Galvanodinámico (barridos de potencial)

(barridos de potencial)

*Los métodos potenciodinámicos son los más utilizados para estudios mecanísticos.

Tipos de programas de perturbación en electroquímica analítica.

Programa de perturbación

Patrón de respuesta

pulsos de potencial

Cronoamperometría (l)E = f (t)

pulsos de corriente

Cronopotenciometría (E) I = f (t)

barrido de potencial

Voltamperometría i = (E)v

barrido de corriente

Voltamperometría E = (I) v

Patrones de respuesta asociados para los diferentes programas de perturbación electroanalítica.

139


Tácticas y estrategias en electroquímica orgánica

Como ya se comentó, cada técnica (programa-patrón) puede detectar diferentes tipos de fenómenos al electrodo. En principio, la técnica más usada en la voltamperometría cíclica, toda vez que en un primer registro muestra las reacciones electroquímicas de oxidación y de reducción que ocurren. Posteriormente, pueden emplearse otras técnicas para detectar algún proceso particular al electrodo, o bien, determinar alguna constante de velocidad asociada. Final mente, es conveniente emplear alguna técnica adecuada para determinar parámetros asociados a la masa (cantidad electrolizado, número de electrones intercambiados, ne-). Una estrategia general adecuada sería la siguiente: Selección del medio de reacción (disolvente, electrolito, pH, Co) ↓ Voltamperometría cíclica (primer sondeo) ↓ voltamperometría cíclica a diferentes velocidades de barrido ↓ cronométodos ↓ * polarografía voltamperometría con electrodos giratorios ↓ coulombimetría ‐ (determinación de ne ) (rendimientos)

140

*La polarografía es una voltamperometría especial realizada con un electrodo goteante de mercurio.

En la mayoría de los casos un estudio voltamperométrico riguroso permite caracterizar el proceso. En otros casos, es posible pasar de una técnica a otra directamente, como lo indican las flechas en el esquema anterior. Es muy importante no sólo obtener los registros gráficos de los patrones de respuesta. Es necesario el procesamiento de datos de manera adecuada para caracterizar el mecanismo y/o determinar parámetros cuantitativos, Keq o k de velocidad. Existen en la literatura muchos modelos matemáticos asociados a diferentes situaciones mecanísticas. Los resultados experimentales se procesan como lo propone el modelo teórico y se comparan para diferentes mecanismos, hasta qué datos experimentales y teóricos se ajustan en gran medida.

pH= 20

o

pH= 18

o

E tOH 70 % Acetate pH= 5 30 %

pH= 20

pH= 18 NO2

E tOH / Acetate pH=5 30 % 70 %

Algunos ejemplos reales En las siguientes figuras se muestran los voltamperogramas cíclicos a un barrido de potencial de 50 mV/S de dos compuestos modelo: la benzoquinona y el nitrobenceno. En ella se muestran cómo el nivel de acidez, el pH y el disolvente cambian el mecanismo de electrorreducción y en consecuencia, también los productos detectados. En medios alcalinos y en ausencia de protones se observan señales correspondientes a especies estables (picos arriba y abajo). Por el contrario, en medios ácidos con protones disponibles se observan señales mas grandes correspondientes a procesos globales (mayor número de electrones intercambiados). Con el estudio de los registros anteriores a diferentes velocidades de barrido, así como de las variaciones de la intensidad de corriente en función de las velocidades de barrido, en función de la concentración, el cociente de corriente de pico de reducción entre el de oxidación -es decir, lo que constituyen las funciones voltamperométricas-, es posible proponer un mecanismo de electrorreducción. A modo de ejemplo se presentan las reacciones asociadas,


Alejandro Baeza

la reducción electroquímica de la quinona en medios muy alcalinos, en el acetonitrilo (pH=20) y a un pH menor en presencia de un amortiguador ácido base (pH = 17.2).

-1.0

o-

o-

I( A)

(b)

pH=15.5 (c)

o-

o-

pH=17.2

I

o-

o-

HO O

E/V

o-

o-

E

o-

o-

o-

o-

o-

o-

o-

o-

E

(b) pH=17.2

VOLTAMPEROGRAMA TIPICO DE BENZOQUINONA EN ACETONITRILO A pH= 20.1 SOBRE HMDE

oHOoHO.507 mv

HO

HO

1

(a)

o

o

VOLTAMPEROGRAMA TIPICO DE BENZOQUINONA EN ACETONITRILO A pH= 17.2 SOBRE HMDE

Como se puede observar en los medios apróticos (disolventes orgánicos), los productos de la electrorreducción son radicales aniones muy reactivos, toda vez que son bases fuertes. La siguiente figura muestra los voltamperogramas cíclicos de una quinona, horminona, extraída de una planta mexicana y con posibles propiedades farmacológicas (los radicales aniones son determinantes en la actividad farmacológica de un compuesto), empleando acetonitrilo como disolvente aprótico:

(e) pH=15.5

Como puede observarse, al cambiar el pH cambia el voltamperograma, lo que significa que el mecanismo cambia, por tanto, los productos de la reacción electroquímica. En este ejemplo se emplearon las siguientes tácticas y estrategias para determinar el mecanismo de reacción: 1ro: voltamperometría cíclica para indentificar el mecanismo y determinar el E°. ↓ 2do: cronoamperometría de doble pulso invertido para determinar o corroborar la protonación del radical anión y la constante de velocidad de protonación. De acuerdo con la estrategia anterior se determinan los mecanismos de reacción:

141


Tácticas y estrategias en electroquímica orgánica

A pH = 20: OH

OH

O

O O

O

OH

OH

1e-

OH O O OH

A pH =15.5: OH O

142

O OH

E -e = -0.5991/Fc+

O OH COOH

1e-

COOk= 16.22-1

HO

OH

HO O-

OH

a) pH= 20;

b) pH= 17.2;

c) 15.5

La estrategia para determinar los mecanismos posibles en la electrorreducción de nitrocompuestos es más compleja que en el caso de las quinonas (sistemas bielectrónicos), ya que son sistemas hexaelectrónicos:

OH

O

La siguiente figura muestra los voltamperogramas cíclicos de la electrorreducción del orto-nitrofenol en acetonitrilo como disolvente. La posición lateral del –OH con respecto al grupo –NO2 provoca que el radical anión generado reaccione de inmediato con el protón fenólico, complicando el mecanismo. Se elige un amortiguador alcalino para desprotonar previamente al grupo –OH:

OH

O OH

Voltamperometría cíclica para identificar el mecanismo ↓ cronoamperometría de doble pulso para identificar la reacción posterior a la reducción ↓ cronoamperometría con ultramicroelectrodos para determinar ne- a pH=20 ↓ polarografía clásica para determinar la constante de acidez, pKa, de radicales aniones ↓ minicoulombimetría para determinar el ne- en medios más ácidos ↓ espectrofotometría para determinar el pKa del o-nitrofenol


Alejandro Baeza

Después de analizar los patrones de respuesta obtenidos de la estrategia anterior y procesar los datos para obtener las funciones voltamperométricas, cronoamperométricas y coulombimétricas, se determinó el esquema cuadrado mecanístico, (redox y pH): 112

NO 2

NO 2

O-

O-

Los mecanismos de electrooxidación presentan retos aún más interesantes. La oxidación de las aminas aromáticas es muy importante en la producción de polímeros conductores, colorantes y medicamentos. La siguiente figura muestra los voltamperogramas cíclicos de la oxidación de la difenilamina, DFA, en un disolvente aprótico orgánico, el acetonitrilo:

pK=19 NO 2

NO 2 OH

OH

/  A

pK=18 NO 2 H

NO 2 H

OH

Ep2

OH

 pK=16

NO 2 H 2 OH

Ep1

pK=11 NO OH

b)

NOH

NOH

OH

OH

a)

pK=8

NHOH OH

1e-

1e-

1e-

1e-

Es muy importante estudiar los mecanismos de los nitroderivados, ya que muchos medicamentos tienen esta estructura. Tal es el caso del metronidazol, muy usado en México contra los parásitos intestinales. Existe una relación estructura-toxicidad-efectividad farmacológica interesante:

N OH

Estructura

Figura 5.56 Electrooxidaci[on de difenilamina 1mM en 0.1M de TBAP en acetonitrilo, v=50mV/s, Electrooxidación de difenilamina 1mM en 0.1M de TBAP electrodo de trabajo: Pt electrodo de referencia: Ag°/Ag+, electrodo auxiliar: barra de oro.(a) sin en acetonitrilo, v=50mV/s, electrodo trabajo: amortiguamiento de pH, (b) en presencia de benzoato de tetratilamoniode 10 mM, pH 22.9. Pt electrodo de referencia: Agº/Ag+, electrodo auxiliar: barra de oro (a) sin amortiguamiento de pH, (b) en presencia de benzoato de tetratilamonio 10 mM, pH 22.9.

Para determinar el mecanismo respectivo se aplicó una estrategia similar a la usada en el caso de los nitrofenoles:

N O2N



Estabilidad del radial Eletrogenerado acción farmacológica

Voltamperometría cíclica para identificar el mecanismo ↓ cronoamperometría con ultramicroelectrodos para determinar ne- a pH=20 ↓ miniculombimetría para determinar el ne- en medios más ácidos ↓ voltamperometría con electrodo giratorio para evidenciar la influencia del amortiguador

143


Tácticas y estrategias en electroquímica orgánica

Con base en el estudio de las funciones respectivas es posible proponer un diagrama de especies electrogeneradas:

(V)

+N H

6 N + N

N

H

H N H

5

9

pH

Conclusiones De lo anterior expuesto se concluye: la información termodinámica y cinética permite caracterizar reacciones orgánicas redox y ácido-base, que complementan los estudios basados en modelos de enlace. La información obtenida permite generalizar principios útiles en la predicción y control de potenciales reacciones electrosintéticas. 144


Alejandro Baeza

Bibliografía

Bard, A.J. and Faulkner, L.F. (2001). Electrochemical Methods. Fundamentals and Applications, second edition, John Wiley & Sons. Baeza, A., Ortiz, J.L., Macías, N.M., Aguilar, M., González, F.J. and González, I. (1998). “Electrochemistry in buffered organic solvents. Effect of the acidity level on the extension of total pathways of the organic molecules transformation”, in Recent Res. Devel. In Electrochem. 1 pp. 85-100. Uribe Godínez, J. (2002). Electrooxidación de difenilamina a pH controlado en acetonitrilo (Tesis de Licenciatura). Facultad de Química, UNAM.

145



Ingeniería en polimerización: Pasado, presente y futuro Eduardo Vivaldo Lima Facultad de Química, UNAM

Introducción Nos guste o no, los polímeros sintéticos están presentes en cualquier lugar en que fijemos la vista, en cualquier parte del mundo. Aún en los sitios más remotos es posible encontrar evidencias desagradables de la presencia de la especie “más evolucionada” de este planeta (el ser humano): desperdicio polimérico (botellas vacías de agua “purificada”, envolturas de golosinas y pañales desechables, entre otros). Como sucede con cualquier desarrollo tecnológico, lo que obtengamos de los polímeros sintéticos, depende de cómo los usemos. Éstos pueden usarse para producir materiales inservibles con grandes e irracionales desperdicios comunes (commodities) pero, por otro lado, pueden y están siendo empleados para generar materiales que pueden salvar vidas (por sus múltiples aplicaciones en Medicina y Biotecnología), llevarnos a lugares inimaginados (e.j., el espacio), mejorar nuestra calidad de vida, entre otros usos. Los polímeros son grandes macromoléculas constituidas por unidades estructurales más pequeñas, los monómeros, unidos entre sí por enlaces covalentes. El tamaño o número de unidades, el tipo de monómero (s), y la configuración espacial de estas macromoléculas dan pie a todo un mundo de propiedades físicas y químicas y, en consecuencia, a un número inimaginable de aplicaciones. Aunque los procesos industriales de polimerización han existido desde principios del siglo XX, no fue sino hasta la década de 1960 cuando los problemas ingenieriles asociados con su producción en las plantas industriales, empezaron a abordarse bajo esta misma disciplina, y por profesionales con formación ingenieril. No obstante, los ingenieros químicos de entonces no tenían capacitación en aspectos de Química de polímeros, termodinámica de soluciones poliméricas, ni estaban familiarizados con las propiedades especiales de estos compuestos. A diferencia de los materiales convencionales “pequeños”, los polímeros tienen una distribución de pesos moleculares (moléculas con la misma naturaleza química, pero de distintos tamaños), pueden tener una distribución de composición (en el caso de copolímeros), arreglos diversos de las unidades monoméricas en las cadenas en copolímeros, y también pueden tener arquitecturas muy variadas (cadenas lineales, ramificadas, reticuladas o estrellas, entre otras). Toda variación explica las propiedades tan interesantes que tienen, y la dificultad para medirlas experimentalmente y modelar su producción y desempeño como material (propiedades mecánicas, ópticas, eléctricas, etc.).

147


Ingeniería en polimerización: Pasado, presente y futuro

La Ingeniería en reacciones de polimerización (PRE), o más propiamente, Ingeniería en polimerización, es un campo de conocimiento relativamente “joven”, muy amplio, multidisciplinario y en constante desarrollo. Es la combinación de la ciencia en polímeros, Química y tecnología, con principios de Ingeniería en procesos. Los problemas típicos en este campo incluyen cualquiera o los siguientes tópicos: polimerización y post-polimerización (modificación química), cinética de polimerización, modelamiento matemático y simulación de procesos; diseño y escalamiento de reactores de polimerización; desarrollo de sensores en línea y monitoreo de procesos; optimización de reactores, estimación de estados, y control computarizado de procesos de polimerización. En el espectro de la Ingeniería en reacciones de polimerización, la fase fundamental consiste en estudios detallados de la cinética de polimerización, guiados con técnicas rigurosas de diseño y análisis de experimentos. Por otro lado del espectro, la fase aplicada consiste en estudios de simulación computarizada y estudios experimentales sobre diseño de configuraciones de reactores, optimización, monitoreo y control de procesos de polimerización.

Modelamiento de reactores de polimerización

148

Un objetivo primordial de la Ingeniería en reacciones de polimerización es entender el efecto que tienen el mecanismo de reacción, los fenómenos de transporte físico (transferencia de calor y masa, mezclado) el tipo de reactor y las condiciones de operación en la calidad del producto polimérico final. Este último término incluye todas las propiedades estructurales de las moléculas (distribución de pesos moleculares, de composición en copolímeros, de ramificación, de estereorregularidad, etc.), así como las propiedades morfológicas del polímero (p. ej., distribución de tamaños de partícula, porosidad, densidad, etc.). Todos estos fenómenos físicos y químicos que ocurren en un reactor de polimerización se pueden clasificar en tres niveles: (i) microescala, que considera el modelamiento de la cinética química ;(ii) mesoescala, que incluye el modelamiento de fenómenos físicos y de transporte; y (iii) macroescala, que involucra el modelamiento dinámico del reactor.

Estado del arte en el modelamiento cinético (microescala) Las reacciones de polímeros, definidas por su mecanismo, ocurren en la escala micro. Si se conocen las reacciones elementales del mecanismo de polimerización es posible calcular las distribuciones de propiedades moleculares, en términos de constantes cinéticas y concentraciones, usando distintas técnicas matemáticas. Los métodos matemáticos se pueden clasificar en dos categorías: (i) métodos estadísticos, y (ii) métodos cinéticos basados en ecuaciones detalladas de balance. En los métodos estadísticos se representa el crecimiento de las cadenas de polímero, como un proceso de selección de monómeros en la mezcla de reacción, de acuerdo con alguna distribución estadística. El éxito de este método depende de una adecuada y correcta correspondencia entre los procesos de polimerización y estocástico postulado. Se requiere de una buena habilidad intuitiva, un buen entendimiento de los fenómenos que ocurren en el sistema de reacción, y de una sólida formación en conceptos estadísticos para tener éxito con esta metodología. Por lo tanto, es más difícil adaptar esta metodología al caso de distintas configuraciones de reactores, ya que no es fácil encontrar, o quizás no exista, el esquema estocástico correspondiente. Por otro lado, cuando los métodos estadísticos funcionan, se obtienen expresiones matemáticas usualmente simples, que a veces revelan aspectos importantes del sistema de polimerización que un balance de masa no podría brindar. No obstante, la herramienta más poderosa para modelar la cinética de polimerización es el uso de métodos de balance de especies detallados, es decir, el uso de métodos cinéticos. Basados en la ley física de conservación de masa, se puede derivar un conjunto infinito de ecuaciones diferenciales o ecuaciones algebraicas en diferencias, que dependen del tipo de reactor para las diferentes especies moleculares (monómeros, cadenas de polímero crecientes o inactivas, y cadenas durmientes, si el mecanismo es por radicales libres pseudo-viviente) presentes en la mezcla de reacción.


Eduardo Vivaldo Lima

Modelamiento físico en la mesoescala En esta escala son importantes la transferencia de calor y masa interfaciales, la transferencia de calor y masa intrafaciales, el equilibrio interfacial, el micromezclado, la distribución de tamaños de partícula (DTP), y la morfología. Todo ello tiene efectos importantes en las propiedades finales de los productos finales. El artículo de Kiparissides (1996) describe los avances en este nivel de modelamiento.

Modelamiento de reactores en la macroescala En el nivel macro, es importante desarrollar modelos que describan los efectos de macromezclado en el reactor, los balances globales de masa y energía, así como los de poblaciones de partículas en sistemas dispersos, la transferencia de calor y masa desde el reactor, así como la dinámica y control del reactor. Las propiedades moleculares del polímero (p. ej., distribución de pesos moleculares, distribución de composición de copolímero o de densidad de ramificación), producido en reactores de polimerización continuos, dependerán marcadamente tanto del mezclado macroscópico de diferentes elementos de volumen (ej., distribución de tiempos de residencia), como del mezclado al nivel molecular microscópico (ej., el estado de agregación de fluido). En Kiparissides (1996), se reportan avances significativos en el modelamiento de fenómenos en esta escala macroscópica.

Pasado y presente en aplicaciones de PRE Los problemas clásicos de Ingeniería en reacciones de polimerización (PRE) incluían el desarrollo de modelos cinéticos y cálculo de distribuciones de pesos moleculares para reacciones simples (homopolimerizaciones lineales), el modelado de efectos difusionales en estas reacciones, la medición de la cinética de reacción, y la simulación de procesos de polimerización en tanques agitados para mecanismos por radicales libres y policondensación. En una etapa posterior, las aplicaciones incluyeron la extensión de estas actividades al caso de la copolimerización, considerando dos o

más monómeros. Las polimerizaciones en fase dispersa (emulsión, suspensión, dispersión), el procesamiento reactivo, el modelamiento de entrecruzamiento, entre otros, fueron el foco de atención en la década de 1980. En los primeros años de los 90, hubo una revolución tecnológica con el desarrollo de catalizadores solubles para producción de poliolefinas (cambio que no se ha dado en México). En la segunda mitad de los 90, y los primeros años del siglo XXI, ha crecido la importancia del desarrollo de tecnologías de polimerización radicálica “viviente” para producir materiales con estructura controlada, a precios bajos. La tecnología de polimerización en fluidos supercríticos ha crecido en importancia, siendo un área novedosa desde el punto de vista de la Ingeniería en polimerización. Cada vez es más importante el abordar el diseño del producto más que el diseño de procesos, que es ahora mucho mejor entendido, e incursionar en aplicaciones más novedosas, a la par de los químicos poliméricos, pero con la formación y las herramientas del ingeniero químico. Para trascender en el área de polímeros, tanto al nivel investigación, desarrollo tecnológico y comercial, es imperativo el trabajar en equipo, en un entorno multidisciplinario, y con una mente abierta al cambio y a los nuevos desafíos del futuro.

Pioneros y líderes internacionales en el área de PRE • Padres (pioneros) de la disciplina: Archie E. Hamielec (McMaster U.) y W. Har mon Ray (U. WisconsinMadison), América; K.-H. Reichert (TU Berlín, Alemania), en Europa. • Grupos líderes: U. Wisconsin, McMaster, U. Waterloo, Queen’s U., ETH Zurich, BASF, Bayer, DuPont, Lehigh U., LCCP/CNRS Francia, U. Thessaloniki Grecia, y en aumento. • Principales eventos: The International Workshop on PRE (cada tres años en Berlín/Hamburgo, último, 7th, en 2001, organizado por DECHEMA); la Conferencia Polymer Reaction Engineering de la United Engineering Foundation, cada tres años en Florida; 2003, 5th, en Quebec. • Revista: Polymer Reaction Engineering, editada por A. Penlidis (U. Waterloo), Marcel Dekker, Inc. (N.Y.).

149


Ingeniería en polimerización: Pasado, presente y futuro

• Simposios en Conferencias mayores: Pacific Polymer Conference (Oaxaca, 2001), IUPAC (Ottawa, 2003).

Monomer-polymer-initiator mixture

Líderes mexicanos o de origen mexicano

Water-stabilizer mixture

PSD

• Dr. Luis García Rubio (U. Florida del Sur, egresado de McMaster U.). • Dr. Rafael Galván (Jhonson Polymer, WI). • Dr. Marco A. Villalobos (Jhonson Polymer, WI, egresado de McMaster U.). • Dr. Jesús Vela Estrada (empresa canadiense productora de poliolefinas, egresado de Queen´s). • Dr. Enrique Saldívar Guerra (CID-GIRSA y UNAM, egresado de U. Wisconsin).

Droplet volume

Figura 1. Problema de calcular la DTP (PSD) en polimerización en suspensión.

Main Phenomena in Suspension Polymerization

• Dr. Eduardo Vivaldo Lima (FQ-UNAM, egresado de McMaster U.).

Un ejemplo del tipo de problemas a resolver en PRE: PSD en polimerización en suspensión

Polymerization Kinetics

Surface Phenomena

Intensity of Mixing

Dispersion Concentration

Molecular Weight

Interfacial Tension

Rate of energy dissipation

Phase holdup

Viscosity

150

Un ejemplo típico del tipo de problemas que se modelan en la Ingeniería en reacciones de polimerización es el de simular el proceso de polimerización de monómeros vinílicos/divinílicos en suspensión. La Figura 1 ilustra en forma gráfica el problema. Se tiene un reactor de tanque agitado, al que se adiciona una fase continua (normalmente agua, pero podría ser un fluido a condiciones supercríticas), un estabilizador de suspensión (un polvo inorgánico o un polímero con bloques hidrofílicos e hidrofóbicos en la misma molécula), el monómero o monómeros, y el iniciador. Al inicio se tiene una dispersión de una fase líquida en otra, es decir, una emulsión, que se estabiliza por acción del agente estabilizador y de la agitación. Conforme avanza la reacción de polimerización, la viscosidad de la fase dispersa pasa de valores bajos típicos de un líquido, hasta muy altos, hasta obtener perlas sólidas. En ese momento lo que se tiene es una suspensión de partículas sólidas en un líquido.

h

e

f

Population Balance Equation Figura 2. Principales fenómenos que determinan la DTP (PSD).

La Figura 2 muestra los principales fenómenos que afectan la distribución de tamaños de partícula (DTP o PSD por sus siglas en inglés) en un reactor en suspensión. Son muchas las variables que afectan la DTP, pero se pueden agrupar en los siguientes grupos: • Cinética de polimerización. Las variables relacionadas con la reacción de polimerización al interior de las gotas (temperatura de reacción, concentraciones de reactivos). La cinética de polimerización determinará el peso molecular y su distribución. El peso molecular define la viscosidad de las gotas, y éstas afectan el equilibrio de ruptura y coalescencia. Por lo tanto, la variable representativa de este bloque es la viscosidad.


Eduardo Vivaldo Lima

• Fenómenos de superficie. La tensión interfacial juega un papel preponderante en la estabilidad de las gotas, y en el tamaño de las mismas. Entre mayor sea la concentración de estabilizador menor será el tamaño promedio de gota. La variable representativa es la tensión interfacial. • Intensidad de mezclado. El nivel de mezclado es muy importante en el tamaño promedio de las gotas y en su distribución. Las zonas con una alta intensidad de mezclado romperán las gotas y se tenderá a producir las pequeñas. En las zonas con mezclado pobre se formarán gotas grandes. Si la configuración del recipiente es inhomogénea, se favorecerá el tener una distribución muy abierta de tamaños. La variable representativa para caracterizar la intensidad de mezclado es la rapidez de disipación de energía.

El otro extremo en grado de complejidad de modelamiento sería plantear un modelo de computational fluid dynamics (CFD), donde se considera que la rapidez de disipación de energía depende de la ubicación física en el tanque, teniendo un problema tridimensional. Éste es el caso más complejo, pues hay que usar técnicas de elemento finito y considerar la dependencia espacial en el balance de poblaciones, lo que produce un problema casi imposible de resolver. Una aproximación intermedia es usar la metodología de mezclado por zonas. Lo que se hace básicamente es dividir al sistema de reacción, en este caso el reactor, en subelementos que estén relacionados con las distintas zonas que puede tener el reactor. Cada zona se supone homogénea, pero a una intensidad de mezclado distinta de las otras. Cada zona se interconecta en relación con el patrón de flujo que exista en el reactor.

Modelling of Mixing in Suspension Polymerization Rigorous

Intermediate

3-D Navier-Stokes K-e or ASM

Compartment-mixing e average 3-D simul or experiments.

Traditional

Mixing: Two-zone (compartment) model

Homogeneous mixing e average = KM3D2 Vi

PBE-space dependent (internal coordinate)

PBE-each compalment

PBE or empirical correlation

Vb

151

Solver for PSD predictions Kinetic Model Equations

Figura 3. Distintos niveles de detalle para modelar el efecto de mezclado en la DTP, en una polimerización en suspensión.

La Figura 3 muestra las distintas aproximaciones que se pueden tomar para modelar el mezclado en un reactor de polimerización, así como la relación con los modelos a las otras escalas de modelamiento. El caso más simple, que es el usual en la literatura, es considerar mezclado perfecto. A este nivel se usan correlaciones adimensionales para vincular el tamaño promedio de partícula con el nivel de agitación. Otro tipo de modelos homogéneos más rebuscados calculan la rapidez promedio de disipación de energía, en términos de la velocidad de agitación, y de la geometría del tanque.

Figura 4. Uso de un modelo de dos zonas de mezclado para calcular la DTP.

La Figura 4 muestra la configuración que resulta al suponer que el reactor por lotes, donde se da la reacción en suspensión, se divide en dos zonas. El reactor pequeño representa la zona de agitación, donde se encuentra el agitador. Su volumen está relacionado con las dimensiones de las aspas del agitador. El reactor más grande se relaciona con la zona de menor intensidad de mezclado del recipiente. Se aprecia que el sistema se modela como dos reactores continuos de tanque agitado con mezclado perfecto, interconectados entre sí. El sentido del flujo está en relación con el diseño del agitador. La Figura 5 muestra dos posibles configuraciones al usar tres zonas de mezclado. Las alimentaciones y salidas dependen de la geometría y el agitador.


Ingeniería en polimerización: Pasado, presente y futuro

Mixing: Three-zone (compartment) model

Final de la cadena

Monómetro divinilico muerto enlazado en la red

F2 (or f2)

F1 (or f1)

Doble enlace colgante

(A)

Vi

Vb

F3 (or f3)

V3

Punto de entrecruzamiento

Monómetro divinilico enlazado en la red

Unidad etrecruzada

Centro Radical

f 1,3

(B)

f1 Vi

Vb

f2

f3 V3

Figura 5. Dos posibles configuraciones en un modelo de tres zonas de mezclado para DTP.

Las Figuras 6 y 7 muestran un poco de la complejidad de lo que está ocurriendo al interior de las gotas. En el sistema estudiado por Vivaldo et al. (1998), la reacción al interior de las gotas es una copolimerización vinílica/divinílica con entrecruzamiento. El modelar este sistema reactivo es en sí mismo toda un área muy compleja de investigación. En la Figura 6 se aprecia la reacción de entrecruzamiento, y en la Figura 7 se aprecia un poco de la complejidad que puede tener la red polimérica que se obtiene, donde una misma molécula tiene distintos tipos de grupos reactivos. 152

Ciclo primario

COPOLIMERIZACIÓN

K12

PROPAGACIÓN A TRAVÉS DE DOBLES ENLACES COLGANTES

Kp =13

Figura 6. Reacción de entrecruzamiento en el interiorde las gotas.

Figura 7. Estructura de una molécula entrecruzada, obtenida en las gotas dispersas.

Conclusiones • PRE es una disciplina interdisciplinaria en rápida evolución. • Pasado: Cinética y fundamentos de reactores. • Presente: Copolimerización, control de estructura, enfoque en Ingeniería de procesos. • Futuro: Diseño de materiales, con enfoque en Ingeniería del producto..


Eduardo Vivaldo Lima

Bibliografía

Kiparissides, C., (1996). “Polymerization Reactor Modeling: A Review of Recent Developments and Future Directions” en Chem. Eng. Sci., 51(10), pp. 1637-1659. (Y referencias en ese artículo). Penlidis, A., (1994). “Polymer Reaction Engineering: From Reaction Kinetics to Polymer Reactor Control” en Can. J. Chem. Eng., 72, pp. 385-391. Vivaldo-Lima, E., Wood, P.E., Hamielec, A.E. and Penlidis, A., (1998). “Calculation of the particle size distribution in suspension polymerization using a compartment-mixing model” en Can. J. Chem. Eng., 76, pp. 495-505.

153



Síntesis orgánica electrocutando moléculas Bernardo A. Frontana Uribe Instituto de Química, UNAM Introducción

El uso de la electricidad en la síntesis orgánica no es un descubrimiento reciente. Los primeros experimentos reportados se remontan a mediados del siglo XIX con Michael Faraday, quien quería comprobar la recién postulada Ley de Transformación de Compuestos mediante Electricidad (1834), conocida como la Ley de Faraday (Q=nNF donde Q=carga consumida, n=número de electrones involucrados, N=cantidad de mol, F= carga de una mol de electrones). En estos experimentos, Faraday observó que una solución de acetato de sodio al ser electrolizada generaba etano. Faraday había realizado la primera reacción de síntesis orgánica electrocutando moléculas. Esta reacción fue estudiada a profundidad por Kolbe, quien entre 1849 y 1854 comprendió y realizó las síntesis diméricas de alcanos a partir de carboxilatos de ácidos orgánicos. La reacción que se realizaba era: 2 RCOO-  R-R + 2CO2 + 2e- . Hasta mediados de la década de 1980, esta reacción era utilizada a escala industrial en países como la URSS, Japón, India y Alemania del Oeste. Con el descubrimiento de los procesos catalíticos y por la falta de materiales y equipos adecuados para realizar electrólisis a escalas industriales, durante la primera mitad del siglo XX los procedimientos electroquímicos en la industria cayeron en desuso. Esta situación cambió radicalmente en 1960 con la implementación de la electrosíntesis de adiponitrilo a partir de acrilonitrilo (2CH2=CHCN +H2O + 2e-  NC(CH2)4CN), desarrollado por la compañía Monsanto USA y descubierto por el Dr. M. Baizer. Ello permitió cubrir, a bajo costo, las necesidades de esta materia prima empleada en la producción de nylon, polímero muy usado hoy en día. Este proceso comenzó con una producción de 16,000 tons/año, pero en la actualidad alcanza 276,000 tons/año. En las últimas décadas del siglo XX se realizaron importantes descubrimientos en el campo de la instrumentación, materiales de electrodo y separadores. Esto último, aunado al desarrollo de la cinética electródica, que permitió elucidar los mecanismos de reacción electroquímicos, le dio a esta rama de la Química Orgánica madurez y un nivel de comprensión y aplicación que no había experimentado a lo largo de su existencia. A pesar de este grado de conocimiento en la materia, el químico orgánico común apenas conoce hoy la posibilidad de realizar un proceso electroquímico para la transformación de moléculas orgánicas. Esta situación es contrastante con lo que ocurre en la Química Inorgánica, cuando en la mayor parte de los libros de texto se menciona al menos un proceso para la preparación electroquímica de compuestos.

155


Síntesis orgánica electrocutando moléculas

La necesidad de nuevas metodologías ecológicas que cumplan con las normas y la legislación ambiental para la transformación de las moléculas es hoy una realidad que la industria química debe afrontar y tomar en cuenta al proponer nuevas rutas de síntesis. Las restricciones en materia ambiental que los gobiernos de distintos países han impuesto a la calidad de las aguas y gases residuales, ponen a la industria química en la búsqueda de rutas de síntesis mas eficientes y menos contaminantes. La electroquímica orgánica, al emplear al electrón como reactivo en reacciones redox (reducciónoxidación), se perfila como una de las posibles soluciones a este dilema actual. Grupos funcionales orgánicos susceptibles a ser transformados por electroquímica En la siguiente figura se muestran algunos grupos funcionales que pueden ser transformados empleando técnicas electroquímicas. Esta lista no es exhaustiva y existen conjuntos que pueden ser activados en condiciones muy particulares.

Comportamiento Reductor

.-

Reacciones ácido base

Ared + RX o R

Aox

Aox

RX + RX

2-

R

X

R

R

X

-e R

R

E

Reducción R Dimerización

Oxidación

Oxidación

2+

Substitución Electrofílica

+e

+e R

+E

R -X

Reducción

RX + RX

+H

Dismutación

-e

-X

R

Reacciones con radicales

X

Dismutación Ared

-H

Ared

.+

Aox + RX o R

Substitución Nucleofílica + Nu R Nu

Dobles ligaduras

Comportamiento Oxidante

Figura 2. Reactividad de los intermediarios electrogenerados, Si R=C entonces: R.+ =catión radical en carbono, R+ =carbocatión, R.- =anión radical sobre carbono, R- =carbanión, R. =radical libre en carbono.

Aminas aromáticas Anillo aromático (Ar-H y Ar-R)

<

>

ArSO2R

>

>

<

Heterociclos aromáticos

Ditioéteres

R-Br Ar-Br

>

>

R-I Ar-I

Nitrilos

> > < -3

<

>

<

>

>

<

Carboxilatos de ácidos

Como toda metodología experimental, la electrosíntesis orgánica presenta ventajas y desventajas que deben ser conocidas para valorar su aplicabilidad en síntesis orgánica. Entre las ventajas podemos mencionar:

Hidroquinonas

Quinonas

<

Anillo aromático (Ar-H y Ar-R) Alcoholes bencílicos

Fenoles

<

Nitro

Iminas y Oximas

-1

Derivados halogenados

<

< >

Reducción

-2

Tioéteres

< Cationes diazonio

>

Olefinas activadas Acetilénicos

<

<

Sulfuros y tioles

<

> Sales de amonio

Ar-Nitroso

<

ArCO2H o ArCO2R

>

156

> <

> R-Cl Ar-Cl

>

<

RC OH o RCOR

>

Ventajas y desventajas de la técnica

Hidroxilaminas

Hidrazo A zo

Olefinas activadas

< 0

Oxidación

E vs ECS

1

2

3

Figura 1. Principales grupos orgánicos electroactivos.

La activación electroquímica de grupos funcionales permite realizar una amplia gama de reacciones, conocidas en la Química Orgánica como las que se muestran en la Figura 2. Una vez que la transferencia de electrones ha ocurrido, los intermediarios reactivos electrogenerados seguirán la reactividad clásica que ha sido descrita para ellos en Química Orgánica.

a) La cinética de la reacción electroquímica depende directamente del valor de potencial impuesto, en el cual se realiza la transferencia de electrones. El control del potencial equivale al de la temperatura en una reacción en fase homogénea, es decir, este parámetro experimental determina la energía que se involucra en una reacción electroquímica. b) El método electroquímico es selectivo, ya que si una molécula posee varios grupos capaces de reaccionar electroquímicamente (electroactivos) o bien, un grupo funcional puede conducir a diferentes estados de oxidación de éste, químicamente es difícil escoger un agente redox para realizar una transformación selectiva. Al escoger por electroquímica el valor de potencial,


Bernardo A. Frontana Uribe

se puede transformar sólo el grupo deseado o bien alcanzar el estado de oxidación requerido. c) La mezcla de reacción contiene menos productos por separar, ya que ésta no contiene residuos de oxidantes y reductores, por lo tanto, los procesos de purificación se simplifican disminuyendo costos. d) Al usar al electrón como reactivo, se pueden eliminar o reducir a cantidades catalíticas oxidantes o reductores tóxicos, peligrosos y costosos (OsO4, Pb(AcO)4, NaH, Na, K, etc.), por esta razón la electroquímica orgánica es considerada una técnica ecológica. e) Es posible estudiar el mecanismo de la reacción redox mediante la aplicación de las técnicas electroanalíticas. De esta manera, es posible conocer el número de etapas involucradas, número de electrones que se intercambian, estabilidad de los intermediarios electrogenerados. f) Debido a su naturaleza heterogénea, esta técnica puede presentar diferente reactividad a una reacción en fase homogénea, por lo que productos que no son fácilmente accesibles pueden ser sintetizados. g) El costo del electrón como reactivo es dramáticamente bajo en comparación de oxidantes o reductores. Así, éste es 3.3 veces más bajo que el polvo de hierro y zinc, 7.2 veces que el NaBH4, 12 veces que el KMnO4, 20 veces que el NaCr2O7 y 52 veces que el LiAlH4.

d) El material y equipo de trabajo puede resultar costoso. No existen celdas de electrólisis universales y éstas deben de ser adaptadas a la reacción que se quiere realizar. Los electrodos normalmente son de materiales inertes como Pt, Au y carbón vidriado, que son de alto costo. e) La necesidad de separar el ánodo del cátodo para evitar reacciones no deseadas (compartamentalización), implica utilizar separadores que aumentan la resistencia eléctrica entre los electrodos y el potencial necesario para realizar la transformación. f) La solución de electrólisis debe de ser conductora, por lo que el disolvente debe ser polar para ionizar la sal electrolito que permitirá la conductividad de la solución. Este solvente debe permitir la buena solubilidad del compuesto y del electrolito, para poder tener una electrólisis exitosa.

La técnica Un equipo para electrosíntesis está constituido por al menos una fuente de poder, coulombímetro, una celda, electrodos y un sistema de agitación, (Figura 3). Esta configuración puede ser modificada con dispositivos para controlar la temperatura, para detectar los productos iniciales o finales, sistemas para inyectar reactivos para atrapar intermediarios, que son de vida media corta.

Los inconvenientes más importantes de esta técnica son: a) La reacción electroquímica se lleva a cabo en la superficie de un electrodo y, por lo tanto, es una técnica heterogénea (bidimensional), que es más lenta que una en fase homogénea (tridimensional).

Fuente

A

Amperímetro Electrodo Referencia (solo a potencial controlado)

Electrodo Trabajo

b) Existen límites en el potencial del electrodo que es posible alcanzar al emplear solventes orgánicos. Este límite es aproximadamente de +/- 3 V vs ECS, que desde el punto de vista energético son 300 KJ. c) La selectividad de la reacción depende del conocimiento de los parámetros redox del compuesto en el medio de electrólisis, por lo que un estudio electroanalítico previo es siempre recomendable.

Agitador magnético

C

Coulombímetro Separador Contraelectrodo

Barra magnética

Figura 3. Configuración mínima de un sistema de electrosíntesis.

157


Síntesis orgánica electrocutando moléculas

I

Electrólisis a potencial controlado

158

I T1

T2

T3

T3

E1E2

E3 E4

Sí o No

Sí o No

Sí o No

Sí o No

Con Flujo Con Flujo agitación forzado a agitación forzado a magnética través de magnética través de o mecánica electrodo o mecánica electrodo en celda de tridimen- en celda de tridimenlotes sional lotes sional

Celda potenciostática con agitación magnética o mecánica en celda de lotes con separador

a

b

f E.C.S.

c d e

a) Contra-electrodo b) Refrigerante c) Separador poroso

d) Barra magnética e) Electrodo de Hg f) Electrodo de referencia

Celda galvanostática, con flujo forzado a través de electrodo tridimensional, con separador

T4

IT E

Transferencia de masa

Corriente controlada

T1

T2

T4

ET

Electrólisis a corriente controlada

Separador presente

Potencial controlado

1

Fuentes de poder. Una reacción electroquímica puede realizarse a potencial o a corriente controlados. A escala de laboratorio el proceso potensiostático tiene ventajas, ya que la reacción es más selectiva al reaccionar la totalidad del producto que requiere esta energía, sin embargo, el proceso es lento. A escala industrial un proceso galvanostático es el preferido, debido al costo de los potensiostatos de alta salida de corriente y el menor tiempo de la electrólisis. Este último requiere de equipo de menor costo, pero la selectividad y cuantitatividad de la reacción están comprometidas, debido a que la energía del sistema (potencial) no es constante y puede variar a lo largo de la electrólisis (Figura 4). La variación en el potencial provoca, si la cantidad de electri-cidad no está bien controlada, la generación de productos por una reacción electroquímica no deseada. Algunas fuentes de poder contienen un coulombímetro interno que permite cuantificar la cantidad de carga que ha sido consumida durante la electrólisis, ésta se correlaciona con la cantidad de moles transformados empleando la Ley de Faraday. De esta manera, se evita una sobre-electrólisis que puede influir en la pureza y selectividad. Si este equipo no está presente en la fuente de poder, debe conectarse en serie a alguno de los electrodos de la celda electroquímica.

E

E2

E1

i2

i1

Figura 4. Cambios de corriente y potencial en las curvas I/E durante electrólisis a diferentes tiempos (T).

Celda. Las celdas electroquímicas más comunes pueden ser cualquiera de las combinaciones que se muestran en la tabla siguiente. Ejemplos se muestran a continuación (Figuras 5 y 6).

b c

a

a) Electrodo tridimensional b) Contra-electrodos c) Separador poroso

c b E= Fuente de poder I1 I2= Amperímetros

Figura 5. Esquemas de celdas de electrólisis de laboratorio.


Bernardo A. Frontana Uribe

obtener grandes superficies en un volumen pequeño de material, con lo que se mejora la relación rendimiento/tiempo en los reactores o celdas electroquímicas (Figura 7).

A

A

Figura 6. Esquemas de celdas de electrólisis industriales.

Electrodos. En el caso de las celdas a potencial controlado, además del ánodo (+) y el cátodo (-) empleados en una celda galvanostática, es necesario el uso de un tercer electrodo, que permite darle al equipo una valor de referencia para realizar la imposición del potencial. Este electrodo es una media celda redox que debe tener las siguientes condiciones ideales: ser químicamente estable, que no sea polarizable, fácil de manejar, independiente de la temperatura y que no cause contaminación de la solución de trabajo y con un potencial de unión líquida prácticamente inexistente. El material del electrodo de trabajo es de capital importancia, debido a las interacciones y afinidades de ciertos metales con los grupos funcionales. Este fenómeno es poco comprendido y ésta es una de las causas por las que la selección del electrodo correcto es muchas veces un trabajo de prueba y error. Muchos materiales tienen propiedades catalíticas, gracias a que presentan adsorciones específicas o bien por impurezas naturales o adicionadas que favorecen cierta reacción. Los materiales de electrodo más empleados en reducciones son mercurio, plomo, estaño, titanio, cobre, hierro, aluminio, platino, níquel y carbón. El uso de metales en oxidación está sumamente restringido a aquellos que son químicamente estables como el platino, oro o carbón vidriado. Algunos metales se usan en condiciones donde su oxidación es desfavorecida, como níquel en condiciones alcalinas o dióxido de plomo en soluciones ligeramente ácidas. Estos electrodos se emplean en forma de láminas, mallas, camas de canicas, espumas y fieltros. Estos dos últimos son una nueva gama de electrodos denominados tridimensionales, que permiten

a)

b)

Figura 7. Fotografía de electrodos tridimensionales a) espuma metálica, b) fieltro metálico.

Disolventes y electrolitos. Debido a que el agua es un disolvente que no favorece la disolución de productos orgánicos, salvo en algunas excepciones, es necesario emplear mezclas hidro-orgánicas o bien un medio totalmente orgánico. El disolvente escogido para el compuesto a transformar debe ser capaz además, de disolver y disociar el electrolito soporte en concentraciones > 0.1 M, lo que permitirá transportar la carga en solución y tener buena conductividad eléctrica. Por esta razón, disolventes poco disociantes (poco polares) como benceno o éter no son empleados normalmente en electrotransformaciones orgánicas. Esta mezcla disolvente-electrolito soporte es la responsable, junto con el material de electrodo, de los valores de potencial que son posibles de alcanzar dentro de la celda electroquímica. A este rango de potencial se le denomina la ventana de electroactividad del medio. En la Figura 8 se muestran algunos medios de electrólisis usados para moléculas orgánicas. Es importante la elección atinada del disolvente de reacción, ya que éste puede influir en la transformación química de las especies electrogeneradas, ya sea aceptando-donando protones, adicionándose a los intermediarios o favoreciendo reacciones con otros compuestos adicionados a la celda de electrólisis, para atrapar estos intermediarios. El electrolito en el caso de disolventes orgánicos es, por lo general, un perclorato de una sal de amonio cuaternaria (tetrabutilamonio TBAP o tetraetilamonio TEAP) o de litio, que permiten alcanzar una concentración suficiente de iones en estos medios

159


Síntesis orgánica electrocutando moléculas

poco polares. En mezclas hidro-orgánicas o acuosas, se pueden emplear sales inorgánicas y ácidos minerales. Estas últimas serán siempre las ideales por el costo del disolvente y el electrolito.

Figura 8. Ventana de electroactividad accesible en diversos medios de electrólisis. El electrodo de trabajo es Pt a menos que se indique otra cosa. TEA= Tetraetilamonio, TBA= Tetrabutilamonio.

Situación actual

160

Hoy en día, la electrosíntesis orgánica es una disciplina cuyas bases y fundamentos se encuentran bien estudiados. Este factor permitió cambiar la imagen de ciencia empírica que tenía hasta hace unas décadas. Gracias a los desarrollos teóricos en la transferencia de electrones, cuya importancia le valió el premio Nobel de Química 1993 a R.A. Marcus, y a los estudios tanto teóricos como experimentales de J.M. Saveant y a su grupo de investigación, se han podido comprender no sólo el fenómeno eléctrico de la interfase, sino también se ha abierto la puerta al estudio de los mecanismos de reacción químicos que ocurren posteriores al proceso redox. Esta poderosa herramienta empleada en el estudio de las reacciones redox, denominada electrocinética, permite hoy en día planear las electrosíntesis y comprender el origen de los productos obtenidos. La Química de materiales es otra rama del conocimiento que ha contribuido con importantes resultados para el beneficio de la electroquímica orgánica. Principalmente, el cambio de los

antiguos separadores fabricados con vidrios porosos o cerámicas por membranas conductoras, que permiten disminuir el potencial aplicado a la celda, los electrodos de aleaciones especiales permiten alcanzar rangos de potencial mayores sin la corrosión de éstos; los electrodos tridimensionales que permiten obtener superficies electroactivas más grandes; los materiales electrocatalíticos que permiten aumentar la selectividad y rendimiento de reacciones disminuyendo la energía necesaria para realizar los procesos. Las fuentes y equipos de control no han dejado de evolucionar a la par de lo que se ha observado en la electrónica y la miniaturización. Estos cambios permitieron disminuir costos y requerimientos energéticos, además de lograr un mejor control de las reacciones electroquímicas, al contar cada vez con equipo más fino a nivel industrial. Los estudios de Ingeniería aplicada a las celdas de electrólisis han creado la rama joven de la Ingeniería Química, la Ingeniería electroquímica, que permite conocer los factores de peso que deben tenerse en cuenta al diseñar un reactor para una aplicación industrial de un proceso electroquímico. Esto ha permitido la extrapolación efectiva de los mecanismos desarrollados en laboratorio a escala industrial. El desarrollo de esta técnica de síntesis reporta arriba de media centena de procesos a escala de laboratorio por año y se encuentran más de 25 trabajando en el ámbito de piloto-industrial. La búsqueda de procedimientos eficientes en energía y ecológicos ha puesto de manifiesto la alternativa tan interesante que presenta la electrosíntesis orgánica. En 1999, una reacción de electrosíntesis orgánica, la cual se reconoció como una alternativa ambiental al método químico, ganó el Premio de Innovación en la Industria Química que otorga BASF.

Algunos ejemplos de aplicación A pesar de que los procesos electroquímicos son conocidos desde hace mucho tiempo para la síntesis de compuestos inorgánicos, como el proceso cloro-sosa que electroliza una solución de salmuera, los industriales aplicados a la Química orgánica son muy pocos. A nivel laboratorio cualquiera de las referencias generales le permitirán al lector descubrir el mundo fascinante de la electrosíntesis orgánica. En los ejem-


Bernardo A. Frontana Uribe

plos he elegido dos que, por su impacto e importancia a nivel industrial, pueden resultar de mucho interés.

La electrosíntesis apareada de para-ter-butil-benzaldehído (TBA) y ftalida Las síntesis apareadas, es decir, donde se aprovechan las dos reacciones que ocurren en los electrodos, son los mejores ejemplos de la potencialidad de aprovechamientos de recursos energéticos en una reacción electroquímica. En estas síntesis se ahorra energía al emplear la reacción electroquímica que se lleva a cabo en ambos electrodos, con lo que el rendimiento Faradáico (rF = mol producida/mol de electrones x 100), supera el 100% y puede llegar en un proceso ideal a ser del 200%. La producción electroquímica desarrollada por BASF en 1999 de para-ter-butil-benzaldehído (TBA) y ftalida, a partir de la oxidación del para-ter-butiltolueno y la reducción del éster metílico del ácido ftálico, es uno de los pocos procesos apareados que se han llevado a escala industrial. El proceso se representa en la Figura 8. O O TBA

OCH3 OCH3

Ánodo

+ MeOH

O

- MeOH

Cátodo

O

Ftalida

Figura 8. Procesos electroquímicos involucrados en la celda de electrólisis apareada para la producción de TBA y ftalida.

El proceso catódico sustituyó la reacción de hidrogenación catalítica del éster metílico del ácido ftálico, que requería hidrógeno en altas presiones y catalizadores costosos que la mayor parte de las veces no eran posible reciclar. Si la reacción catódica no se hubiera aprovechado, el proceso de obtención de TBA no hubiera sido rentable y además se hubiera generado hidrógeno en la celda. Este subproducto, además de ser explosivo, se tiene que incinerar al no ser de la pureza suficiente como para ser recuperado para su comercialización. También se evita la producción de desechos

que serían producidos por el cátodo, lo que implicaría el aumento en los costos al tenerlos que tratar. Por ello, el acoplamiento de un proceso de síntesis en este electrodo permitió generar un compuesto de alto valor agregado, como es la ftalida y evitar desechos. Los dos productos obtenidos se recuperan por procesos sencillos de separación, el TBA se destila y la ftalida se cristaliza del medio de electrólisis. Debido a la estequiometría del proceso, se produce un mol de TBA por mol de ftalida, lo cual, a nivel industrial, es riesgoso si uno de los productos deja de ser de interés comercial. El proceso electroquímico es lo suficientemente flexible para adaptarse a las necesidades del mercado, ya que rápidamente se puede evitar la producción de ftalida simplemente dejando de adicionar el éster metílico del ácido ftálico. La planta de BASF en Ludwigshafen, Alemania, es una de las pocas en el mundo equipadas con reactores electroquímicos que producen anualmente diversos químicos en ellos. La síntesis simultánea de TBA y ftalida es más que una reacción apareada que genera productos de valor comercial, comenta el descubridor e implementador del proceso Dr. H. Pütter, “esta reacción tiene un efecto sinérgico ya que, además aprovecha el metanol que se libera en el cátodo, para servir como la fuente de oxígeno para la oxidación. De esta forma tan elegante se evita el tener que adicionar y dosificar el metanol, ya que éste se produce en la cantidad exacta que se requiere”. El mismo investigador es optimista sobre el futuro de la electrosíntesis orgánica y comenta: “En cada planta industrial se tienen cientos de metros cuadrados de electrodos sin utilizar que constituyen las paredes de los reactores de síntesis. Esto nos deja mucho espacio para la imaginación”.

Síntesis electroquímica de nitrosobencenos en celda de flujo redox Los compuestos nitrosos son interesantes por las propiedades biológicas que presentan, pero además, en síntesis orgánica se pueden aprovechar para la construcción de heterociclos nitrogenados. La síntesis de nitrosobencenos (Ph-NO), desde el punto de vista químico, es difícil de realizar. Dos procesos son los más empleados para obtener estos compuestos: la oxidación de anilinas y la reducción

161


Síntesis orgánica electrocutando moléculas

del nitrobencenos (Ph-NO2) a fenilhidroxilamina (Ph-NHOH) con posterior oxidación al nitrosoaromático (Ph-NO) Figura 9. El principal problema de esta última ruta de síntesis es la producción de derivados azoxy, provenientes de la reacción entre el nitroso y la hidroxilamina que se encuentran presentes durante la síntesis. Por lo tanto, si se quiere emplear esta ruta será necesario que la hidroxilamina se oxide rápidamente y que el derivado nitroso generado no esté en contacto con la hidroxilamina. O

R

N

por hora de producto electrolizado. Ésta es, hoy en día, la mejor técnica para obtener al Ph-NO a partir del Ph-NO2. Con esta técnica se han podido sintetizar eficientemente compuestos heterocíclicos nitrogenados como los que se ejemplifican en la Figura 11.

R N

Azoxy

NO2

R

Reducción

R

Figura 11. Aplicación de la celda de flujo redox a la electrosíntesis de compuestos heterocíclicos.

NO

NHOH Oxidación

Heterociclos Nitrogenados

R

Figura 9. Esquema de la obtención química de compuestos nitroso aromáticos.

162

La solución a este problema se encontró al emplear una celda de flujo con electrodos tridimensionales (fieltros) de carbón contiguos y de polaridad contraria. Esta disposición permite realizar, en la misma celda de electrólisis, dos reacciones electroquímicas. En el primer electrodo que se comporta como cátodo, se realiza la reducción del Ph-NO2 y en el segundo que se comporta como ánodo, se oxida la PhNHOH al Ph-NO (Figura 10).

R-NO a) Contra-electrodo b) Membrana conductora c) Cátodo poroso d) Separador poroso e) Ánodo poroso E1,E2 = Fuente de poder

Cátodo poroso: NO2

E2

E1

-

R a

b c

Sentido de circulación de la solución R-NO2

d

NHOH

+

+4e +4H -H2O R Ánodo poroso: NHOH + -2e -2H

e R

NO

R

Figura 10. Esquema de la síntesis electroquímica de compuestos nitroso en celda de flujo redox.

Con esta técnica se obtienen en un solo paso, por la celda de la solución electrolítica que contiene el nitrobenceno de partida, los nitrosobencenos en rendimientos superiores al 90%, evitando los compuestos azoxy. La versión de planta piloto de esta celda permite obtener aproximadamente 10 kg

Conclusión En estos tiempos de búsqueda de reacciones ecológicas para la transformación de compuestos orgánicos, la electroquímica presenta un gran potencial de aplicación. Los problemas a que se había enfrentado el electroquímico orgánico están siendo resueltos gracias a la interacción de diversas áreas como la de los materiales, la Química teórica y la electrónica. Las diversas aplicaciones industriales que han sido desarrolladas por las empresas, han dado pie a un mayor número de investigaciones en esta área. Los dos ejemplos aquí expuestos permiten darnos una idea del valor de esta técnica, la cual es muy poco conocida por el químico orgánico sintético. Espero que esta pequeña introducción despierte la curiosidad de estos científicos y que descubran el potencial que tiene su trabajo.


Bernardo A. Frontana Uribe

Bibliografía

Baizer, M. M., Lund, H., Eds., (1991). Organic Electrochemistry, 3a ed. Dekker, New York. Coeuret, F., (1992). Introducción a la Ingeniería Electroquímica. Reverté, Barcelona. Frontana-Uribe, B.A., (1998). Moinet, C., “2-Substituted Indazoles From Electrogenerated Orthonitrosobenzylamines”, en Tetrahedron, Vol. 54, pp. 3197-3206. Frontana-Uribe, B.A., (1999). Moinet, C., Toupet, L. “N-Substituted-1-Aminoindoles From Electrogenerated N-Substituted-2-(Ortho-Nitroso-phenyl)-Ethylamines”, en Euro. J. Org. Chem., pp. 419-430. Innovation Awards BASF awarded in 1999 for the simultaneous electrosynthesis of phthalide and TBA: http://217.72.197.90/basf/html/e/investor/ub99/LU_Elektrosynthese-41.htm Steckhan, E., et. al. (2001). “Enviromental protection and economization of resources by electroorganic and electroenzymatic synthesis”, en Chemosphere 43, pp. 63-73. Shono, T., (1991). Electroorganic Synthesis, Academic Press, New York. Tallec, A., (1985). Electrochimie organique, Synthèses et mécanismes, Masson, París. Volke, J., Liska, F., (1994). Electrochemistry in Organic Synthesis, Springer-Verlag, Berlín.

163



Polímeros conductores inteligentes Alejandro Baeza Facultad de Química, Departamento de Química Analítica

Cadenas hechas de compuestos Dentro del infinito universo de los compuestos químicos existe una gran familia, fundamental para los procesos naturales y sintéticos: los polímeros. Algunos átomos tienen la capacidad de formar enlaces entre sí, por lo que se pueden encontrar cadenas cortas de átomos de fósforo, azufre y silicio, comúnmente combinados con oxígeno. Sin embargo, las uniones entre átomos de carbono en combinación con el oxígeno, nitrógeno, azufre, etcétera, han generado miles de compuestos de reactividad diversa e importante, a tal grado que se les asigna un especial tipo de Química conocida como Química Orgánica, ampliamente estudiada desde los puntos de vista sintético, analítico y teórico. Un compuesto orgánico (monómero) puede unirse a otro igual sucesivamente para formar cadenas largas conocidas como polímeros:

nM

(-M-M-M-)n

Existen polímeros naturales de gran importancia en Biología: los carbohidratos, las proteínas, los ácidos nucleicos. Los polímeros sintetizados por los químicos cambiaron de manera histórica muchas actividades humanas a mediados del siglo XX, entre ellos los plásticos que, por sus propiedades mecánicas, aislantes y térmicas, han invadido sectores amplios de la industria química, en la producción de infinidad de materiales utilizados en la vida diaria. La estructura de los plásticos no permite utilizarlos como conductores eléctricos. Dicha característica prácticamente se encuentra en los conductores metálicos y los semiconductores inorgánicos. La idea de que la electricidad es una cuestión ajena a los compuestos orgánicos está generalizada. Sin embargo, ya desde principios del siglo XX podemos encontrar químicos interesados en las propiedades eléctricas de los polímeros. En el año 2000, los químicos Alan J. Heeger, Hideki Shirakawa y Alan G. MacDiarmid recibieron el Premio Nobel por sus trabajos en la síntesis de polímeros electroconductores, lo que muestra que la Química de los polímeros conductores se encuentra en una vigorosa etapa de fascinantes descubrimientos.

165


Polímeros conductores inteligentes

La historia N:

el politiofeno (II),

-e

H

H

N H

-

S

H N:

n

-

N H

n (III)

(II)

(I)

A

-

La polianilina (negro de anilina) es el producto polimérico de la oxidación de la anilina en condiciones ácidas, cuya síntesis se conoce desde 1862. Willstatter y sus colaboradores determinaron en 1907 y 1909 que la estructura del negro de anilina está constituida por ocho núcleos básicos:

166

H

H

H

N

N

N

N.+

H

+I

-2 e -2 H

H H

III

-2 H+

H +

H N +

N H

IV

H

+

n

donde n es el número de unidades monoméricas por carga positiva y A- es el contraión negativo, que neutraliza la carga positiva del polímero conductor y se incorpora en el proceso de síntesis.

H N H

H

H

Vv

+ A

+

H

y la polianilina (III):

+ A

N. + II

N ....

+

-

I

Los primeros electropolímeros básicos son: el polipirrol (I)

H

polímero

No fue sino hasta 1977 que el mundo químico se interesó en la polianilina como material conductor, cuando H. Shirakawa, E. J. Louis, A.G. Diarmid, C.K. Chiang y A. J. Heeger reportan el hecho fundamental de que el poliacetileno dopado (contaminado) con yodo presentaba conductividad metálica. Desde entonces, la investigación en materiales orgánicos conductores ha crecido de manera vigorosa hasta contar con un Premio Nobel en el año 2000 en esta área.

La síntesis de la polianilina (PANI)

N

N

N

N

H

H

H

H

En 1910, Green y Woodhead caracterizaron con mayor profundidad a la polianilina en términos de los productos de la óxido-reducción de este compuesto, por medio de reacciones con oxidantes enérgicos como el persulfato y reductores como el tricloruro de titanio.

Los procesos de síntesis de la polianilina (PANI) son en general muy sencillos. Es posible obtenerla por oxidación de la anilina con persulfato de amonio en un medio de ácido sulfúrico. Sin embargo, la vía química de síntesis implica también la obtención de subproductos (polimerización parcial no homogénea) y la generación de desechos químicos variados y procesos de purificación del polímero formado, para separarlo de la mezcla de reacción.

H.N. Mecoy y W.C. Moorer aportaron evidencias experimentales de la capacidad de conducción eléctrica de compuestos sólidos orgánicos, ya que hasta entonces no se investigaban las propiedades eléctricas de las sustancias orgánicas, por considerarlas exclusivas de los compuestos inorgánicos.

Afortunadamente, la oxidación por vía electroquímica ha resultado muy eficiente, toda vez que es posible controlar la cantidad y la forma de polímero formado, el cual, al adsorberse al electrodo, permite separarlo simplemente al sacar el electrodo de la disolución.

Casi 50 años después, Surville y colaboradores reportaron en 1968 que la conductividad en medio acuoso de la polianilina depende de la acidez del medio y de su estado de óxido-reducción:

La electropolimerización se lleva a cabo en presencia de ácido sulfúrico, nítrico, clorhídrico, etc. La naturaleza del anión del ácido usado proporciona diferentes polianilinas, en cuanto a sus propiedades eléctricas y mecánicas. La síntesis es limpia ya que la electrooxidación de la anilina está


Alejandro Baeza

acoplada a la reducción del ácido que genera hidrógeno no contaminante. Se ha demostrado que el uso de los ácidos bensensulfónicos proporciona PANI con mejores propiedades eléctricas.

materiales adquieren propiedades eléctricas interesantes. A continuación se muestra una figura de una celda electrolítica en la cual se sintetiza polianilina sobre un gel soporte.

El siguiente esquema muestra la forma básica para obtener PANI por vía electroquímica:

-

+ 9V cátodo (varilla de carbón)

ánodo (punta de carbón)

En el ánodo (+) ocurre la electropolimerización y en el cátodo (-), la electrorreducción del H+ del ácido empleado, generando pequeñas burbujas de hidrógeno. La PANI formada queda adherida a la punta de carbón. Una propiedad interesante de los polímeros conductores radica en que es posible electrosintetizarlos sobre soportes diversos (geles tipo rollo fotográfico, telas, etc.). La siguiente figura muestra fotografías al microscopio electrónico de polianilina sobre diversos soportes, que le confieren resistencia mecánica y elasticidad y, a su vez, estos

El diseño anterior puede realizarse a mayor escala para producción industrial de películas de polianilina o polipirrol.

La estructura (caracterización electroanalítica) de la PANI Una ventaja de la síntesis electroquímica de los polímeros conductores radica en la posibilidad de controlar la cantidad, el tamaño y la estructura del polímero. Si se efectúa la síntesis con ciclos repetidos de oxidación-reducción al electrodo y se mide la corriente eléctrica durante la formación cíclica del polímero, puede conocerse la cantidad y el tipo de polímero formado, toda vez que se obtienen registros de la corriente-potencial que son muy útiles para caracterizar y cuantificar las reacciones electroquímicas realizadas.

167


Polímeros conductores inteligentes

Las siguientes figuras muestran los voltamperogramas cíclicos de la electrosíntesis de polianilina, así como las diferentes formas de polímero asociado a cada señal.

Tipo de monómero Anilina, tiofeno, pirrol Tipo de ácido para la electrosíntesis

Monómeros sustituidos síntesis con pulsos de potencial síntesis con barridos de potencial

síntesis con pulsos corriente

acidez del medio pH

tamaño del polímero soporte final del polímero Polileucoemeraldina Amarillo 1.50

Poliemer aldina

Verde Claro

Verda

Poliemeraldina Azul

Violeta

tipos de electrodos

electropolímero

aumenta el pH

1.00

168

Los voltamperogramas anteriores permiten investigar un sinfín de polímeros conductores que pueden electrosintetizarse, toda vez que pueden variarse muchos parámetros que intervienen en la estructura y características del polímero producido:

current (mA)

0.50

0.00

-0.50

-1.00

-1.50 -0.20

0.00

0.20

0.40 potencial (v)

0.60

0.80

1.00

Voltamperograma cíclico de la electropolimerización de la anilina en medio sulfúrico. Tipos y colores de polianilina formada, dependiendo del potencial impuesto al electrodo.

Cada combinación posible lleva a un polímero conductor determinado, que tiene sus propias características de conductividad eléctrica, propiedades mecánicas, color, movilidad y capacidad de conectarse químicamente con su entorno. La siguiente figura muestra que los polímeros conductores tienen capacidad de helicoidicidad molecular, que le confiere potenciales propiedades en procesos de información química:


Alejandro Baeza

La siguiente figura muestra las propiedades electrodinámicas de los polipirroles: O

+

A N H

-

+e

N H

-e

n

+

A

-

n

*baja resistencia

*alta resistencia

*alta capacitancia

*baja capacitancia

*no-iónico *iónico *hidrofóbico *hidrofílico La capacidad conductora de estos polímeros radica en la deslocalización de la carga de los polarones (par anióncatión) dentro de la cadena polimérica: H N

H N

Modelo de una polianilina helicoidal

Propiedades eléctricas de los polímeros conductores Los polímeros conductores presentan propiedades electrodinámicas, es decir, sus propiedades eléctricas cambian con su estado de óxido-reducción y éste de su estructura. De esta manera es posible controlar el comportamiento eléctrico de potencial con estímulos eléctricos adecuados para cerrar o abrir el circuito eléctrico, constituido parcial o totalmente por un polímero conductor determinado.

N H

N H

+

.+ H N

N H

+.

H

N H

.N+ N H

H

.N+ H N. +

N H

Estas propiedades eléctricas son aprovechadas en la construcción de material electro-activo en dispositivos microelectrónicos. Burroughes y colaboradores reportaron por primera vez en 1988 los primeros diodos, semiconductores metal-aislante (MIS) y los transistores de efecto de campo MIS (MISFET). Todos ellos eficientes y que incorporan en su estructura polímeros conjugados. Actualmente, se encuentran en vigorosa investigación los diodos emisores de luz (LED) con polímeros conductores, toda vez que el estado redox de éstos produce polímeros de diferente color.

169


Polímeros conductores inteligentes

En la siguiente figura se muestran las aplicaciones eléctricas de los polímeros conductores:

Contacto metálico (+) Tapa de plástico protectora

POLIANILINA CONDUCTORA Conductividad: baterías

Zn (-) polianiliina

Fotoconductividad: LEDs Fotocopiadoras

Carbón poroso

Piezoelectricidad: micromotores Papel separador

Fotoquímica:

litografía

Estado sólido:

sensores y biosensores

Ferromagnetismo: grabación

Electrolito Cloruro de Zn y de amonio

Electrocromaticidad: “displays”

Óptica no lineal:

generadores Amónicos

170 Membranas: separación de gases Capacitores

Otras aplicaciones Se han fabricado baterías recargables a base de polímero conductor, tanto de naturaleza orgánica (polianilina-tetrafloruro de litio) como inorgánica (polianilina-Zn), con eficiencias aceptables: 3V y 440 Wh/kg:

La polianilina puede fácilmente oxidarse a compuestos quinónicos no tóxicos y biodegradables, lo cual le confiere una ventaja adicional a estas pilas con polímero conductor. Los polímeros conductores electro-sintetizados pueden quedar adsorbidos sobre el electrodo, de tal suerte que en el proceso de formación de polímero pueden incluirse compuestos altamente selectivos a otros de interés. Tal es el caso de los biosensores que utilizan enzimas atrapadas en el polímero, que al reaccionar con el sustrato generan una señal electroquímica detectada en el electrodo. El biosensor más exitoso utiliza la glucosa oxidasa (GOD) para medir glucosa en sangre, al detectar el peróxido de hidrógeno producido:

Electrodo metálico

oxígeno

glucosa

peróxido

gluconato

PANI-GOD

eagua


Alejandro Baeza

En nuestro laboratorio hemos encontrado recientemente, que películas de PANI sobre microdiscos de carbono protegidas con un polímero inerte poliflourado (nafión) son sensibles selectivamente al pH en medio acuoso y no acuoso. Puede decirse que se ha diseñado un electrodo de pH de naturaleza orgánica, que compite con el electrodo convencional de vidrio combinado de naturaleza inorgánica (borosilicatos). La siguiente figura muestra la curva de calibración típica, potencia-pH obtenida con un microsensor de pH a base de PANI y un microelectrodo de referencia en condiciones de microescala:

Otra propiedad interesante de las polímeros conductores es su capacidad de modificar, de manera reversible y controlada, su forma al aplicársele un estímulo eléctrico: Con potencial aplicado

Sin potencial aplicado

15 mm

POLIPIRROL

CURVA DE CALIBRACIÓN DEL ELECTRODO DE POLIANLINA (V.C.)

Esta propiedad es muy útil como sistema modelo del músculo, ya que los polímeros del músculo (proteína miosina) deben sus propiedades de contracción a impulsos eléctricos.

200 E= 335.35 + 1.9 - 59.7 + 0.27 pH R2 = 0.9998

E (mV)

100

Magnitud del doblamiento

Gel de soporte

0

-100

0

2

4

6

8

10

12

pH

-200 -300

Microelectrodos de referencia

En Química Ambiental el polipirrol (PPy) ha mostrado ser muy efectivo en la eliminación del cromo hexavalente (dicromato), reduciéndolo a cromo trivalente menos tóxico. Este modo de remediación ambiental electroquímica presenta ventajas con respecto a aquellos que usan reactivos químicos simples (fierro II), toda vez que no se generan desechos, ya que el polipirrol está inmovilizando al electrodo regenerándose ahí mismo: DIRECTO

e

-

Cr (VI)

Cr (III)

PANI

Microsensor de pH

Se han aprovechado las propiedades mecánicas de los polímeros conductores como soporte de células y tejidos, toda vez que permite la movilidad de iones, nutrientes y desechos celulares. Se han aprovechado las propiedades permeables y eléctricas de estos polímeros para estudiar el transporte de K+, modulado eléctricamente como un sistema modelo para análisis del transporte en membranas celulares.

EN SOLUCIÓN

INDIRECTO

e

INDIRECTO

-

Fe2+

Fe3+

e Cr (VI)

Cr (III)

EN SOLUCIÓN

171

-

PPy

o

Ppyt

Cr (VI)

Cr (III)

POLÍMERO - SOLUCIÓN

Las eficiencias alcanzadas son muy aceptables, ya que se alcanza hasta el 80 por ciento de eliminación del cromo hexavalente.


Polímeros conductores inteligentes

Materiales inteligentes Un material inteligente es capaz de reconocer estímulos ambientales adecuados, de procesar la información resultante del estímulo y de responder de una manera y a una velocidad consecuente al estímulo. Las características arriba comentadas corresponden a este tipo de materiales, toda vez que estímulos eléctricos externos provocan una variedad de cambios dirigidos en las propiedades de los polímeros conductores, los cuales, a su vez, desencadenan procesos químicos o físicos posteriores para después regresar al estado original (efecto memoria).

Conclusiones Como puede desprenderse de lo expuesto arriba, los polímeros conductores han desencadenado todo un universo químico diferente como ocurrió en las décadas pasadas (de 1950-1970), con el lanzamiento de los polímeros y los plásticos, con la Tercera Química (la Química de coordinación) y la Química de los furelenos (C60), la Química supramolecular y la nanoquímica en 1980-1990. Hoy por hoy, las perspectivas en investigación y aplicaciones tecnológicas de los polímeros conductores son muy amplias e interesantes. 172


Alejandro Baeza

Bibliografía

Arista, P.Díaz., (2001). Construcción de un microsensor a H+ (no membranal) para determinar potenciométricamente el pH (Tesis de Licenciatura), Facultad de Química, UNAM. Borja Arco, E.J., (2002). Determinación del pH en acetonitrilo con microelectrodos miniaturizados a base de polímero conductor (Tesis de Licenciatura), Facultad de Química, UNAM. Nalwa, H.S., (1997). Handbook of Organic Molecules and Polymers, Vol. 2, John Wiley & Sons Ltd. Rajeshwar, K. and Ibáñez, J.G., (1997). Enviromental Electrochemistry, Academic Press. Wallace, G.G., Spinks, G.M. and Teasdale P.R., (1997). Conductive Electroactive Polymers. Intelligent Materials Systems, Technomic Publishing Co. Inc.

173



Caracterización de sistemas poliméricos, para conocer a fondo a las macromoléculas y su comportamiento Joaquín Palacios Alquisira Departamento de Fisicoquímica Facultad de Química, UNAM

Introducción Los sistemas poliméricos se emplean extensamente en el mundo de hoy, también sabemos que son muchos los procesos que usan polímeros como base de sus productos. Estos materiales aparecen en gran cantidad de actividades humanas en forma de sistemas multicomponentes, aunque en algunos casos el material polimérico se usa directamente sin la necesidad de incluir aditivos. Los aditivos comunes de los productos con base en polímeros son muy variados. Con su presencia dentro de una formulación se intenta mejorar las propiedades del sistema en general, dar resistencia y estabilidad al mismo, mejorar su apariencia así como abatir el costo. Por su naturaleza, los polímeros presentan microestructuras complejas, la síntesis de copolímeros abre una amplia gama de posibilidades en cuanto al arreglo de las unidades que lo forman, pues cada estructura presenta propiedades nuevas e interesantes aplicaciones. Por tanto, para caracterizar a un polímero necesitamos información relacionada con su composición, a su configuración, la conformación de las macromoléculas y las propiedades fisicoquímicas, así como la relación que existe entre la microestructura y las propiedades macroscópicas del sistema. Figura 1. Por lo tanto, el concepto de caracterización de un polímero abarca varios aspectos, entre los que se pueden citar la composición química de la muestra y la identificación del material. Nos interesa también investigar cómo están enlazadas o unidas las moléculas de monómero, esto es, su configuración; las posibles orientaciones en el espacio tridimensional de los substituyentes de las cadenas, también interesa conocer la forma como se doblan las macromoléculas sobre sí mismas, cómo se agrupan y ordenan para producir regiones o microfases cristalinas. En el caso de los materiales amorfos, deseamos conocer el volumen libre y su relación con las transiciones térmicas. Por otro lado, hacer la caracterización de un polímero significa determinar sus propiedades fisicoquímicas en general y relacionar a éstas con la microestructura del sistema. A través de una buena caracterización, es posible establecer relaciones causa-efecto entre las técnicas de síntesis del material polimérico y la microestructura del producto.

175


Caracterización de sistemas poliméricos, para conocer a fondo a las macromoléculas y su comportamiento

Macromolécula=Polímero Composición Configuración Conformación

Propiedades fisicoquímicas

Microestructura

Aplicaciones

Figura 1. Caracterización de macromoléculas. Por lo antes expuesto, para caracterizar a un sistema polimérico se puede echar mano de una amplia gama de técnicas analíticas, dirigidas a dar solución a preguntas específicas sobre la microestructura del sistema. En este artículo se presenta una revisión de las técnicas disponibles a la fecha para hacer la caracterización fisicoquímica de las macromoléculas. Se desea, a la vez, dar una breve explicación de los fundamentos teóricos sobre los que se basa cada técnica. También se desea presentar, en forma de resumen, las posibilidades de aplicación de las mismas técnicas para contestar a las preguntas específicas sobre caracterización.

176

Variables de control de la microestructura Debido a la complejidad que presentan los sistemas poliméricos, es necesario considerar las variables de control de la estructura molecular, pues esto nos permite establecer varias rutas de síntesis para su obtención y control.

propiedades macroscópicas y, por tanto, las posibles aplicaciones del mismo. Las reacciones de polimerización que conducen a la obtención de un polímero son procesos aleatorios, de ahí que se produzca una distribución estadística de los tamaños de las macromoléculas. Esto es, en los sistemas poliméricos cuando no se controla la homogeneidad en la distribución de los tamaños moleculares, tendremos presentes moléculas pequeñas, de tamaño intermedio y muy grandes, esto da como resultado el que debamos describir al sistema por medio de parámetros estadísticos, que consideran las tendencias centrales, o sea, los valores de peso molecular promedio y las tendencias o medida de dispersión, llamada desviación standard, en términos puramente estadísticos; en nuestro caso, este parámetro se cuantifica por medio del índice de dispersión ID. La información que nos proporciona el análisis estadístico de los sistemas poliméricos es sumamente importante y puede resumirse en: determinación de los pesos moleculares promedio M y el índice de dispersión ID = M j / M i . El isomerismo geométrico se refiere a la posibilidad de identificar y distinguir macromoléculas, en las cuales aparece un carbono asimétrico portador de un sustituyente R, que puede orientarse en diferentes direcciones del espacio tridimensional. Se han establecido tres posibilidades de isomerismo geométrico que dan lugar al concepto de Tacticidad. Podemos distinguir materiales atácticos, sin orden alguno en la orientación del sustituyente R. Materiales sindiotácticos en

Conviene distinguir entre los homopolímeros formados a partir de la estructura A y los copolímeros que se forman con base en las estructuras A y B. En los sistemas constituidos por moléculas en los que aparece solamente la estructura A, debemos considerar fundamentalmente su peso molecular, la distribución de pesos moleculares, el isomerismo geométrico y estructural. El peso molecular de los homopolímeros y en general de los polímeros, se puede considerar como la propiedad más importante del sistema, ya que de ella dependen las

Figura 2. Isomería geométrica del polipropileno


Joaquín Palacios Alquisira

los que se presenta el sustituyente R, en forma alternada en dos direcciones precisas, y los materiales isotácticos en los cuales el sustituyente R siempre apunta en la misma dirección. Figura 2. El concepto de isomerismo estructural se presenta en las macromoléculas y se refiere a la posibilidad de uniones, cabeza-cabeza y uniones cabeza-cola, cuando en la unidad estructural aparece un grupo distintivo que generalmente presenta electronegatividad específica. Las estructuras características se pueden simplificar o presentar como -CAB-CAB-, -CAB-COL-.

Copolímeros alternados. -A-B-A-B-A-B-A-BCopolímeros al azar, no muestran ninguna tendencia específica en el orden en el que aparecen las unidades A,B. -A-B-B-A-B -ACopolímeros en bloques, en este caso se presentan secuencias específicas de las unidades A,B. Este parámetro o variable de la microestructura macromolecular da lugar al análisis de secuencias dentro de la macromolécula y además establece la posibilidad de un análisis estadístico de la distribución de dichas secuencias. -A-A-A-B-A-A-B-B-BCopolímeros injertados o graft, del término inglés. En este tipo de sistemas la cadena principal se modifica por la presencia de otras cadenas o ramificaciones laterales de la misma naturaleza química o diferente que la cadena principal, sobre la cual se injertan. -A-A-A-A -A-A-A-A (A)n

Figura 3. Cromatografìa en placa fina. Los copolímeros son macromoléculas constituidas por unidades estructurales diferentes, por ejemplo: A,B. En estos sistemas una variable de control de la microestructura, además de las correspondientes a los homopolímeros, es la composición, la cual está dada por la relación molar [A]/[B]. Se presentan dos casos característicos y extremos, los copolímeros homogéneos en composición. En este caso, todas las macromoléculas presentan la misma relación [A]/[B] y los copolímeros heterogéneos en composición, en los cuales no se presenta uniformidad en la composición de las macromoléculas. En el caso anterior tenemos que considerar también la distribución de la composición química del sistema. Otra variable interesante, relativa a la microestructura de un copolímero, está relacionada con el arreglo de las unidades A,B a lo largo de las cadenas. Se presentan cuatro casos característicos:

(A)n’s

(B)n

(B)n’

Estas variables o propiedades de los sistemas macromoleculares, nos permiten un control de la estructura, a través de diferentes posibilidades de las rutas de síntesis, las que se pueden resumir en: adición secuencial de las unidades estructurales o reacciones específicas sobre la cadena principal.

Caracterización de los sistemas poliméricos Después de presentar un panorama general de las variables de control de la microestructura, estudiemos ahora el proceso de caracterización de estos sistemas. Podemos decir que caracterizar a un sistema polimérico significa por tanto, analizarlo, identificarlo, establecer su composición química, su microestructura, posibilidades de isomería, así como determinar sus propiedades fisicoquímicas y la relación que éstas guardan con las propiedades macroscópicas o de bulto del sistema.

177


Caracterización de sistemas poliméricos, para conocer a fondo a las macromoléculas y su comportamiento

técnica de cromatografía muy útil, como primer paso para identificar el número de componentes que se encuentran presentes en el sistema. Figura 3. Para llevar a cabo la operación de fraccionación se han utilizado también los conceptos de distribución de partículas a contracorriente.

Figura 4. Cromatógrafo de líquidos.

Fraccionación El proceso de caracterización de una macromolécula se inicia por medio de una fraccionación, operación que consiste en la separación de aditivos o componentes diferentes al polímero (extraños al sistema). La fraccionación puede hacerse también con base en el peso molecular de los constituyentes del sistema, o en la composición química de las macromoléculas que lo forman.

178

Si continuamos con el proceso de caracterización, centraremos ahora nuestra atención en el tamaño de las macromoléculas. Como su nombre lo indica, las macromoléculas son muy grandes, cuyos pesos moleculares están en el orden de miles o millones de g/gmol. Para determinar esta propiedad característica del sistema, utilizamos técnicas analíticas avanzadas como la cromatografía de exclusión por tamaño molecular (SEC) o la cromatografía de permeación en gel (GPC). En este último caso empleamos empaques de polímeros reticulados empacados en columnas. Figura 4. Los polímeros reticulados se hinchan en presencia del disolvente que se emplea para eluir a las muestras y, de esta manera, se separan las moléculas de polímero de acuerdo con su tamaño, por efecto de difusión a través de los poros o de los canales interpartículas.

La operación de fraccionación se da por medios fisicoquímicos, donde las variables importantes para su control serán: los cambios en la temperatura del sistema, cambios en la composición del eluyente, selección de un par solvente/no solvente, una combinación de las variables anteriores, se ha probado también para separar a los componentes del sistema. La fraccionación puede hacerse como ya se ha mencionado antes, con base en el tamaño de las macromoléculas presentes. Esta técnica se conoce como fraccionación de acuerdo con el peso molecular promedio, con base en la composición química de las macromoléculas, para esto se utilizan las interacciones preferenciales entre el polímero sólido y el líquido disolvente. Existe también la posibilidad de fraccionar a los sistemas poliméricos tomando en consideración la solubilidad que presentan sus componentes, esto nos conduce al empleo de las técnicas: turbidimétricas, de precipitación, de disolución parcial, que equivale a la extracción por coacervación, el empleo de la cromatografía de capa delgada TLC,

Figura 5. Cromatografía en placa fina.


Joaquín Palacios Alquisira

En el caso de la cromatografía por permeación en gel (GPC), también se ha observado y experimentado que se pueden presentar separaciones con base en la interacción, muestra polimérica-soporte o empaque de la columna, lo cual da lugar a diferentes volúmenes de elución, modos diferentes de desplazamiento de los componentes del sistema, originados por diferencias en la constitución química de éstos. La cromatografía de capa fina (TLC) también se ha utilizado con éxito para establecer, de manera cualitativa y cuantitativa los diferentes tamaños de las macromoléculas de un sistema polimérico. Figura 5. En este caso, la elución se da por capilaridad. El disolvente, o la mezcla de disolventes/eluyentes, ascienden a lo largo de la placa, la cual está inclinada con un ángulo de 45º con respecto a la horizontal. De esta manera se favorece el movimiento ascendente de las macromoléculas, originando una serie de manchas características para cada uno de los componentes del sistema, de acuerdo con su peso molecular, los de bajo peso ascienden más que los de alto peso, que permanecen cerca de la base. También se ha utilizado la técnica de fraccionación por campo/flujo (FFF), que nos permite separar a las macromoléculas de acuerdo con su peso molecular, por medio de la aplicación de campos al flujo de la muestra. Se han probado campos térmicos, gradientes de temperatura, campos eléctricos, gradientes de potencial, campos gravitacionales, sedimentación gravitacional y el empleo de flujo cruzado también ha dado buenos resultados.

Técnicas espectroscópicas Para la caracterización e identificación de los sistemas poliméricos, las técnicas espectroscópicas proporcionan una herramienta fundamental. A través de ellas se intenta conocer: la composición, la configuración, la estereoquímica y otras propiedades derivadas de la composición.

Técnicas de resonancia magnética nuclear (NMR) Estas técnicas pueden aplicarse a muestras de polímeros y nos proporcionan información cualitativa y cuantitativa. Se han utilizado núcleos de carbono 13C, de hidrógeno 1H, de silicio 29Si y de nitrógeno 15N, principalmente. La resonancia magnética nuclear de carbono 13C a altos campos, nos proporciona una escala muy amplia de desplazamientos químicos, para los diferentes átomos de carbono presentes en la muestra. La escala va de cero hasta 220 ppm, lo cual facilita enormemente la identificación de los diferentes radicales que constituyen al polímero. Los núcleos de 29Si se han utilizado con éxito para analizar muestras de silicones, polímeros muy empleados en la industria de los materiales con aplicaciones biomédicas. El nitrógeno 15N, permite el análisis de biopolímeros en cuya composición sabemos que aparecen átomos de nitrógeno y son constituyentes de las proteínas, aminoácidos, etc. Mediante las técnicas de resonancia magnética nuclear (NMR) podemos obtener información muy precisa acerca de la composición del sistema; por ejemplo, la relación molar de las unidades que forman a un copolímero. También se puede estudiar la configuración y la estereoquímica de ese material, su tacticidad y el arreglo de las unidades a lo largo de la cadena principal. Los movimientos de grupos de moléculas, grupos de 50 o más de ellas, nos permiten determinar las transiciones de fase terciarias, en un sistema macromolecular. Otra propiedad interesante, que se puede estudiar a través de la resonancia magnética, es la flexibilidad que presentan las macromoléculas.

Figura 6. Equipo de resonancia nuclear.

179


Caracterización de sistemas poliméricos, para conocer a fondo a las macromoléculas y su comportamiento

Si empleamos la espectroscopia IR o Raman podemos detectar varias propiedades fundamentales de las macromoléculas, que permiten la identificación y análisis de éstas. Entre ellas podemos citar: la presencia de grupos funcionales, por ejemplo, los grupos carbonilos, metilos, vinilos, etc.; la cristalinidad de las muestras poliméricas, la cual determina la densidad del sistema, la composición química y la estructura ligada a ésta, que nos conducen al estudio de la configuración de la muestra. La conformación de las macromoléculas también se ha podido detectar por métodos espectroscópicos FTIR-RAMAN. Los cambios inducidos por estrés en películas poliméricas se pueden estudiar con gran precisión, mediante el empleo de esta técnica. Figura 6. Equipo de IRRAMAN.

La formación de redes macromoleculares se da por la presencia de nudos. Los puntos de entrecruzamiento o reticulación, se han determinado de forma precisa mediante la aplicación de esta técnica. Estudios relativos a la cristalinidad, es decir, la identificación de regiones, altamente organizadas en muestras poliméricas, se han reportado también como resultado de los estudios que emplean técnicas de resonancia magnética nuclear. Figura 6.

180

Las reacciones químicas específicas, el avance de la polimerización, la modificación química de la macromolécula y la formación de puntos de reticulación se estudian con mucho éxito mediante el uso de las técnicas de infrarrojo y Raman. Figura 6. Una posibilidad interesante de aplicación de la espectroscopia infrarroja es la técnica de reflectancia total atenuada (ATR), la cual estudia las superficies de las muestras poliméricas proporcionando información relativa a su composición y microestructura. Los estudios en capas o regiones a diferente profundidad, a partir de la superficie de la muestra, son muy frecuentes.

La espectroscopia infrarroja y Raman (FTIR) La espectroscopia infrarroja y Raman (FTIR) es, sin duda, una de las técnicas más empleadas para la caracterización de los sistemas poliméricos. La espectroscopia infrarroja está basada en la absorción de la energía necesaria para que se produzcan transiciones a nivel vibracional y rotacional en las moléculas de los polímeros. Para estas pruebas se ha empleado luz de frecuencia conocida, la cual produce información en su interacción con las macromoléculas. Figura 7. La espectroscopia Raman mide las diferencias de frecuencia entre la luz dispersada y luz empleada para la excitación en los sistemas macromoleculares, que están relacionadas con las energías de las transiciones vibracionales, características de los grupos de átomos que forman a los polímeros.

Figura 7. Equipo de FITR.


Joaquín Palacios Alquisira

La manera adecuada de tratar los datos experimentales que se obtienen a partir de la técnica de espectroscopia FTIR, nos proporciona varias posibilidades de estudio. Podemos analizar los datos FTIR haciendo la sustracción de las bandas del disolvente, de los aditivos e incluso de otros polímeros que pueden encontrarse presentes en la muestra. También podemos hacer un análisis que considere los factores de concentración de las muestras presentes. Se han obtenido buenos resultados y se ha mejorado la interpretación espectral a través de la técnica de deconvolución. El empleo de las técnicas estadísticas de regresión y correlación se emplean de manera rutinaria para la preparación de las curvas de calibración, cuando se desea obtener datos cuantitativos a partir de los experimentos.

Cromatografía de gases Otra técnica analítica desarrollada en el siglo pasado se emplea con éxito para el análisis e identificación de los plásticos: la cromatografía de gases y el análisis de los productos de pirólisis de una muestra polimérica. Por medio de esta técnica se han producido resultados muy valiosos en el área de caracterización de polímeros. Figura 8.

Una tercera posibilidad de análisis muy específico de los polímeros se ha producido por la combinación de las técnicas de masas, infrarrojo y gases. Ésta permite confirmar por medio de los espectros de masas, los resultados que se obtienen simultáneamente en el espectrómetro IR (MS-IR-PY).

Luminiscencia Se ha intentado también con éxito la aplicación de las técnicas de luminiscencia donde la fluorescencia, fosforescencia y quemiluminiscencia son muy empleadas. Estas técnicas están basadas en el empleo de medidas de la luz, emitidas por la muestra polimérica cuando ésta es estimulada o excitada por un haz de intensidad controlada. Los fenómenos de luminiscencia se orientan fundamentalmente al estudio de la cristalinidad de las muestras poliméricas. Los movimientos moleculares o movimientos de grupos importantes de macromoléculas, cambios conformacionales dentro del sistema polimérico se han estudiado también así como los movimientos locales de grupos constituyentes de la macromolécula. Figura 9.

181

Por medio de este tipo de cromatografía podemos hacer la identificación de un producto polimérico, y también determinar la estructura de las macromoléculas y su composición porcentual en el caso de copolímeros, terpolímeros, tetrapolímeros, etc. La estereoquímica de las macromoléculas también se ha estudiado por medio de cromatografía de gases, proporcionando así información muy útil con respecto a la tacticidad y al arreglo de los monómeros dentro de la cadena principal. Se han intentado con éxito varias combinaciones entre la espectroscopía de masas y la cromatografía de los gases producidos por pirólisis (PY-MS). También se ha combinado la espectroscopía infrarroja con la cromatografía de los gases reducidos por pirólisis (IR-PY).

Figura 8. Cromatógrafo de gases.


Caracterización de sistemas poliméricos, para conocer a fondo a las macromoléculas y su comportamiento

Espectroscopía del electrón para aplicaciones químicas (ESCA) Las técnicas relativas a la espectroscopía del electrón para aplicaciones químicas (ESCA) nos permite la caracterización química y estructural de las superficies poliméricas. Figura 10. La técnica está basada en la cuantificación de la energía de los electrones, la cual es directamente proporcional a la energía de unión de este electrón dentro de un compuesto.

Conclusiones Los polímeros son sistemas complejos, para su caracterización será necesario, como primer paso, separar a los diferentes componentes de la formulación. Para lograrlo, empleamos la técnica de separación de las fases, cromatografía líquida o de placa fina. Cuando se cuenta con una muestra de polímero puro, este material debe fraccionarse, para separar la porción de peso molecular más frecuente, así se retiran del sistema fracciones con pesos moleculares altos y bajos. En una segunda etapa de la caracterización, aplicamos las técnicas espectroscópicas como la resonancia magnética nuclear (NMR), la espectroscopia de infrarrojo (FTIR), y la Raman, estas técnicas se pueden complementar unas a otras, así como con el análisis de los gases producidos en un pirolizador acoplado a un cromatógrafo de gases. A manera de un rompecabezas, la información colectada en el proceso de caracterización se integra, con el propósito de determinar la microestructura del material en estudio. Todos estos procedimientos analíticos forman parte del primer paso de la caracterización fisicoquímica de un polímero, nos permite conocer la composición química, la configuración y conformación, pues éstos son los elementos más importantes de la microestructura.

182

Figura 9. Equipo de Fluorescencia.

Figura 10. Equipo de ESCA.


Joaquín Palacios Alquisira

Bibliografía

Barth, H.G. “Size-exclusion Chromatography: Fundamental Principles of Separations Based on Molecular Size” in LC mag. 2(1), 24 (1984), an overwiew of nonsize-exclusion effects; “A Practical Approach to Steric-exclusion Chromatography of Water-soluble Polymers” in J. Chromatogr. Sci. 18, 409 (1980). Bovey, F.A., (1982). “The Carbon-1 NMR Study of Polymer Structure and Dynamics” in Pure Appl. Chem., 54, 559. Bovey, F.A., (1972). High Resolution NMR of Macromolecules, Academic Press, Inc., New York. Cutler, D.J., Hendra, P.J. and Fraser, G. (1980). “Laser Raman Spectroscopy of Synthetic Polymers” in Developments in Polymer Characterization, Vol. 2, pp. 121-130. Ebdon, J.R. (1980). “Copolymer Characterization by 13C NMR” in Developments in Polymer Characterization, Vol. 2. Giddings, J.C., Graff, K.A., Caldwell, K.D. and Meyers, M.N. (1983). “Field-Flow Fractionation, Promising Approach for the Separation and Characterization of Macromolecules” in Adv. Chem. Ser. 203, 257. Havens, J.R. and Koenig,J.L. (1983). “Applications of High-Resolution Carbon-13 Nuclear Magnetic Resonance Spectroscopy to Solid Polymers” in Appl. Spectrosc. 37, 226. Hendra, P.J. (1969). “Laser-Raman Spectra of Polymers” in Adv. Polym. Sci. 6, 151. Inagaki, H. (1977). “Polymer Separation and Characterization by Thin-Layer Chromatography” in Adv. Polym. Sci. 24, 189. Koningsveld, R. (1970). “Preparative an Analytical Aspects of Polymer Fractionation” in Adv. Polym. Sci. 7, 1. Liebman, S.A. and Levy, E.J. (1983). “Pyrolysis Gas Chromatography, Mass Spectrometry, and Fourier Transform IR Spectroscopy: Introductory Material” in Adv. Chem. Ser. 203, 617. Painter, P.C., Coleman, M. M. and Koening, J.L. (1982). The Theory of Vibrational Spectroscopy an Its Application to Polymeric Materials, John Wiley & Sons, Inc., New York. Palacios, J. (1982). Caracterización de copolímeros., Soc. Química de México, México. Reiner, E. and Moran, T. F. (1983). “Pyrolysis/Gas Chromatography/Mass Spectrometry of Biological Macromolecules” in Adv. Chem. Ser. 203, 703. Wolf, C.J., Grayson, M.A. and Fanter, D.L. (1980). “Pyrolysis-GC of Polymers” in Anal. Chem. 52, 348A.

183



Bosones de Higgs: El enigma de la masa* Miguel Ángel Pérez Angón Departamento de Física CINVESTAV

* Una versión preliminar de este artículo fue publicado en Avance y

Perspectiva 12, 273 (1993). Las partículas más elementales que conocemos tienen unas cuantas propiedades intrínsecas sobre las que todavía sabemos muy poco: masa, carga eléctrica y espín (momento angular interno). En la Tabla 1 se presenta el esquema que tenemos para estas partículas, según el modelo estándar de las interacciones fundamentales, propuesto en 1969 por Sheldon Glashow, Abdus Salam y Steven Weinberg, el cual ofrece una descripción cuantitativa y precisa de todos los datos experimentales obtenidos hasta ahora en los grandes aceleradores de partículas. Los tres reinos de la materia mostrados en esta tabla consisten en la familia de leptones (los parientes del electrón), la familia de quarks (los constituyentes del protón, el neutrón y el resto de sus parientes: los hadrones), y cuatro tipos de bosones intermediarios: fotones; bosones vectoriales W+, Z; gluones, gravitones y bosones escalares de Higgs. Los bosones intermediarios reciben este nombre porque, al ser intercambiados entre los leptones o los quarks, generan las cuatro interacciones fundamentales de la naturaleza. Los fotones (γ) generan las interacciones electromagnéticas; los bosones vectoriales (W±, Z) inducen las interacciones débiles (que determinan los decaimientos radiactivos en núcleos atómicos); los gluones (g) producen las interacciones fuertes entre los quarks y son determinantes para la estabilidad de los núcleos atómicos; y los gravitones (G) generan las interacciones gravitacionales. Al igual que los gravitones, los bosones de Higgs (H) no han sido detectados todavía; como su acoplamiento al resto de partículas elementales sería proporcional a la masa de cada una de ellas, la confirmación de su existencia deberá interpretarse como un nuevo tipo de interacción. La carga eléctrica y el espín de las partículas incluidas en la Tabla 1 siguen un patrón bien definido. En cada caso, ambos son múltiplos sencillos de la carga eléctrica del electrón o de la constante de Planck (h) que caracteriza las escalas de energía de los fenómenos físicos involucrados en el mundo atómico. En cambio, el espectro de masas de las partículas elementales no muestra un patrón regular. En el caso de la carga eléctrica y del espín, se dice que presentan un espectro cuantizado debido a que su regularidad involucra saltos (cuantos) de números enteros o fraccionarios (1/2, 1/3, 2/3) y a que su origen se puede remitir a los principios básicos de la mecánica cuántica. En cambio, hasta ahora no contamos con un solo indicio sobre el origen del espectro de masas y, de la falta de regularidad del patrón de masas incluido en la Tabla 1.

185


Bosones de Higgs: el enigma de la masa

Masa (MeV)

Carga (e)

Espín (h)

0.51 10-8 105.65 10-8 1784.1 10-8

±1 0 ±1 0 ±1 0

½ ½ ½ ½ ½ ½

2.8 5-15

±2/3 ±1/3

½ ½

c

1.3-1.7 x 103

±2/3

½

s t b

100-300 175 x 103 4.7-5 x 103

±1/3 ±2/3 ±1/3

½ ½ ½

g Z

0

0

1

91.173 x 103

0

1

W± g

80.22 x 103 0

±1 0

1 1

G (?)

0

0

2

H (?)

>118 x 103

0, ±1, 2,...

0

E ne µ Leptones

Quarks

Bosones Intermediarios

nµ t nt u d

Tabla 1. Los tres reinos de la materia: leptones, quarks y bosones intermediarios. 186

Mecánica clásica La masa juega un papel dual en la mecánica clásica. Hace más de 300 años, Isaac Newton introdujo el concepto de masa en dos de sus leyes más famosas. En la llamada Segunda Ley de Newton, la masa inercial representa la resistencia que ofrece cualquier cuerpo al ser puesto en movimiento. A mayor masa deberá corresponder una fuerza más intensa para acelerarlo, esto es, para cambiarle su estado de movimiento (velocidad). Por otra parte, en la ley de la gravitación universal, que explica la fuerza de atracción entre dos objetos con masa, la masa gravitacional juega el papel de carga o fuente del campo gravitacional: a mayor masa la intensidad de la atracción gravitacional será mayor. Desde la formulación de estas dos leyes surgió la pregunta natural de si existe una relación entre las masas inercial y gravitacional. En 1964 esta duda se disipó con un alto grado

de precisión. Los físicos estadounidenses Peter G. Roll, Robert V. Kortkov y Robert H. Dicke realizaron una serie de experimentos con un sistema muy sensible construido con esferas de aluminio y oro. De acuerdo con sus mediciones, las masas inercial y gravitacional coinciden en valor hasta una parte en cien mil millones. No obstante, para el propósito del presente artículo, basta decir que en la mecánica clásica el concepto de masa se debe considerar como primitivo: no es posible derivarlo de alguna otra propiedad de la materia. Lo único que podemos hacer es medirla, que no es otra cosa que compararla con otra masa estándar.

Relatividad La primera señal de que la masa puede surgir de algo más fundamental vino del dominio de lo muy pequeño. Para la materia ordinaria manipulada en nuestra experiencia cotidiana o en un laboratorio químico, la masa de un objeto compuesto es igual a la suma de las masas de sus partes. Pero para la materia en escala atómica, los núcleos del átomo por ejemplo, cuando dos unidades se combinan en una sola, la masa del objeto compuesto es ligeramente menor que la suma de sus partes. El problema se resolvió con la Teoría de la Relatividad Especial de Einstein: la masa no es una cantidad física conservada, depende del estado de movimiento del objeto y se puede transformar en diferentes tipos de energía. En cambio, la energía total de una partícula o de un sistema sí satisface una ley de conservación si incluimos no sólo la energía cinética, o de movimiento y la energía de interacción, o potencial, sino también la energía en reposo asociada a la masa del sistema según la superconocida ecuación E = mc2. La pequeña diferencia de masa observada en la formación de núcleos o desintegración de partículas está asociada a una transformación de la masa en otro tipo de energía. En su Teoría General de la Relatividad, Einstein postuló la equivalencia de la masa inercial y la masa gravitacional. De ello se sigue que la fuerza gravitacional sobre un objeto no es ahora proporcional a su masa, sino a su energía. Como consecuencia, esta teoría contempla la predicción –ya verificada durante los eclipses solares- de que el fotón, la partícula sin masa que resulta de la cuantización del campo electromagnético, es también atraído por el campo gravitacional. Sin embargo, aún con estos avances sobre la naturaleza de la masa, en ambas


Miguel Angel Pérez Angón

teorías de la relatividad la masa sigue utilizándose como un concepto primitivo.

Electrodinámica La posibilidad de que la masa de las partículas pudiera surgir de un proceso dinámico se originó en la electrodinámica clásica. A principios del siglo pasado, el físico holandés Hendrik Lorentz consideró la autoenergía generada por el campo electromagnético como la fuente de la masa. Propuso un modelo muy sencillo del electrón: una esfera de radio a con una distribución de carga eléctrica distribuida de manera uniforme. Calculó la energía electromagnética generada por esta distribución de carga y la identificó con la masa del electrón: m = e2/c2a, donde e es la carga eléctrica y c la velocidad de la luz. Este resultado parece satisfactorio a primera vista, excepto por un pequeño problema: como el electrón parece no tener tamaño –lo único que sabemos es que debe ser menor que 10-16 cm–, la masa del electrón se haría infinita (diverge, en la terminología matemática) en el límite ideal de un radio puntual (a → o). En la electrodinámica cuántica la situación mejora ligeramente. Esta teoría es resultado de exigir que se satisfagan en forma simultánea para el electrón y su campo electromagnético (o los fotones), los principios de la relatividad especial, la mecánica cuántica y las ecuaciones de Maxwell, que describen el campo electromagnético mismo. Como resultado se obtiene la electrodinámica cuántica, una de las teorías más poderosas, en términos predictivos, que han podido construir los físicos. La masa del electrón, en esta teoría, se puede explicar también como la autoenergía que resulta de la interacción relativista del electrón con los fotones. En la Figura 1 se muestra el desarrollo perturbativo involucrado en el cálculo de esta interacción como una emisión y absorción de fotones (γ). El resultado que se obtiene ahora para la masa del electrón es m = mo (e2/hc) _n (h/moca), donde ahora mo es la masa (desnuda y desconocida) del electrón en ausencia de interacciones y el radio del electrón está asociado al inverso de una energía, que define la escala de energía de interacción del electrón con su propio campo electromagnético (Λ).

Figura 1. Diagramas de Feynman utilizados para calcular en una serie perturbativa la autoenergía del electrón (e) inducida por emisión y absorción de fotones (γ).

En este esquema se obtiene de nuevo una masa divergente (infinita) en el límite ideal del radio puntual para el electrón. No obstante, la novedad es que el grado de divergencia (logarítmica) es mucho más suave que en el caso clásico del modelo de Lorentz. Además, resulta que nuestro grado de ignorancia sobre la masa desnuda (mo) y la escala de energía (Λ) se puede aprovechar en nuestro beneficio, dentro de un esquema matemático autoconsistente de renormalización, para absorber estas cantidades divergentes y mantener el poder predictivo de la teoría en términos de sólo cantidades físicas bien definidas (finitas). Sin embargo, el costo que se paga con ello es la pérdida de la predicción para la masa del electrón y en la electrodinámica cuántica, volvemos a tenerla como un concepto primitivo. 187

Mecanismo de Higgs El modelo estándar de las interacciones electrodébiles introduce un mecanismo de generación de masas, conocido como mecanismo de Higgs, que resulta ser el primer intento exitoso en explicar la masa de las partículas elementales a partir de otros principios más básicos. En esencia, el modelo estándar predice que la masa de cada partícula debe estar determinada por tres parámetros: m = λgν , donde λ es una constante numérica asociada a grados de libertad internos de cada partícula, g es la constante de acoplamiento semidébil –y que ya está medida con mucha precisión a través del decaimiento del muón, como se ilustra en la figura 2–, y ν es una cantidad en unidades de energía asociada a la autointeracción de un nuevo tipo de partícula: el bosón de Higgs (H).


Bosones de Higgs: el enigma de la masa

Simetrías En el lenguaje de la Física se dice que hay una simetría cuando existe una invariancia de una ley física, con respecto de las transformaciones que actúan sobre los elementos que participan en ella. Por ejemplo, el campo de una carga eléctrica tiene simetría esférica porque las ecuaciones que lo describen son invariantes frente a rotaciones espaciales. Las simetrías pueden incluir transformaciones de naturaleza no geométrica, en cuyo caso se dice que son simetrías internas o globales, como por ejemplo las asociadas a la conservación de la carga eléctrica. Si las transformaciones dependen de las coordenadas espacio-temporales del punto donde se aplica, se dice que son simetrías locales. La simetría llamada de norma del modelo estándar, pertenece a este último tipo. Figura 2. Decaimiento β del muón (µ) en dos neutrinos (νµ ,νe) y un electrón (e), inducido por el intercambio de un bosón vectorial W.

188

En el estado actual de desarrollo del modelo estándar, y mientras no se haya detectado esta partícula H, no es posible determinar si el bosón de Higgs es, en realidad, una nueva partícula elemental –con el mismo grado de estructura que el electrón– o es tan sólo una partícula compuesta por otros constituyentes más fundamentales. Lo único que sabemos es que su presencia dentro del modelo estándar, es necesaria para que sea una teoría autoconsistente y predictiva –al mismo nivel que la electrodinámica cuántica–, a tal grado que sus predicciones concuerdan con todos los resultados obtenidos hasta hoy en los laboratorios de los grandes aceleradores de partículas. Antes de abordar el misterio que rodea a los bosones de Higgs, es necesario recordar brevemente los actuales paradigmas de las teorías cuánticas del campo: los modelos matemáticos que surgen de la unificación de la relatividad especial y la mecánica cuántica, de los cuales el modelo estándar y la electrodinámica cuántica son dos ejemplos particulares. Entre dichos paradigmas se encuentran el concepto de simetría, el principio de invariancia ante transformaciones de norma, el rompimiento espontáneo de la simetría y el proceso de renormalización.

Principio de norma Las teorías que describen las interacciones entre las partículas elementales satisfacen dos propiedades fundamentales: 1) Se derivan de un principio geométrico asociado con la invariancia ante transformaciones de norma locales. Son transformaciones de norma porque no cambian la magnitud de las probabilidades de transición entre diferentes estados del sistema. 2) Este principio determina además la dinámica del sistema, esto es, las ecuaciones que describen su movimiento. En particular, predice que los transmisores de la interacción son los bosones intermediarios o de norma: el fotón para la interacción electromagnética; los bosones W+ y Zo para la interacción nuclear débil; los gluones para la interacción nuclear fuerte, y los gravitones para las interacciones gravitacionales.

Rompimiento de la simetría En el mundo real muy pocas simetrías (invariancias) se manifiestan en forma exacta. Sólo después de que se demostró que las simetrías pueden ser rotas en forma espontánea, ha sido posible reconciliar la complejidad del mundo real con principios de simetría universales. La superconductividad y el ferromagnetismo son ejemplos de procesos donde


Miguel Angel Pérez Angón

se rompe espontáneamente la simetría. La base de este mecanismo está en que la solución de un problema no necesita mostrar ningún indicio de la simetría de las ecuaciones de movimiento originales. El ejemplo clásico es un imán (por ejemplo, la aguja de una brújula) para el cual las ecuaciones que describen el metal no distinguen una dirección preferente del espacio (son invariantes ante rotaciones): no obstante esto, el imán, que es una solución a estas ecuaciones, sí lo hace, ya que su magnetismo apunta en una dirección bien definida y única. Una forma más pictórica de apreciar el rompimiento de una simetría, en este caso ante reflexiones espaciales o simetría especular, se da en el diseño del Calendario Azteca o Piedra del Sol, mostrado en forma esquemática en la Figura 3. En este caso la simetría ante reflexiones del eje vertical del calendario está rota en algunos detalles (los glifos de los meses, de las cuatro eras anteriores a la actual y de Tezcatlipoca y Huitzilopochtli, las dos deidades que rematan las serpientes estilizadas en el perímetro del diseño), los cuales se muestran sombreadas en medio tono. En palabras de T. D. Lee, Premio Nobel de Física de 1961, “el Calendario Azteca exhibe un patrón de simetría (especular) que, sin ser perfecto, aumenta la belleza y el poderío del órden cósmico que esta escultura representa”. En el caso de las teorías de norma, la simetría original se rompe espontáneamente mediante el llamado mecanismo de Higgs. Se realiza partiendo de un campo que es invariante ante la simetría interna del estado base o de mínima energía (Figura 4). Para que la teoría resultante tenga sentido, es necesario cambiar de estado base (pasar del punto Φ = 0 a Φ = n en la Figura 4), y como resultado se rompe la simetría especular de la curva en forma de la letra W y se generan las masas de los fermiones y bosones de norma, a través de la interacción del campo de Higgs con ellos mismos. De esta manera, adquieren masa los bosones W+ y Zo pero no el fotón; la interacción electromagnética sigue siendo de largo alcance, mientras que la nuclear débil se transforma en una de corto alcance, determinado por el inverso de la masa del W+ y Zo (del orden del 10-15 metros).

Figura 3. Diseño esquemático del Calendario Azteca, donde se muestran, en regiones sombreadas, las partes que rompen la simetría especular de la escultura.

189

Figura 4. Potencial de autointeracción del bosón de Higgs en el modelo estándar.


Bosones de Higgs: el enigma de la masa

Renormalización La descripción matemática de las teorías cuánticas de campo está plagada, en general, de divergencias. Se ha encontrado que sólo en un número muy reducido de teorías cuánticas del campo, estas divergencias se pueden eliminar con el método denominado de renormalización. En estas teorías se pueden hacer predicciones concretas, verificables experimentalmente, con un número reducido de parámetros libres. En el caso de las teorías de norma locales, se encontró que únicamente las que describen campos de norma sin masa son renormalizables; pero si su masa se genera a través del mecanismo de Higgs, entonces se preserva la renormalizabilidad de la teoría original. Por este motivo, es indispensable verificar si existe el bosón de Higgs (H), que fue predicho por el modelo estándar.

Producción y detección de bosones de Higgs

190

Dado que el bosón de Higgs se acopla a las demás partículas de manera proporcional a su masa, tenderá a decaer principalmente en las partículas más pesadas que sean accesibles al valor específico de la masa del H. Se supone que su masa no es muy pequeña, pues de otra manera ya habría sido observado en los decaimientos de las partículas conocidas. En la Figura 5 se muestran dos de los procesos más probables de producción de H. En la Figura 5 (a) se muestra un proceso de aniquilación de haces de electrones y positrones -como sería el caso en el acelerador LEP (Large Electron-Positron Collider) del Centro Europeo de Investigaciones Nucleares (CERN) de Ginebra, Suiza. En la Figura 5 (b) se muestra un proceso de producción a través de colisiones protón-antiprotón, como sería el caso en el acelerador norteamericano denominado Tevatrón, situado en el Laboratorio Nacional de Fermi (Fermilab), en la ciudad de Chicago.

Figura 5. Procesos de producción de bosones de Higgs en colisionadores e+e- y pp.

En la Figura 6 se muestran tres de los principales canales de decaimiento de H. El primero (Figura 6 (a)) involucra la producción de un par de quarks pesados t, que una vez producidos, tienden a generar chorros de partículas más ligeras (como piones, neutrones, etcétera) a través de las interacciones fuertes. Si la masa del H duplica la masa de los bosones W+ y Z (200 veces la masa del protón), entonces se desintegrará en un par de este tipo de bosones (Figura 6 (b)). La dificultad radica en que todavía no contamos con aceleradores que puedan producir este tipo de bosón de Higgs. En la Figura 6 (c) se muestra el decaimiento del H en dos fotones o un par fotón-Z, que es inducido por un proceso más complejo, como se indica en la misma figura, que no ocurre en la aproximación más simple de la teoría. De acuerdo con esto, se espera que la probabilidad de que ocurra este decaimiento sea menor que la de los procesos mostrados en las Figuras 6 (a) y 6 (b); no obstante, se ha encontrado que bajo determinadas condiciones, como las que se espera tengan futuros aceleradores e+e- (TESLA), se podrán detectar bosones de Higgs a través de estos decaimientos raros. Lo que ocurre es que la baja incidencia de este fenómeno se compensa fácilmente por lo claro de su señal experimental . Por ejemplo, en el modo de dos fotones es bastante sencillo detectar dos fotones coincidentes, provenientes del mismo punto de producción, que tengan la misma energía (monocromática), bien definida y única, que es igual a la mitad del valor de la masa del H.


Miguel Angel Pérez Angón

Figura 6. Principales procesos de decaimiento del bosón de Higgs.

Para concluir esta nota, conviene subrayar que el descubrimiento del bosón de Higgs (H) confirmará el modelo estándar de las interacciones electrodébiles. Cualquier variación de la física esperada para los bosones de Higgs nos indicará la dirección en que tendremos que generalizar el modelo estándar. Incluso si H no se produce en los futuros aceleradores como el LHC (Large Hadron Collider, CERN), ya sea porque es más pesado que 850 veces la masa del protón o porque no exista en realidad, tendremos oportunidad de averiguar las características de fenómenos nuevos que ocurren a altas energías. Finalmente, estas interacciones nos revelarán también la naturaleza del rompimiento espontáneo de la simetría entre las interacciones electromagnéticas y débiles; entonces, nos aclararán las bases físicas del origen de la masa.

191


Bosones de Higgs: el enigma de la masa

Bibliografía Díaz Cruz, J.L., Martínez, R., Pérez, M. A. y Toscano, J. J., (1993). Rev. Mex. Fís. 39, 501. Gunion, J., Haber, H., Kane, G. y Dawson, S., (1992). The Higgs Hunter´s Guide. Addison-Wesley, Reading. Lee, T.D., (1972). Symmetry principles in physics. Cinvestav, México. Nambu, Y., (may/june 1992). The Sciences, p. 37. Pérez, M.A., (1989). Inf. Cient. Tec. 159, 48. Pérez, M.A. y Toscano, J.J., (1992). Phys. Lett. 289, 281.

192


Editorial Algunos retos de la Química en el siglo XXI Ronald Breslow Andoni Garritz

El cambio de siglo y de milenio ha dado mucho de qué hablar sobre el futuro de las ciencias. Recogemos aquí varios de los retos mencionados en la literatura para la Química durante el presente siglo. A Andoni Garritz lo ha inspirado en esta tarea una conferencia de Ronald Breslow (2002) y un libro del mismo autor (1997), a quien está sumamente agradecido por haberle proporcionado los acetatos de su conferencia y por haber aceptado ser coautor de esta editorial. También hemos podido reunir las opiniones emitidas sobre el particular por tres grandes científicos británicos: Peter Atkins (2000), Norman Greenwood (2000) y David Rice (2000). Igualmente, hemos abrevado de otros trabajos estadounidenses sobre el tema, como los de Baum (1999), Gwynne (2001), al igual que los de la sección “New Voices in Chemistry”, publicada con motivo del 125 aniversario de la American Chemical Society, y los de la revista de Scientific American (2001) sobre nanotecnología. Hemos logrado adicionalmente recuperar la opinión al respecto de cuatro grandes científicos mexicanos: por una parte nuestro muy recordado Jacobo Gómez Lara (1998), y por la otra a Eusebio Juaristi (1999) y a Norah Barba y Rosalinda Contreras (2000). Igualmente, hemos recogido la opinión vertida por la renombrada fisicoquímica argentina Lydia Cascarini (1999) en esta misma publicación. Agradezco igualmente a Jorge Vázquez y Eduardo Bárzana por haberme compartido sus consideraciones sobre los retos de la Bioquímica y de la Biocatálisis. Hemos agrupado los retos de acuerdo a su naturaleza, aunque muchos de ellos tienen variados impactos y debieran por ello ubicarse en dos o más apartados.

193


Editorial. Algunos retos de la Química en el siglo XXI

Retos de la Bioquímica

• Necesitamos aprender por qué las enzimas son tan efectivas, de tal manera que podamos diseñar catalizadores biomiméticos artificiales que funcionen tan bien como las mejores enzimas.

• Requerimos hacer sistemas químicos organizados que imiten el funcionamiento de las células biológicas o que se desempeñen como máquinas diminutas. La Química está cambiando de reduccionista a integracionista.

• Una de las áreas que más impulso ha tenido hasta ahora es la que se refiere a la genómica y sus derivaciones. Los genomas de humano, de microorganismos que afectan al humano, de plantas de importancia agrícola, y otros, han sido secuenciados o se encuentran en proceso de secuenciación. El haber secuenciado todo el genoma humano abrió grandes perspectivas sobre la posibilidad de conocer los genes que intervienen en los procesos de desarrollo normal y patológicos.

Con estos elementos, podremos caminar hacia la creación de computadoras biónicas, que incorporen la forma en que funcionan las neuronas, la solución pues, al problema de la inteligencia artificial.

• Otra área que habrá de tener gran impulso es la biotransformación por la vía de la Ingeniería genética, y que se enriquecerá con el avance de la genómica y sus variantes. Casi todos los aspectos de la vida en el futuro podrían depender de una utilización racional, inteligente y con sentido biológico de esta área de la ciencia, incluyendo las ciencias de los alimentos y de la ecología, la biomedicina o la agricultura. Mientras que el potencial para explotar tecnológicamente los conocimientos genéticos existe, y sería relativamente fácil implementarlos a gran escala, los conocimientos y discusión sobre las repercusiones biológicas, ecológicas, sociales y éticas de su uso masivo son todavía marginales. El gran reto para este siglo es el descubrir cómo usar estas herramientas científicas para el provecho de la humanidad en su conjunto, sin destruir el equilibrio biológico de nuestro planeta, o polarizar aún más a la ya de por sí desequilibrada sociedad mundial.

• Es tiempo de empezar a aplicar el conocimiento del

194

genoma humano, para resolver problemas de enfermedades genéticas mediante la reparación del gene específico que las causa y, con la ayuda de la Química combinatoria, el diseño de todo un cuerno de la abundancia de nuevos fármacos hechos a la medida de cada paciente que atienda sus enfermedades de forma individual.

• El estudio de la expresión génica, sea como el transcriptoma (mensajes derivados de los genes y que se expresan en un estado o condición fisiológica dados) o como el proteoma (proteínas que se sintetizan en un estado o condición fisiológica dados) cobrarán cada vez más impulso en los siguientes años. Una nueva variante, la metabolómica, se concentrará en estudiar los tipos de reacciones metabólicas y productos sintetizados y acumulados en un estado o condición fisiológica particular. Sólo así se podrá tener una verdadera integración entre genoma y funcionamiento celular.

• En la ciencia que subyace bajo estos objetivos prácticos, requerimos entender completamente la química de la vida, incluyendo la química del cerebro y de la memoria.

Retos de la Química medicinal

• La Química medicinal es una de nuestras ramas más exitosas, mediante la cual hemos producido los antibióticos y otros medicamentos que han incrementado la esperanza de vida de 47 años en 1900, a por encima de los 75 años hoy. Sin embargo, todavía necesitamos agentes antivirales efectivos y nuevos antibióticos para enfrentar a las bacterias resistentes. La malaria y la amibiasis siguen constituyendo una verdadera calamidad.

• Necesitamos medicamentos para curar el cáncer, prevenir los derrames cerebrales, atacar las enfermedades del corazón, el mal de Alzheimer, la hipertensión arterial, la osteoporosis, la obesidad, los defectos genéticos, la esquizofrenia, la diabetes, la artritis y otros problemas, tan importantes como el síndrome de inmunodeficiencia adquirida (sida).

• Los métodos para el desarrollo de fármacos habrán de ser cada vez más racionales, empleando el modelaje molecular para el diseño específico de ligantes a partir de la estructura precisa del sitio activo.


Ronald Breslow - Andoni Garritz

• Requerimos mejores maneras de dispensar los medicamentos a sus blancos, incluyendo dispositivos como un páncreas artificial que pueda detectar niveles de glucosa y añadir la cantidad necesaria de insulina.

• Necesitamos materiales biocompatibles para reemplazos de órganos, así como para huesos y dientes artificiales. Dicha biocompatibilidad tendrá que ver con el reconocimiento molecular específico de los órganos, para que no sean rechazados por el organismo.

Retos de la alimentación

• Precisamos de productos químicos para la alimentación que preserven y mejoren nuestras dietas con seguridad incuestionable.

• Necesitamos el desarrollo de variantes genéticas de plantas que presenten resistencia a las plagas, a la escasez de agua y de nutrientes. No hay duda de que la ingeniería genética jugará un papel mayor en la alimentación de la población mundial en este siglo, aunque su adopción se enfrenta a otros retos en el camino, debido al miedo público (sobre todo en Europa) a la manipulación genética. Los organismos genéticamente modificados se encuentran en un periodo crítico actualmente, del cual habremos de salir por medio de la investigación acuciosa de sus posibles impactos.

• Requerimos

el desarrollo de productos agroquímicos que mejoren aún más el rendimiento de los cultivos. Por ejemplo, un gran acierto para este siglo significaría la síntesis de un compuesto capaz de llevar a cabo la fijación del nitrógeno atmosférico a condiciones ambientales, de la misma forma que la realiza la enzima nitrogenasa en los nódulos de la raíz de las leguminosas. Sería como una forma de proveer al reino vegetal de un fertilizante eficiente que, manejado apropiadamente, aumentaría los rendimientos de las cosechas sin agotamiento ni contaminación de los suelos.

Retos en materiales

• Requerimos materiales estructurales mejorados, probablemente compositos basados en resinas o en cerámicas, que sean estables a altas temperaturas y fácilmente maquinados. La Química es una ciencia excitante y creativa, y parece que no existe fin para sintetizar nuevos tipos de compuestos, enlaces y características estructurales novedosas, que los químicos podrán sin duda desarrollar.

• Necesitamos materiales con propiedades eléctricas y ópticas útiles, incluyendo superconductores de alta temperatura.

• Precisamos protección superficial que sea de verdad duradera y resistente (una pintura que dure 100 años).

• Necesitamos entender la química de moléculas grandes, incluyendo biopolímeros, tan bien como comprendemos la Química de pequeñas moléculas.

• Requerimos reaprovechar muchos de los materiales que solemos enviar a la basura, mediante su reciclado.

• Nos esperan nuevos resultados en el área de la nanotecnología. Debemos estar preparados para desarrollar nuevos métodos analíticos para preparar y manipular estructuras de dimensiones moleculares, tendiendo hacia la fabricación de computadoras de tamaño molecular, monitores realmente pequeños, dispositivos fotónicos y electrónicos, nanorresistores y nanocables, así como materiales de verdad resistentes a partir de nanotubos de carbono, entre otras cuestiones.

Retos ambientales

• Las manufacturas y productos químicos deben ser ambiental y biológicamente benéficos, nunca perjudiciales.

• Debemos aprender cómo hacer productos, incluidos los refrigerantes, que sean estables a lo largo de su vida, pero que se degraden de manera que no persistan en el ambiente o en los seres vivos.

195


Editorial. Algunos retos de la Química en el siglo XXI

• Precisamos desarrollar catalizadores selectivos, que nos permitan manufacturar productos útiles, incluyendo polímeros, sin producir basura no deseada y sin emplear energía excesiva.

• Los problemas de hambrunas y de mala alimentación

que no sea nuestra intención afectar, de ninguna manera.

serán más controlables cuando detengamos el crecimiento de la población, en este punto la Química habrá de contribuir con la producción de anticonceptivos femeninos y masculinos más eficientes y seguros.

• Necesitamos aprender cómo concentrar y manejar las

• Vivir hasta la edad de 120 años no será inusual en

• Requerimos insecticidas que no perjudiquen a objetivos

del calentamiento global del planeta, dependiendo menos de la energía proveniente de los combustibles fósiles.

este siglo y tendremos que repensar cómo la vida humana se organiza con la creciente población de adultos mayores, cada vez más longevos. En 1998 había 66 millones de personas con 80 o más años, es decir, una de cada 100. Este número se multiplicará por seis hacia el año 2050, cuando alcanzará 370 millones de gentes, una de cada 24 personas tendrá 80 o más años. Hacia 2050, ¡más de 2.2 millones de personas tendrán 100 o más años!

• El problema del suministro de agua potable a las grandes

• Otro reto que habrá que encarar es dar igualdad de

ciudades es muy grave e irá empeorando. Requerimos dejar de contaminar el agua líquida, así como aprender a descontaminarla en grandes cantidades, y encontrar formas rentables de desalinizar el agua de mar.

• Las necesidades de salud, educación, habitación, vestido

basuras radiactivas de las plantas de energía nuclear.

• Precisamos no cejar en el esfuerzo de reconstituir la capa de ozono en la estratosfera.

• Requerimos ponernos de acuerdo para atacar el problema

Retos en energía 196

Retos sociales

• Es previsible que durante este siglo la fusión nuclear controlada se convierta en una realidad y que compita y supere a la alternativa de la fisión nuclear. Otra alternativa promisoria la constituye el abaratamiento de la energía eólica y de la fotovoltaica.

• Necesitamos diseñar baterías baratas que hagan verdaderamente prácticos los vehículos eléctricos, baterías que sean fácilmente recargables y con alta energía por unidad de peso.

• Requerimos una manera de almacenar y transportar hidrógeno con seguridad, de tal forma que pueda ser utilizado en la celda de combustible de un automóvil, produciéndose vapor de agua como producto de la reacción. La economía de hidrógeno depende de la idea de que podamos generar este elemento en un lugar apropiado, tal como una planta nuclear, y entonces transportarlo como un combustible.

oportunidades en Química a las mujeres frente a los hombres.

y sustento, transporte y recreación decorosos para una población todavía creciente, seguirá planteando la necesidad de producir mejores alimentos, medicamentos, materiales, telas, automóviles, etcétera.

Retos contra el terrorismo

• Requerimos aprender cómo detectar explosivos en contenedores cerrados, tales como minas o equipaje.

• Precisamos aprender a detectar y desintoxicar los agentes de guerra química y las armas bioterroristas.

Retos en cómputo

• Necesitamos desarrollar transistores a escala molecular, para encoger las computadoras a la nanoescala.

• Necesitamos

desarrollar métodos computacionales que de manera realista predigan las propiedades de compuestos desconocidos, incluyendo los mecanismos


Ronald Breslow - Andoni Garritz

por los cuales participarán en reacciones. Hacia esta área se orientarán los cursos de Fisicoquímica del futuro, hacia el modelado y la dinámica molecular, así como hacia la visualización de propiedades.

• Requerimos métodos computacionales para predecir la estructura tridimensional de una proteína a partir de su secuencia de aminoácidos, de tal forma que la información que da la secuencia del genoma humano pueda ser traducida a las estructuras proteicas que están codificadas.

• Igualmente, pronto estaremos calculando interacciones en tiempo real entre grandes moléculas tridimensionales.

• Pronto evolucionarán nuevos enfoques teóricos que nos ayudarán a comprender mejor el enlace químico y las reacciones, y nos llevarán a probar estas nuevas teorías sobre sistemas químicos reales.

Retos de síntesis

• Precisamos

desarrollar métodos sintéticos que nos permitan hacer todas las moléculas importantes con rendimientos razonables y empleando esquemas sintéticos compactos y poca energía, de tal manera que ningún compuesto útil sea inaccesible para su síntesis práctica. La Química es una ciencia creativa, donde la síntesis de nuevos materiales es una actividad central.

• Es de esperarse que en un futuro cercano se habrán desarrollado ya métodos prácticos para la preparación de cualquier tipo de compuestos quirales. Esto requerirá habilidades mecánicas, ingenuidad creativa y un profundo conocimiento del tema.

• Requerimos perfeccionar las herramientas para estudiar mecanismos de reacción, de tal manera de que observemos directamente el proceso y podamos diseñar catalizadores basados en nuestro conocimiento.

• Necesitamos mejorar nuestras herramientas para determinar estructuras, de forma que no represente un reto la síntesis de pequeñas cantidades de materiales no cristalinos.

• Esperamos pronto sintetizar moléculas que se autorepliquen y reacciones químicas que se autocorrijan.

• Requerimos un mejor entendimiento de las reacciones que tienen lugar sobre intercaras y sobre superficies, en particular las reacciones catalíticas.

Retos de la biocatálisis

• La biocatálisis tendrá una importancia creciente en el área de la síntesis orgánica, desplazando procedimientos tradicionales o generando nuevas vías para productos conocidos o nuevos. Pensemos en los mercados típicos de anticancerígenos o los tratamientos preventivos para enfermedades genéricas como la hepatitis o la influenza.

• El mercado de productos farmacéuticos es de tales magnitudes que da cabida a procesos más caros, pero que redunden en mayores purezas y altos excesos enantioméricos, aspectos en los que la biocatálisis presenta sus mejores ventajas con relación a la catálisis inorgánica.

• Aunque parezca contradictorio, las nuevas habilidades de manipulación genética que permiten la producción de biocatalizadores más estables y baratos, que la generación anterior, deberán contribuir a desarrollar y consolidar las aplicaciones biocatalíticas en productos masivos, inclusive en procesos de un solo ciclo. Como ejemplos podemos citar a la industria papelera, la producción de químicos básicos como acrilatos, el tratamiento de aguas residuales industriales, o inclusive en aplicaciones petroleras. Esto último deberá llevar a las denominadas biorefinerías para mediados del siglo XXI.

Retos de la Química supramolecular

• Se espera que pronto aprendamos sobre las fuerzas de interacción intermolecular no covalentes, responsables del reconocimiento molecular, así como de los cambios conformacionales que resultan de la asociación.

197


Editorial. Algunos retos de la Química en el siglo XXI

• Entre

las líneas de investigación de mayor interés están el desarrollo de dispositivos moleculares capaces de efectuar tareas como la transferencia de información, cooperatividad de funciones, catálisis y autoreproducción.

Retos de la Química interestelar

• Requerimos extender nuestra visión química de cómo la vida pudo surgir espontáneamente sobre la Tierra o en cualquier parte.

• Necesitamos entender la Química que ocurre en el espacio interplanetario e interestelar, donde la espectroscopia es nuestra herramienta principal.

198

Éstos son algunos, pero sólo algunos, de los retos que la Química va a encarar durante este siglo. Nuestro campo ha sido sorprendente en su capacidad de resolver problemas no más sencillos que éstos. Sin embargo, hay una predicción más acerca del progreso que puede hacerse con absoluta certidumbre: los químicos saldrán con invenciones y descubrimientos que no están abarcados en una lista de objetivos como ésta, y diremos: ¿Por qué nunca pensamos en esto? Tenemos acceso a un gran número de estudiantes en nuestros cursos de Química: ¡Hagámoslos embajadores entusiastas de esta excitante ciencia!


Ronald Breslow - Andoni Garritz

Referencias 1

ACS, (March 26, 2001). “New Voices in Chemistry: Young Chemist Look at the Future”, pages 51-291, Chemical & Engineering News.

2

Atkins, P., (2000). “Comment 2000. Reflections and hopes from leading chemists”, Education in Chemistry 37(2), 39.

3

Barba, N. y Contreras, R., (2000). “La química en México”, en Las ciencias exactas en México, Arturo Menchaca, coordinador, págs. 144-177, Fondo de Cultura Económica, México.

4

Baum, R.M., (December 6, 1999). “Putting The New Millenium in Perspective”, Chemical & Engineering News, pp. 45-47, Following this paper a special repot called Millennial Musings follows, with five papers related with the theme “Millennium Special Report: Chemistry in the Service of Humanity”.

5

Breslow, R., (1997). Chemistry Today and Tomorrow. The Central, Useful and Creative Science, American Chemical Society, Washington.

6

Breslow, R., (27 de julio de 2002). “The Reputation of Chemistry”, conferencia plenaria presentada en la 17th Biennial Conference on Chemical Education, Western Washington University, Bellingham.

7

Cascarini de Torre, L.E., (1999). “La Química hacia los albores del siglo XXI”, Educ. Quím. 10 (1), 25-29.

8

Contreras, R., (julio de 2002). “En la Química, todo está por hacerse: Dra. Contreras Theurel”, conferen-cia informada en la Gaceta de la Facultad de Química, UNAM, México, págs. 3 y 4, VI época, número 63.

9

Greenwood, N., (2000). “Comment 2000. Reflections and hopes from leading chemists”, Education in Chemistry 37(5), 122.

10

Gwynne, P., (2001). “25 Years of Hot Fields in Chemistry”, Chemistry, anniversary issue.

11

Juaristi, E., (1999). “Desarrollo y aplicación de la química en el siglo XXI”, Educ. Quím. 10 (1), 8-12.

12

Gómez Lara, J., (1998). “Los conceptos químicos en el umbral del siglo XXI”, en Ciencias de la Materia. Génesis y evolución de sus conceptos fundamentales, Luis de la Peña, Coordinador, págs. 205-239, Siglo XXI Editores, México.

13

Rice, D., (2000). “Comment 2000. Reflections and hopes from leading chemists”, Education in Chemistry 37(6), 150.

14

Scientific American, (septiembre de 2001). “Nanotech. The science of the Small Gets Down to Business”.

199



Situación del VIH-Sida José Luis Domínguez Torix Alicia Gorab Ramírez Dirección General del Servicio Médico Universitario, UNAM

Antecedentes

En 1981 no conocíamos nada relacionado con el sida, no se sabía que existía y qué significaba. Un año antes supieron de su existencia en Francia, el grupo de investigadores de Luc Montagnier en el Instituto Pasteur de París, al estudiar un ganglio procedente de un conocido artista homosexual que había muerto de diversos padecimientos, pero principalmente de una neumonía causada por un microorganismo que en personas sanas está como saprofito, el Pneumocystis carinii. Encontraron en el ganglio un virus cuyas características lo singularizaron desde un principio: formado por cadenas de proteínas específicas tanto en su exterior como en su interior, y particularmente una enzima, la transcriptasa inversa, por lo que fue clasificada dentro de la familia retroviridae. Otra característica fue el hecho de que se hospedaba en los leucocitos encargados de la producción de la inmunidad (los linfocitos). Al utilizar el material genético del linfocito, gracias a la participación de la enzima mencionada, el virus se replica en proporción geométrica y destruye a las células invadidas para infectar otras, de este modo disminuyen los linfocitos T colaboradores, T4 o TH, dichas células poseen un receptor especial colocado en la superficie de la membrana celular conocido como OK4 o CD4. Los virus tienen glucoproteínas 110/120 en su superficie y éstas son las responsables de que reconozcan y se adhieran exclusivamente a los linfocitos portadores de los receptores mencionados.

Historia Dadas sus características genéticas y estructurales, el virus es muy mutante, por lo que aún no se ha logrado obtener una vacuna. Casi podríamos decir que es un virus “inteligente”. Conociendo las células de la sangre que infecta y dónde se encuentran éstas, recordamos los mecanismos de transmisión: - vía sanguínea, - vía sexual, - embarazo de una madre infectada.

201


Situación del VIH-SIDA

Al comienzo, por haberse presentado los primeros casos en personas homosexuales, se consideró que era exclusivo de ellos y se habló de “grupos de riesgo”. Pronto se modificó este concepto al aparecer la infección en individuos bisexuales y heterosexuales. El mecanismo de transmisión a estos últimos fueron, y siguen siendo, los sujetos bisexuales, ya que al tener relaciones tanto con personas homosexuales como con heterosexuales, concretamente con féminas, en su mayoría sexoservidoras, pronto aparecieron hombres y mujeres infectados. Con los primeros casos heterosexuales detectados en 1981, la proporción de hombres infectados era de 24 por cada mujer; 15 años después la cifra se modificó: 4 hombres por cada mujer. Esto nos indica que la proporción de féminas infectadas aumentó 6 veces. Asimismo, en un principio, la mayor proporción de hombres VIH positivos se observó en las ciudades; con el paso del tiempo, aumentaron considerablemente los casos en las zonas rurales, esto debido principalmente a la migración hacia Estados Unidos, donde muchos de ellos se infectaron y al regresar a su lugar de origen les transmitieron el VIH a sus parejas sexuales.

202

Fue así como inició la expansión del sida por todo el mundo. Su incremento se debe a que es una infección que no se manifiesta por síntomas desde el principio, por lo que el individuo infectado, generalmente por un contacto sexual fortuito, continúa con su vida habitual, y al tener relaciones sexuales con otras personas, transmite el virus a sus nuevas parejas sin que éstas se enteren. El periodo de incubación varía, por lo general, entre 4 y 5 años, tiempo en el que la persona infectada no presenta ningún síntoma; ocasionalmente el individuo infectado puede desarrollar crecimiento ganglionar sin ninguna otra manifestación, cuadro al que se le llama “complejo relacionado con el sida”, el cual puede evolucionar hacia el sida propiamente, o bien permanecer así por tiempo indefinido. Entre los países que empezaron a tener más casos de sida, Estados Unidos se ubicó a la cabeza desde el principio. Pronto se encontraron numerosos casos en África Central, principalmente en Uganda, Zambia, Kenia (Nairobi). En estos lugares hay un alto índice de sexoservidoras, por lo tanto, el número de hombres infectados por diversas enfermedades venéreas, entre ellas el sida, es muy grande. Desde hace

varios años, se ha considerado que en África el sida es una enfermedad endémica y se caracterizó desde el inicio por su transmisión mayoritariamente heterosexual, al contrario que en Europa, Estados Unidos y Haití, donde la incidencia fue superior entre hombres homosexuales.

Estado actual Una realidad insoslayable es el hecho de que el VIH se encuentra en la población en general sin hacer distingos en sexo, edad, raza, religión, clase social, etcétera; razón por la cual ya no se habla de “grupos de riesgo”, sino de “actividades de riesgo”. Se ha comprobado un incremento significativo en las poblaciones de escasos recursos económicos de los países en vías de desarrollo, entre los cuales México no es la excepción. Cabe mencionar, que la situación es tremendamente dramática y alarmante, toda vez que un altísimo porcentaje de personas infectadas corresponde a jóvenes entre 15 y 35 años. De acuerdo con la Organización Mundial de la Salud (OMS), a finales del año pasado había 33.4 millones de personas con VIH y, de esta cifra, el 95% vive en los países en vías de desarrollo. El 15% tiene menos de 15 años, es decir, que 1.2 millones de niños vivos tienen el VIH, en su mayoría, fueron infectados por sus madres durante su gestación, el parto o la lactancia materna. El 43% de los adultos infectados son mujeres. El cálculo de personas infectadas desde que se inició la pandemia es de 47 millones, de los cuales han muerto más de 4 millones de adultos y niños. En América, como se mencionó anteriormente, Estados Unidos sigue ocupando el primer lugar, Brasil el segundo y México el tercero, seguidos de Canadá y Haití. En nuestro país, a finales de 2003 se habían notificado al Centro Nacional para la prevención y el control del VIH/sida (Censida) 71,526 casos de este padecimiento; verosímilmente, el número real es mayor si tomamos en cuenta el retraso en las notificaciones. Se considera que puede haber más de 250 mil personas infectadas que lo ignoran, por lo que al continuar infectando a sus parejas eventuales y/o permanentes este número aumenta cada día.


José Luis Domínguez Torix - Alicia Gorab Ramírez

De los casos notificados en 2003, 60,631 son hombres (84.8%) y 10,895 son mujeres (15.2%). Del total, los niños menores de 15 años representan cerca del 2%. De los casos notificados el 55%.

Modificación de la Ley General de Salud De las tres vías de transmisión, la sanguínea reportó un 20% al inicio de la epidemia en nuestro país, tanto por transfusiones como por el uso de jeringas y agujas con residuos de sangre de personas infectadas, como es el caso de los adictos a drogas de uso intravenoso y, excepcionalmente, por pinchazos accidentales (tal vez uno en un millón), principalmente en enfermeras, médicos y laboratoristas. El principal medio de infección era el uso de sangre de proveedores remunerados; al hacer estudios en el Centro Nacional de la Transfusión Sanguínea, de la entonces Secretaría de Salubridad y Asistencia, se encontró que el 7.2 por ciento de dichos individuos estaban infectados por el VIH, en tanto que la tasa de positividad en la población general era de menos del 0.1%. Esta situación motivó a la modificación de los artículos 32, 136, 333 y 462. El artículo 332 dice textualmente: “la sangre humana sólo podrá obtenerse de voluntarios que la proporcionen gratuitamente y en ningún caso podrá ser objeto de actos de comercio”. Estos ordenamientos entraron en vigor el 25 de agosto de 1987. Un año antes se había publicado la norma que hace obligatoria la investigación del VIH en toda persona que proporcionara sangre. De esta forma, la transmisión del VIH por sangre fue disminuyendo de tal suerte que en la actualidad menos de 2% se transmite por esta vía (principalmente debido a los adictos a drogas intravenosas). A continuación algunas precisiones con respecto a la forma de transmisión del VIH: Siempre se ha utilizado el concepto de “contagio” del sida y eso ha motivado una epidemia mayor que la de la misma enfermedad; de la discriminación y segregación que se hace a los enfermos de sida, a las personas portadoras del VIH, aún hasta a los propios familiares, situaciones que pueden resultar dramáticas y hasta criminales.

De acuerdo con principios elementales de inmunología, hay una gran diferencia entre contagio y transmisión de un padecimiento: el contagio se realiza directamente. Un ejemplo: un niño con sarampión o con rubéola o varicela, va a la escuela y “contagia” a algunos de sus compañeros por su sola presencia y proximidad. En cambio, el concepto de transmisión requiere obligadamente de un intermediario: el paludismo necesita de un mosquito particular, que es el agente transmisor; algunas hepatitis requieren la contaminación de los alimentos; lo mismo pasa con las salmonelosis, etc. Si el sida se transmite únicamente por las vías mencionadas, no hay ni razón ni justificación para que las personas huyan del enfermo con sida o de quien esté infectado.

Aspectos clínicos Sida, son las iniciales de lo que en medicina conocemos como: S Síndrome: conjunto de signos (aquellos hallazgos anormales en una persona y que son objetivos, por ejemplo presión arterial elevada) y síntomas (aquellos datos que refiere la persona, y son de carácter subjetivo, por ejemplo dolor) que orientan a realizar un diagnóstico. I Inmuno: referente al sistema inmunológico que tiene, entre otras muy diversas funciones, la defensa del organismo. D Deficiencia: falla o función insuficiente, en este caso la del sistema inmunológico. A Adquirida: hace referencia a que esta infección no se hereda, sino que se contrae por alguno de los mecanismos de transmisión ya conocidos. La infección con el virus de la inmunodeficiencia humana (VIH) resulta de una amplia gama de consecuencias clínicas que van desarrollándose en diversos estadios y abarcan desde el contacto con el virus y el organismo humano portador asintomático, hasta infecciones, la mayoría de ellas denominadas oportunistas que suelen ser graves al grado de generar diversos tipos de cáncer. La enfermedad denominada sida es el último estadio de la infección ocasionada por el VIH, la preceden tres etapas en el adulto.

203


Situación del VIH-SIDA

Clasificación de la infección por el VIH Estadio I Infección inicial La gran mayoría de las veces pasa desapercibido este estadio. Puede o no presentarse un cuadro similar al de alguna enfermedad ocasionada por virus en la que se puede manifestar fiebre, debilidad, dolores musculares, entre dos y cinco semanas después de entrar el VIH al organismo. Se pueden detectar anticuerpos contra el VIH entre las 6 y 8 semanas de iniciada la infección, aunque hay casos en los que suele demorar hasta seis meses o más.

Estadio II Portador asintomático

Presencia de infecciones denominadas oportunistas (meningitis por criptococos, toxoplasmosis del sistema nervioso central, candidiasis, neumonías ocasionadas por P. carinii, tuberculosis pulmonar y diseminada, entre otras), el llamado síndrome de desgaste o emaciación en el que hay un importante ataque al estado general con una relevante pérdida de peso, demencia y diversos tipos cáncer: sarcoma de kaposi y linfomas.

Clasificación de la infección por VIH en niños menores de 13 años de edad Clase o Subclase Infección pediátrica por VIH Clase P-O

En este estadio se encuentra la mayoría de los pacientes infectados. No presentan ningún síntoma ni molestia, muchos de ellos pueden ser que desconozcan su estado de portador y sin embargo, son infectantes.

204

Infección indeterminada Subclase A

Clase P-1

Subclase B Subclase C

Estadio III Complejo sintomático relacionado con sida Subclase A

Se manifiestan ciertos síntomas como fiebre, diarrea, pérdida de peso, sudoraciones preferentemente vespertinas o nocturnas, debilidad, presencia de infecciones poco frecuentes, inflamación de los ganglios linfáticos, entre otras; todo ello característico del inicio de inmunodepresión.

Estadio IV Sida Manifestaciones y confirmación de laboratorio de inmunodepresión importante ocasionada por la infección del VIH y no por cualquier otro motivo, como pudiera ser medicamentos, cáncer u otras enfermedades.

Subclase B

Clase P-2

Sintomatología

Subclase C Subclase D Subclase E Subclase F

Infección asintomática (sin síntomas) Función inmunitaria normal Función inmunitaria anormal Función inmunitaria no estudiada Infección sintomática Resultados inespecíficos Enfermedad neurológica progresiva Neumonitis intersticial linfoide Enfermedades infecciosas secundarias Cánceres secundarios Otras enfermedades posiblemente causadas por el VIH


José Luis Domínguez Torix - Alicia Gorab Ramírez

Diagnóstico por el laboratorio Como ya se ha mencionado, la sospecha de que una persona está infectada por el VIH se basa en la investigación de los antecedentes: transfusiones previas, adicción a drogas, vida sexual (promiscuidad, multiplicidad de parejas), acupuntura, tatuajes, etc., sugieren la conveniencia de investigar en su sangre la presencia o ausencia del virus. Dichos análisis permiten excluir la posibilidad de que la sangre, el plasma o alguno de sus componentes (factores de coagulación, albúmina, etc.) que se utilizan con fines terapéuticos, pudieran estar infectados. Asimismo, auxilian en la selección de donantes de órganos o semen en la investigación de la prevalencia de la infección en la comunidad y finalmente en la prevención o en el tratamiento de la infección. Desde un principio se empezó a utilizar un método inmunoenzimático (EIA), conocido como ELISA, cuya sensibilidad es cercana al 100%. Esta técnica detecta al VIH cuando la persona está infectada, dando un resultado positivo. Sin embargo, dada su alta sensibilidad, (método de 1ª generación), puede producir resultados falsos positivos. El método se ha perfeccionado (métodos de 2ª y 3ª generación) con mayor especificidad, lo que permite eliminar estos falsos positivos. Cabe aclarar que un resultado positivo no es sinónimo de la infección, para que dicho resultado sea de valor diagnóstico es indispensable realizar otros análisis conocidos como pruebas confirmatorias. La secuencia es la siguiente: si el primer análisis resulta positivo, se practica un segundo con la misma muestra de la sangre, si vuelve a resultar positivo, se toma una segunda muestra de sangre y se repite el análisis; al salir positivo, entonces se realiza una prueba confirmatoria. Por el contrario, si los dos últimos resultados son negativos, se da por concluida la investigación: el sujeto no está infectado.

Pruebas confirmatorias Existen dos pruebas confirmatorias: el método de la electroinmunotransferencia conocido como Western Blot y el método de la inmunofluorescencia indirecta. El primero consiste en realizar una electroforesis del virus en gel de poliacrilamida, mediante la aplicación de una carga

eléctrica que permite separar al virus en sus diferentes fracciones, de acuerdo con el peso molecular de las proteínas que lo configuran; posteriormente esta separación es transferida a papel de nitrocelulosa que lo corta en tiras; ahí se van a visualizar las diferentes proteínas del virus en forma de bandas. La presencia de las bandas correspondientes a las proteínas 24 y 41 significan la presencia del virus, por lo tanto confirman la positividad de las anteriores ELISAS. La presencia de otras bandas características, junto con las mencionadas, refuerzan la interpretación diagnóstica de la positividad de la muestra y por lo tanto, de la presencia del virus. El otro método confirmatorio utiliza la inmunofluorescencia del antígeno fijado al anticuerpo antivirus. Otra técnica detecta la presencia del antígeno viral en cultivo celular en suero o plasma. La detección del antígeno valora si una persona ha estado expuesta al VIH y también sirve para detectar si niños recién nacidos han sido infectados por la madre. Como ya se mencionó, todas estas pruebas son útiles tanto para saber si una persona está infectada, como para vigilar el resultado de los tratamientos, principalmente antivirales. Se considera de utilidad reiterar la forma como actúan los diversos tratamientos utilizados actualmente: unos impiden el ingreso del virus al interior de las células receptoras; otros bloquean la acción de la transcriptasa inversa, evitando la interacción del RNA viral con el DRN en la célula huésped; y en los últimos tres años, la utilización de inhibidores de la proteasa viral que se genera en la última etapa del estadio del pro virus en la célula infectada. El resultado de los diversos tratamientos y la evolución se guían, en cierto modo, por las cuentas de linfocitos CD4. Sabemos que las cifras límite para vigilar la evolución del cuadro clínico son de 500 células, su disminución es signo de mal pronóstico; cuando están por debajo de 200 células hay signos de agravamiento, y menos de 100 condiciona el pronóstico fatal a corto plazo. Los inhibidores de la proteasa, en combinación con dos de los antivirales de diversa acción, provocan la disminución dramática del número colosal (cientos de millones) de virus, hasta obtener cifras no cuantificables (menos de 5,000 por ml), por esta razón se empezaron a utilizar cocteles de medicamentos cuando

205


Situación del VIH-SIDA

se sabe que una persona está infectada sin esperar a que desarrolle la enfermedad. Resumiendo, el control de laboratorio que actualmente se sigue de una persona infectada, y que ha iniciado el tratamiento mencionado que podríamos llamar como “profiláctico”, es la cuenta de células CD4 y de la carga viral. Al respecto de esta última debemos mencionar que la amplificación del ARN del VIH mediante transcripción reversa por la reacción en cadena de la polimerasa (RT-PCR), ha mostrado un límite de detección de 400 copias/ml,y más recientemente, una versión mejorada llamada “ultrasensible” ha demostrado un límite de detección de 50 copias/ml. También se está utilizando el conteo de las células CD4 registrado por citometría de flujo. Este método refleja la extensión del daño que el VIH ha causado al sistema inmune. En los niños la situación es diferente: un recién nacido tiene anticuerpos donados por su madre contra las llamadas enfermedades de la infancia, es a lo que se le llama inmunidad pasiva, por esa razón no padecen habitualmente ninguna de estas enfermedades. Con el sida sucede lo mismo: el recién nacido de una madre infectada tendrá anticuerpos anti VIH de su madre, es decir, tendría inmunidad pasiva y por lo tanto la prueba de ELISA será positiva, habrá que seguir el esquema explicado anteriormente para confirmar si está infectado. 206

Actualmente continúa la investigación de otras pruebas de laboratorio que simplifiquen su realización y el tiempo transcurrido entre el momento de adquirir la infección y el momento en que los análisis la demuestren. Habitualmente las pruebas se positivizan entre 4 y 6 semanas de haber sido infectada la persona, porque es el tiempo mínimo indispensable para que se desarrollen los anticuerpos anti VIH. Por esa razón se indica a quien desea hacerse la prueba, que deje transcurrir un mínimo de tres meses antes de realizarla, pues de lo contrario, ésta puede salir negativa (es a lo que se le llama ventana inmunológica). Éste es el caso de una prueba falsa negativa. En ocasiones en que se ignoró esta situación, se transfundió sangre infectada. En la norma para la donación de sangre se considera esta posibilidad, por lo que se insiste en que si el prospecto a donador recibió una transfusión antes de tres meses no debe donar sangre.

Como ya se sabe, los análisis para la investigación del VIH se realizan en sangre. Hay técnicas que utilizan saliva, apoyadas en el hecho de que esta sustancia lleva anticuerpos. Además de ser más sofisticada esta técnica, siempre será necesario confirmar el resultado con una ELISA y/o un Western Blot.

Tratamiento Al inicio de la pandemia no se contaba con recursos terapéuticos, la mayoría de ellos eran meramente paliativos, que ocasionaban frustración e impotencia en el equipo de atención a la salud que los trataba, debido a que desde entonces se sabe que es una infección crónica incurable. Sin embargo, desde un principio se observó el valor que tenía la intervención del área de la salud mental. La historia del tratamiento de la infección por VIH se encuentra todavía en evolución. Partimos del hecho que debe abordarse al individuo infectado en su integridad y basándose solamente en los resultados, por cierto, sumamente importantes, de los sofisticados y costosos estudios de laboratorio, así como de los medicamentos. De ahí que en el tratamiento integral de un paciente infectado intervengan diversas disciplinas como lo son el equipo de salud de primer contacto y una diversa gama de especialidades como la infectología, la salud mental, la hematología y la nutrición, entre otras. Es también relevante aportar apoyo y orientación a la pareja y/o la familia de la persona infectada. Los avances en la farmacología clínica, la tecnología Bioquímica y la infectología han aportado toda una gama de medicamentos dirigidos a diversos aspectos de la infección, como los medicamentos antivirales, los antibióticos, los antiparasitarios, los complementos nutricionales, las inmunizaciones, entre otros. A grandes rasgos, el tratamiento global para la infección por el VIH la podemos abordar de la siguiente forma:


José Luis Domínguez Torix - Alicia Gorab Ramírez

Tratamiento específico para la infección por el VIH

antirretrovirales, la utilización de los “cocteles” tiene frecuentemente serios inconvenientes:

Hasta 1991 existía solamente un medicamento aprobado: la zidovudina (también conocido como AZT o Retrovir); de ahí en adelante, han surgido una serie de medicamentos dirigidos específicamente en contra del VIH y que actúan en diversos niveles dentro del proceso de infección del VIH en la célula humana.

• El elevado costo (aproximadamente 1,000 dólares mensuales).

Así es que tenemos actualmente medicamentos dirigidos:

• Como casi todos los medicamentos son orales, su ingestión, que debe ser permanente, ocasiona el abandono o rechazo eventual.

• A prevenir la adherencia del VIH a las células blanco que tienen receptores CD4. Los que inhiben la acción de la enzima específica del VIH que es la transcriptasa reversa. • Los que inhiben etapas siguientes de la replicación del VIH dentro de la célula humana. El enfoque terapéutico actual, en vista de la presencia de resistencia del virus hacia un determinado antiviral, es el de combinar dos o tres antivirales específicos para VIH. • Tratamiento de las infecciones oportunistas. • Tratamiento de otras manifestaciones de la infección por el VIH.

• Frecuentemente alguno de los fármacos utilizados resulta tóxico, principalmente para la médula ósea productora de las células de la sangre.

• La ingestión prolongada (necesariamente) provoca resistencia del virus. Todos estos inconvenientes conllevan al abandono parcial del tratamiento, lo que ocasionará un repunte en la replicación viral y consecuentemente una recaída en la evolución de la infección. El manejo terapéutico actual que se inicia cuando se comprueba que la persona está infectada, y cuyo objetivo es que ésta tenga una calidad de vida aceptable, debe ser valorado tanto por el paciente como por sus familiares, quienes deben estar al tanto de las posibilidades negativas mencionadas.

• Tratamiento de los diversos tipos de cánceres. • Tratamiento por el área de salud mental. • Tratamiento nutricional. • Tratamiento por hematología. • Tratamiento por gastroenterología y neumología. • Tratamiento de soporte y general. Estimamos indispensable hacer algunas consideraciones con respecto al manejo terapéutico de un enfermo: como ya se mencionó antes, aún no existe un tratamiento curativo y, no obstante, los grandes avances logrados en el descubrimiento de un importante número de fármacos

Prevención Con respecto a los mecanismos de transmisión por vía sexual, la OMS recomienda: 1. Abstinencia. Abstenerse de relaciones sexuales hasta no formalizar una relación de mutua exclusividad. Retrasar las primeras relaciones sexuales, sobre todo si se es adolescente, hasta que haya concluido el proceso de maduración e integración del cuerpo con las emociones y la voluntad. 2. Fidelidad mutua (monogamia).

207


Situación del VIH-SIDA

3. Utilizar condón cuando se tiene más de una pareja sexual, o las relaciones sexuales no están destinadas a la procreación.

Aspectos preventivos de importancia para los docentes Si bien el diagnóstico de sida (según se mencionó anteriormente) es la etapa final de un prolongado proceso infeccioso ocasionado por el VIH que finalmente conduce a la muerte entre los ± 25 y 50 años de edad, esto significa que la infección se adquirió probablemente varios años antes, lo cual conlleva a la edad de la adolescencia y adul-tos jóvenes como los principales grupos etarios en riesgo para adquirir la infección por el VIH, siendo el principal mecanismo de transmisión para este grupo el de la vía sexual.

208

A pesar de que los datos de prevalencia de la infección por VIH en adolescentes es poco precisa, de acuerdo con la información disponible, aproximadamente el 10% del total de casos de sida en todo el mundo, se ha notificado en los adolescentes y jóvenes. Sin embargo, este dato puede variar dependiendo del área y las características conductuales de cada lugar, lo cual lleva a rangos del 8 al 21% y en Estados Unidos se ha convertido en la sexta causa de muerte en jóvenes. Otro aspecto importante a considerar respecto del impacto de la pandemia y su intromisión en este grupo etario es que para 1986 la edad promedio de infección por el VIH eran 29 años, y a finales de la década de 1980 e inicio de 1990, la edad era de 21 años. En esas mismas fechas se publicó el dato en Estados Unidos que de cada 4 personas recién infectadas por el VIH una de ellas tenía menos de 22 años de edad. Situación alarmante para todos aquellos que de una u otra manera convergimos en la atención de adolescentes y adultos jóvenes. Las sociedades alrededor del mundo han tenido mucha dificultad en promover la protección entre la gente joven (que con motivo de este análisis se consideran de los 13 a los 24 años de edad), en contra de la infección por el VIH como de otras situaciones que ponen en riesgo su salud y su vida. Resulta adecuado tomar en consideración varios aspectos, uno de ellos es incluir a los adolescentes y adultos jóvenes en el grupo etario de niños y adultos, que son dos categorías demográficas y sociales bien establecidas.

Se considera que los niños requieren recibir información para protegerse del VIH y sus vías de infección que pueden ser: a través de madres infectadas por el VIH, de inyecciones médicas no estériles, de productos sanguíneos contaminados o de abuso sexual de parte de los adultos. En contraste, se asume que los adultos son capaces de protegerse a sí mismos, se consideran como seres independientes y autónomos, capaces de tomar decisiones informadas y utilizar de manera adecuada los servicios de atención para la salud y los servicios sociales. Dentro de este marco, el concepto de niñez virtualmente niega la posibilidad de tomar decisiones o asumir preferencias personales, mientras que la responsabilidad para las acciones y sus consecuencias es el principio rector de la edad adulta. A causa de que los adolescentes y adultos jóvenes se encuentran atrapados en un periodo de transición, que abarca de la infancia “desprotegida” a la de “adulto responsable”, ellos viven en una “tierra de nadie” tanto desde la perspectiva social como en términos de salud pública. La sociedad en todo el mundo tiene actitudes ambivalentes hacia los adolescentes y adultos jóvenes, ya que los ven de manera simultánea como adultos pequeños, inmaduros, inexpertos y niños grandes no dignos de confianza. Consecuentemente, la salud pública se encuentra en conflicto y confusa con respecto a las estrategias para plantar a la gente joven el tema como la prevención del VIH. Las investigaciones y la experiencia de diferentes culturas y sociedades sugieren tomar en consideración cuatro realidades vitales a considerar, para el desarrollo de programas y estrategias de prevención del VIH en adolescentes y adultos jóvenes: 1. Ambos grupos se encuentran marginados y sin poder dentro de la sociedad. 2. Están desarrollando activamente sus conductas y valores personales. 3. Los roles familiares e intrafamiliares de los adolescentes y adultos jóvenes se están modificando. 4. Se están tropezando con importantes barreras para tomar decisiones libres e informadas.


José Luis Domínguez Torix - Alicia Gorab Ramírez

Está claro que la información y educación relacionada con esta grave enfermedad debería proporcionarse a los niños por sus padres, y cuando inician la escolaridad, por los profesores a través de un programa bien estructurado de educación sexual (toda vez que la mayor proporción de infectados lo es por vía sexual). Pero... ¿Cómo crear conciencia en el magisterio sobre la gravedad de la infección que hoy por hoy es incurable y además perfectamente prevenible, y por lo tanto, evitable. Consideramos imperativo que los profesores de todos los niveles de enseñanza, tanto primaria y secundaria, como enseñanza media-superior y profesional no sólo tengan conocimientos reales y verídicos del problema, sino que además estén concientizados acerca de esta situación y de la forma de influir en sus alumnos para que éstos platiquen con sus progenitores y los induzcan a buscar mayor información. Es por todo lo anterior que deseamos que después de leer este compendio del problema, sobre todo los profesores/as, se interesen real y sinceramente tanto en adquirir mayor información, como en difundirla entre sus educandos. Recuerden que el sida existe en un creciente número de personas en todo el mundo y se sigue propagando. En la medida en que establezcamos estrategias para contender con el virus, estaremos contribuyendo de forma importante a su prevención y erradicación. 209



Antología 2. Ciclo de conferencias La Ciencia más Allá del Aula es una obra editada por la Facultad de Química. Se utilizaron en la composición tipos ITC Kabel LT Book, ITC Kabel LT Medium, Kabel Bk Bt y Kabel Dm Bt. Tipo de impresión: PDF. La publicación de esta obra fue posible gracias al apoyo de la Coordinación de Comunicación, a través de los Departamentos de Editorial, de Información (Taller de Imprenta) y de Diseño y Medios Audiovisuales. Publicación autorizada por el Comité Editorial de la Facultad de Química. Mayo 2014



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.