Ciencianueva14

Page 1

Qué es la biofísica Problemas de Go Premios Nobel 1971

Max Perutz:

HEMOGLOBINA


Calculadora electrónica con impresión CIFRA 311: Lógica de 3? generación, memoria de 4? generación. CIFRA 311: Mayor potencialidad, diseño expeditivo, costo menor. •CIFRA 311: Creada en el pais, es la solución más actualizada a las vertiginosas exigencias de precisión y caudal de cálculo de las empresas modernas.

¿ ^ ^

-

"•**

cifro 311 Un producto FATE S.A.I.C.I. División Electrónica

Comercialización y Ventas: Garay 1, Tel. 34-6034/5/6/7/8.


11 Revista de ciencia y tecnología

HEMOGLOBINA

3 Daniel Goldstein José J. Lunazzi Hernán Bonadeo Max Perutz Thomas Moro Simpson Rolando Y. García Marcelino Cereijido

6 7 12 14 19 26 28 34

37 Manuel Risueño Julio Moreno Grupo Trabajadores de la Ciencia José Babini

39 40 45 46 56 57 60 61 63 64

La ley antiuniversitaria El mito de la libre elección de temas Earl W. Sutlierland: Premio Nobel de Medicina Dennis Gabor: Premio Nobel de Física Gerhard Herzberg: Premio Nobel de Química Hemoglobina: El p u l m ó n molecular ¿Qué posibilidades tiene el desarrollo científico en la Argentina de Hoy? ¿Qué liaría usted con una computadora? ¿Qué es la Biofísica? Novedades de ciencia y tecnología 1. 2. 3. 4. 5. 6. 7.

Taxis sin chofer Criminalidad y cromosomas Diseño de anteojos por computadora Alimentos hechos con diarios viejos Los sorprendentes parecidos entre los hongos y los hígados Más desconcierto entre los bioquímicos del ADN La periodicidad de las aguas

La Ingeniería Genética en células humanas es u n hecho Problemas de Go Los Flexágonos Humor nuevo Actividad científica y realidad nacional Libros nuevos Comentarios de libros Acerca de los Congresos Científicos Cursos y reuniones científicas Correo del lector Metegol N 9 1 0 y solución a Metegol N 9 9 Conferencias

De las opiniones expresadas en los artículos firmados son responsables exclusivos sus autores.

1


Año III / N" 14 / enero 1972 / Buenos Aires Av. Roque Sáenz Peña 825, 9 9 piso, Of. 9 3 - Buenos Aires T c L : 45-8935

Es una publicación de Editorial Ciencia Nueva S.R.L., Av. R. Sáenz Peña 825, 9? P of. 93, Buenos Aires, República Argentina, Tel.: 45-8935. Distribuidores: en la República Argentina Ryela S.A.I.C.I.F. y A., Paraguay 340, Capital Federal, Tel.: 32-6010 al 29; en Capital Federal, Vaccaro Hnos., S.R.L., Solís 585, Capital Federal. Impreso en Talleres Gráficos D I D O T S C A., Luca 2223, Buenos Aires. Precio del ejemplar: ley 18.188 $ 4 (m$n. 400). Suscripciones: Argentina, ley 18.188 $ 4 0 (m$n 4.000) por año; exterior, por vía ordinaria, u&s. 15 anual. Registro de la propiedad intelectual n° 1.049.414. Hecho el depósito de ley. Derechos reservados en castellano y cualquier otro idioma para los trabajos originales, y_ en castellano para colaboraciones traducidas.

Ricardo A. Ferraro

Director

Héctor Abrales Daniel Goldstein Ricardo Schwarcz Hernán Bonadeo

Asesores

Horacio Speratti

Secretario de redacción

Lucía Bonadeo Katia Fischer

Redacción

Isabel Carballo Fernando Díaz Julio Moreno

Diseño gráfico Dibujo Humor

Hebe Mitlag Ana Tedeschi María Susana Abrales Frankfurt: Jan Kovarik Haifa: Eduardo Fischbein Londres: Eduardo Ortiz Nueva York: Roberto Lugo París: Jorge Schvarzer Praga: Jan Rehacek San Pablo: Ricardo Albizuri Santiago de Chile: J. Pablo Schifini New Scientist; Sciences; Science et Avenir; Science-Progrés-Découverte; Science et Yie; Science Journal; Scientific World; Sapere; Cooperation Technique; Science Service; Associated Press; APN; TASS; CTK; A D N ; Agencia D A N ; ICA press.

Producción Secretaria Corresponsales

Servicios del exterior


La ley antiuniversitaria Hipólito Yrigoyen se destacó por su lenguaje diferente. Gustaba usar vocablos poco corrientes, frases de compleja construcción. Sin embargo, difícilmente pueda acusarse a su oratoria de desnaturalizar el lenguaje en su esencia, de alterar el sentido universal de las palabras y de las expresiones. El recuerdo de Yrigoyen viene a colación porque fue durante su gobierno, que tuvo lugar ese movimiento de bases, conocido con el nombre de Reforma Universitaria. Y, 54 años después, no solamente las aspiraciones de aquel movimiento siguen teniendo validez por no realizadas, sino que se intenta satisfacer las necesidades actuales de la comunidad universitaria con postulaciones expresadas en palabras, esta vez de uso corriente, pero de sentido desnaturalizado. Así como se llama revolucionarios a quienes detentan el poder público para frenar todo proceso de cambio, no se hesita el llamar rectores a interventores de las universidades nombrados por militares y en proponer una ley universitaria que no está al servicio de la Universidad, que no surgió de la Universidad ni fue elaborada por universitarios.

Acaso pudiera haber sido inspirada esa ley en las aspiraciones de los sectores sociales más desposeídos que reclaman igualdad de posibilidades. O siquiera sugerida por los empresarios nacionales que desean tecnificar sus campos y sus industrias para competir con mejores armas frente a las grandes empresas internacionales. La ingenuidad se disipa rápidamente frente a anteproyectos de ley que comienzan por marginar a los universitarios que pretenden ignorar el proceso de cambio que está en marcha pese a la magnitud de la represión, que comienzan por no aceptar nuestra situación de país dependiente y que parten inexorablemente de un postulado enfermizo cual es el de considerar potencialmente peligroso todo aprendizaje, delictiva toda protesta, condenable toda la inquietud que es inseparable del quehacer universitario. La entelequia que se pretende regir es una creación mágica de los legisladores de turno. Universidad es otra cosa: vive, existe y exige que toda reglamentación esté a su servicio y se estructure sobre su realidad y su razón de ser, únicamente válidas cuando se integran en el contexto de la realidad social, política y económica del país y de sus necesidades reales.

El mito de libre elección de temas Durante el mes de noviembre de 1971 se efectuó en la ciudad de La Plata una reunión internacional sobre biosíntesis de proteínas y ácidos nucleicos, que contó con la asistencia de disertantes europeos, norteamericanos y latinoamericanos. Una de las sesiones se dedicó a discutir el futuro de la biología molecular. A poco de comenzar el debate, sin embargo, la discusión derivó a otros problemas: la responsabilidad social del científico y el cuestionamiento de la ciencia en los mundos desarrollados y dependiente. Surgieron así dos posiciones

claramente antagónicas: la gente joven criticó duramente una actividad científica enajenante y divorciada del contexto social, a la vez que reclamó una mayor autocrítica por parte del científico de los países dependientes, cuya actividad, enmarcada en una global falta de autonomía —económica y política— requeriría otros puntos de referencia que los que tradicionalmente se le atribuye. La posición opuesta sostenía que la dependencia económica y política no influye significativamente sobre la actividad científica y que, en nuestros países


latinoamericanos, los jóvenes y algunos viejos tienen un gran complejo de inferioridad que actúa como lastre. Considerando este complejo como el único obstáculo para la obtención masiva de logros culturales, bastaría tan sólo con una nueva actitud mental para pasar a un desarrollo científico pujante e independiente. Personalmente, me impresionó la existencia de un común denominador entre los participantes latinoamericanos del simposium: el aceptar que los temas tratados durante la reunión científica y el futuro desarrollo de la biología molecular efectivamente dependían de la voluntad individual de cada uno de los científicos reunidos, y que la elección de los temas de investigación en esta área era efectivamente una elección libre. Yo no creo que esto sea así y me atrevo a iniciar el debate sobre el problema con mi versión —parcial, sin duda—del desarrollo pasado, presente y futuro de la biología molecular.

más, se trata de aguzar un poco el ingenio para adaptar técnicas y mejorar las existentes. Por último, dado que los Crick, los Brenner, los Watson y compañía son los amos y señores de los dólares o libras o francos o marcos, siempre habrá dinero más o menos fácil para los buenos operadores que quieran colaborar dócilmente en la resolución de los antojitos de los semidioses del olimpo de la biología molecular. Mientras las universidades periféricas del mundo desarrollado se dedican a terminar E. coli, las universidades realmente importantes y los laboratorios independientes de gran categoría se pasan en bloque a otros problemas. El Cold Spring Harbor Labora tory prepara sus cursos sobre neurobiología y virus oncogénicos, la Rockefeller University apunta sus baterías hacia la neurobiología y la psicología experimental. Por ahora no importa dar más ejemplos de este cambio de línea, sino examinar qué sucede en los países periféricos. En estos, con casi 20 años de atraso, se descubre la temática de la biología molecular. Los mejores cuadros —tanto formados como en formación— son reclutados para los temas de biología molecular cuando ya los grandes problemas de la biología molecular están conceptualmente terminados. Porque no se trata de discutir si Gunther Stent tiene o no razón cuando dice que la biología molecular está terminada; lo cierto es que los problemas ele la replicación del material genético, su transcripción y su traducción y la regulación de la expresión de la información genética si no están completamente resueltos, están perfectamente delimitados. Enzima más, enzima menos, las soluciones están a la vista, y como la historia de la ciencia lo demuestra una y otra vez, aún los problemas más refractarios al ataque experimental están resueltos en un 50 por ciento cuando las preguntas están claramente explicitadas. Es decir, la temática de la biología molecular, desprovista de su desafío intelectual, desemboca inexorablemente en una tecnología, más o menos sofisticada, pero esencialmente destinada a desarrollar y pulir mecanismos ya descubiertos y no a aportar saltos cualitativos en la comprensión de la naturaleza.

El mito de la "libertad de elección" de los temas científicos es uno de los más arraigados entre los profesionales de la ciencia. Aún los jóvenes científicos disidentes que critican al Establishment por lo general no se detienen a examinar las motivaciones que existen detrás de sus propios temas de trabajo e incluso la deformación de sus aspiraciones. Durante el Cold Spring Harbor Symposium de 1967, mientras bebía cerveza con parsimonia, Francis Crick explicó en rueda íntima, con elegante frialdad, sus planes para el desarrollo de la biología molecular. "La consigna es terminar Escherichia cotí-, la quiero terminada antes de morirme. Son apenas 3.000 genes. Lo que necesitamos son «operators» (operadores) que liquiden el proyecto E. coli." Por supuesto, Francis Crick no dedica más esfuerzos a E. coli. Ahora estudia problemas de diferenciación en eucariotas. Por supuesto, Siclney Brenner no piensa más en E. coli. Ahora se dedica a problemas de neurobiología, a obtener mutantes neurológicas de sus gusanitos mágicos. Por supuesto, Seymour Benzer no piensa más Pero la cuestión no reside en discutir si trabajar en en E. coli. Ahora se dedica a disecar genéticamente el sistema nervioso central de la Drosophila. Por supuesto, los temas actuales de la llamada biología molecular equiJim Watson no piensa más en E. coli. Ahora le inte- vale a desarrollar una tecnología, sino en ver que como resan los virus oncogénicos. Y sus tesistas están colabo- problema intelectual NOS ES COMPLETAMENTE rando con los nuevos problemas, mientras los tesistas AJENO, pues la prioridad no la fijamos nosotros sino de laboratorios periféricos —dentro y fuera de Estados una docena de personas que viven en los Estados UniUnidos e Inglaterra— se dedican afanosamente a com- dos, en Inglaterra y en Francia y que, por otra parte, nada tuvimos que ver con su génesis, porque cuando pletar E. coli. ésta ocurría la ignorábamos totalmente. Hacer biología Porque para la mayoría de los estudiantes graduados molecular clásica, aquí y ahora, es convertirse en "openorteamericanos terminar con E. coli tiene sus ventajas. rators" para que Crick y compañía se den el gusto de Por empezar, la biología molecular de las bacterias y entender completamente a E. coli. El alto status que sus virus ya no es ni revolucionaria ni riesgosa y esto otorga el trabajar en América latina en biología moimplica que existe una inmediata aceptabilidad de los lecular —que equivale a realizar lo que los sociólogos resultados en las revistas científicas, cuyos Editorial de la escuela norteamericana llaman "modernización" de Boards están controlados precisamente por los mayores las sociedades subdesarrolladas—, proviene de un criinteresados en terminar con E. coli (si caben dudas, terio de evaluación de qué se debe hacer o no en biopuede revisarse la nómina de editores del Journal of logía en la Argentina en 1972, que no surge de una Molecular Biology, Journal of Bacteriology, Virology, decisión colectiva y discutida por todos los científicos Biochemical and Biophysical Research Communications interesados en el problema. Los conceptos de prioridad o quienes hacen de referees en Science o Nature). Es se importan como la moda de tal o cual modisto, como decir, no existe un hiato de credibilidad. Por otra parte, un corte de pelo o un hábito alimenticio. las técnicas genéticas y bioquímicas aplicables a E. coli y sus virus están tan estandarizadas que desde el punto Consideremos los temas nuevos, es decir, la "moderde vista experimental, el desafío es mínimo. Cuanto nización' de los modernos. Hace quince años se publico


en Estados Unidos un impresionante volumen de propaganda científica del más alto nivel imaginable, llamado Biophysical Sciences: a Study Program, destinado a reclutar gente para la biología molecular. Ahora ocurrió lo mismo con las "neurociencias" y con los virus oncogénicos. Corresponde pues examinar a qué se deben estos cambios de línea de la dirección de la ciencia norteamericana. Estos cambios de línea son cambios políticos. Porque los intereses del Establishment científico casi siempre coinciden con los intereses del Establishment político norteamericano. Los temas tienen la aprobación explícita de los amos de ambos sectores. Un ejemplo claro es el de la investigación sobre los virus oncogénicos. Nixon decidió construir su imagen electoral en salud pública en base a la lucha contra el cáncer; los biólogos moleculares dicen que dada la falta de recursos financieros para apoyar investigaciones "puras", han optado por "engañar" al Establishment político aceptando colaborar en la cura del cáncer a cambio de dinero que en última instancia se dedica a biología molecular "pura". Así corren los millones para Watson, Spiegelman y compañía. Pero es una racionalización mentirosa. Lo que sucede es que estos emperadores presuntuosos de la biología se han convencido de su propia omnipotencia y al verse tan inteligentes, tan astutos, tan agudos, han decidido pasar definitivamente de la categoría de semidioses a la de dioses, acabando con el terrible flagelo del cáncer, "el principal flagelo de la humanidad" (J. D. Watson). De la humanidad fina, limpia, distinguida y alfabeta como ellos y nosotros, que resulta ser, ¡oh! sorpresa, una humanidad muy minoritaria, una humanidad escasa, comparada a la que muere por desnutrición, cólera, parásitos, es decir, de los que se mueren de miseria. Pero, lamentablemente, estas coincidencias entre el Establishment científico y el Establishment político no siempre son tan inocentes. Si los semidioses de la biología molecular descubren finalmente la clave de la transformación neoplásica, en buena hora. Y aún si no la descubren en esta generación, el by-product de estas investigaciones será una mejor comprensión de la bioquímica de las células eucariotas y de sus virus. En cambio, el problema de la resistencia bacteriana a los antibióticos fue y es un problema militar. Quien domine a voluntad la propagación de los factores extracromosómicos que transportan los genes que confieren la resistencia a los antibióticos podrá disponer de un arma monstruosa, incomparablemente más letal y más barata que las armas nucleares, ya que la conversión masiva de poblaciones bacterianas en formas antibiótico-resistentes puede obliterar no sólo ejércitos o ciudades sino países enteros. La guerra biológica no es un fantasma sino un peligro real y contemporáneo. La defoliación criminal que el ejército expedicionario norteamericano comete en Vietnam no es más que un ejemplo de lo que se puede hacer. El mayor-general Marshall Stubbs, director del Army Chemical Corps de los Estados Unidos, lo dijo claramente durante una audiencia ante el subcomité de presupuesto de la Cámara de Representantes del Parlamento norteamericano, en 1963: "En los laboratorios del ejército norteamericano los estudios genéticos sobre microorganismos —bacterias, virus, rickettsias y hongos— están recibiendo creciente

7

atención. Interesan especialmente los estudios básicos en genética para comprender sus mecanismos, elaborar nuevos conceptos y aumentar el conocimiento en general alterado o transformado para ajustado a los deseos del sobre este tema. La ingeniería biológica (permite conocer) la forma en que el material genético puede ser alterado o transformado para ajustado a los deseos del hombre. Este esfuerzo del ejército, particularmente en genética de bacterias, está suplementado por subsidios a universidades, consultas frecuentes y correspondencia con otros expertos en esta ciencia y mediante la concurrencia del personal científico a reuniones académicas. Aunque los laboratorios biológicos (del ejército) conducen un programa vigoroso y dinámico en muchas áreas de la genética básica y aplicada, es también cierto que necesariamente este esfuerzo será mayor en el futuro próximo. No es improbable que la principal contribución al arsenal biológico provendrá de la investigación y de una mejor comprensión de la genética." En rigor, toda la biología molecular tiene en sus orígenes algunas motivaciones poco "puras": el ejército norteamericano debía resolver el problema de la resistencia a los antibióticos, un problema clínico de sus soldados inmediatamente después de la Segunda Guerra Mundial y durante la Guerra de Corea. Y así fue como la National Academy of Science movilizó a la universidad y la bacteriología se convirtió en la vedette de la nueva biología, el Proceedings the National Academy of Sciences pasó a ser el órgano oficial de la bacteriología moderna, la National Science Foundation la fuente de subsidios "incontaminados" (ninguna conexión política, ¿no? ) para la bacteriología. En cuanto al auge de las neurociencias, basta examinar la política de la sociología norteamericana para comprender que la neurobiología forma parte de un movimiento de pinzas destinado a controlar las decisiones, opiniones, sentimientos e inclinaciones de la población. Las técnicas de manipulación de la opinión por los medios masivos de difusión se deben articular con el control de los mecanismos psicológicos del hombre individual. Y para esto último hace falta comprender cómo funciona el sistema nervioso central. Y por lo tanto, toda la competencia y la inteligencia debe ser dirigida, guiada, lo más sutilmente posible a interesarse por este problema. El método es el habitual: subsidios, status, recompensas académicas, políticas y sociales. La experiencia de los físicos atómicos indica que el hombre de ciencia no puede colaborar impunemente en proyectos sobre los cuales no ejerce ningún poder de decisión, sobre cuyos resultados no puede ejercer ningún control. La biología molecular —cualquiera fuese su forma, ya sea microbiológica como hasta el presente, o neurobiológica como se insinúa para el futuro— no está exenta de esta ley: si quienes la edifican no son concientes de las implicaciones bélicas de sus hallazgos y no toman medidas efectivas para participar en las decisiones sobre los posibles usos en detrimento de la humanidad, ele hecho se convierten también en criminales de guerra. Por todo esto creo que, efectivamente, importa hablar y discutir sobre el futuro ele la biología molecular, porque es un futuro del que somos colectivamente responsables. O

Daniel Golclstein


Earl W, Sutherland Premio Nobel de Medicina

El descubrimiento del nucleótido adenosina-3',5'-monofosfato (AMPc) que permitió originalmente explicar la glucogenólisis hepática y muscular desencadenada por la adrenalina y el glucagon, pasó a ser el punto pivotal para la comprensión del mecanismo de acción de numerosas hormonas de vertebrados y además iluminó complejos problemas de regulación metabólica en bacterias. Earl W. Sutherland, autor de este descubrimiento en 1957 y tenaz clarificador del papel del AMPc en la economía de los seres vivientes acaba de recibir el Premio Nobel de Medicina de 1971. Sutherland es un discípulo de C. F. Cori y por lo tanto comenzó su carrera estudiando aspectos relacionados a la glucogenólisis hepática. En un laboratorio considerado sinónimo de la enzima fosforilasa, su primer trabajo consistió en develar la incógnita de la estimulación de la glucogenólisis por la adrenalina. Los resultados indicaron que se trataba de una estimulación de la forma activa (fosforilada) de la fosforilasa, y fue persiguiendo la clave de esta activación que encontró una sustancia termorresistente de bajo peso molecular, el AMPc, que era la responsable del efecto. La adrenalina —y el glucagon, hormona polipeptídica sintetizada por las células alfa de los islotes de Langerhans pancreáticos— estimulan la enzima adenilciclasa, que utilizando ATP como sustrato y M g 2 + como activador, aumenta la concentración celular de AMPc. Este hallazgo en sí fue de una importancia extraordinaria, porque se demostró por primera vez el mecanismo de acción de una hormona: el receptor de la adrenalina (y del glucagon) en la célula hepática es la enzima adenilciclasa. La sorpresa se multiplicó cuando se observó que una gran cantidad de hormonas alteran los niveles intracelulares de AMPc en sus órganos efectores. Entre las que aumentan la concentración de AMPc se encuentran las catecolaminas, el glucagon, la ACTH, la MSH, la LH, la vaso-

6

presina, la hormona paratiroidea, las prostaglandinas, la TSH y la tirocalcitonina. Cuando se estudió más detenidamente el fenómeno, se encontró que también en los órganos efectores de estas hormonas la estimulación de la adenilciclasa era la primera respuesta metabólica y se traducía precisamente en una activación de la síntesis de AMP cíclico. La insulina, la melanotonina y también las prostaglandinas y las catecolaminas, en algunos órganos y en determinadas circunstancias, determinan el descenso del AMPc. Todavía se desconoce el mecanismo de esta depresión de la concentración del AMPc tisural pero se ha podido correlacionar este efecto con el antagonismo conocido de estas hormonas con aquellas que elevan el contenido de AMPc en los mismos tejidos. De estos trabajos surgió la hipótesis del "segundo mensajero". El primer mensajero químico es la hormona en sí, que llega a su órgano o tejido efector. Allí encontraría la adenilciclasa —que operacionalmente cabe ser definida como el receptor de la hormona— y a través de la estimulación o inhibición de la enzima altera el contenido intracelular de AMPc —el segundo mensajero químico, intracelular— que a su vez es el responsable de desencadenar los cambios metabólicos que caracterizan la actividad de la hormona. Esta hipótesis contempla pues la existencia de adenilciclasas específicas en cada órgano, que reconocen a ciertas hormonas y no a otras, y que dependiendo del tipo de hormona reaccionan aumentando la producción de AMPc o reduciendo significativamente su producción. En 1965 Sutherland incursionó en un terreno nuevo para él: las bacterias Escherichia coli. Las E. coli tienen varias ventajas sobre los vertebrados: son los organismos donde la regulación genética de los procesos metabólicos está mejor estudiada. Sutherland, como veterano relator de los famosos Cold Spring Harbor Symposia on Quantitative Biology estaba conceptualmente preparado para encarar los problemas me-

tabólicos de E. coli. Y como tocio biólogo moderno, el problema de la represión catabólica —la obliteración de la síntesis de enzimas catabolizantes de azúcares y otras proteínas en presencia de glucosa— lo preocupa seriamente. Así fue como descubrió que el efecto de la glucosa en E. coli consistía en determinar un descenso violento de la concentración de AMPc intracelular. Los biólogos moleculares se abalanzaron sobre las implicaciones bioquímicas de este descubrimiento y así emergieron los procesos por los cuales el AMPc regula la transcripción —es decir la síntesis de RNA mensaje— de ciertas unidades genéticas de expresión coordinada en E. Coli. Otros asombrosos resultados conmovieron la microbiología: el efecto de la exotoxina del Vibrio cholera sobre las células epiteliales del intestino de los vertebrados también está mediado por el AMPc. La toxina estimula la adenilciclasa intestinal. Inyectada en el torrente circulatorio produce en ciertos territorios efectos análogos a los de las catecolaminas y el glucagon. Posteriormente se encontró otro nucleótido cíclico, el GMPc, que en la actualidad está siendo estudiado con detenimiento. Los problemas con el AMPc no están completamente resueltos. Todavía existen zonas de oscuridad y discrepancia: ciertas hormonas con efectos fisiológicos diferentes (paratohormona y tirocalcitonina, por ejemplo) tienen como común denominador la característica de elevar los niveles celulares de AMPc. La insulina y el glucagon, que difieren en casi todas sus propiedades hormonales, afectan de la misma manera la inducción enzimática en hígado. Como se puede apreciar, la obra de Sutherland es de una importancia y amplitud notables. El AMPc pasó definitivamente a integral, con otros núcleotidos claves como el ATP y el GTP, la constelación de las moléculas imprescindibles para los organismos vivientes. Di' G.


Dennis Gabor Premio Nobel de Física

>

Un nuevo principio microscópico

1

^ o : o a . J | ! ' > y 15 ; > ' (í é- 1 R i> ;o ra n:n o-

• í ; :

U' , 05 ' oro :n 3o as nas as liáM ra le n, ola íra n3 c ra el !e ra

" i , ' ' ;

1

| ¡

"El nuevo principio puede ser aplicado en todos los casos en que se dispone de radiación monocromática coherente y de suficiente intensidad como para producir figuras de difracción con un fondo coherente relativamente fuerte. Mientras que la aplicación a la microscopía electrónica promete la resolución directa de estructuras que están más allá del rango de la microscopía electrónica ordinaria, probablemente el rasgo más interesante del nuevo método para aplicaciones ópticas es la posibilidad de registrar en una fotografía datos de objetos tridimensionales. Al reconstruir puede enfocarse un plano tras otro, como si el objeto estuviera allí, aunque el efecto perturbador de las partes del objeto que están más allá del plano enfocado es más fuerte en luz coherente que en iluminación incoherente. Pero es muy probable que en óptica, donde se dispone de divisores de haz, se puedan hallar métodos para proveer el fondo coherente que permitirá una mejor separación de los planos-objeto y una eliminación más efectiva de los efectos de "sonda doble" que en los simples dispositivos que han sido investigados". Así concluía Dennis Gabor su artículo "Microscopy by Wavefront Reconstruction" (Microscopía por reconstrucción de frentes de onda) que constituye un extenso análisis del artículo que con el título "A New Microscopio Principie" (Un nuevo principio microscópico) había publicado unos meses antes, el 15 de mayo de 1948, en tres págiñas de la revista inglesa NATURE. En estos artículos se propone un nuevo principio para la microscopía electrónica, pero como segunda intención se incluyen las posibilidades de aplicación a la óptica, posibilídades que fueron ampliamente aprovechadas años después al inventarse el láser, mostrando que lo que realmente había desarrollado Gaber era

un nuevo principio óptico. Este principio resultó ser tan importante que dio lugar a una nueva disciplina científica, la holografía, cuyas aplicaciones se extendieron no sólo a la física y a la óptica sino también a numerosas ramas de la ciencia y de la tecnología, con tanta trascendencia que le valieron a su creador el Premio Nobel de Física de 1971. El hecho de que un microscopio electrónico no pueda brindar un haz de electrones que constituyan la "radiación monocromática coherente" que cita Gabor, hace que la aplicación de su nuevo principio a la microscopía electrónica sea aún para él un motivo de atención. Tal radiación debiera ser la que más se pareciera a la emitida en forma continua y en una única frecuencia por una fuente puntual, de modo de lograr que las figuras de interferencia que esta radiación produzca, tengan una nitidez óptima. Pero como la materia al emitir radiación no lo hace con una única fuente sino con una gran cantidad de ellas, pues cada átomo (o cada molécula, según el caso) contribuye

individualmente a la emisión total, la única forma en que la suma de las radiaciones de cada una ele estas fuentes se parezca a la radiación de una única fuente es que los átomos o las moléculas se pongan "de acuerdo" al emitir y lo hagan en forma ordenada y sincrónica. En el año 1948 esto sólo podía ser una idealización teórica cuya materialización había sido sugerida por Einstein en base al principio de la emisión estimulada de radiación y estaba siendo buscada por varios experimentadores. También Gabor, en 1950 y luego en 1956, propone el desarrollo de una fuente luminosa que siga ese principio como tema de tesis a su mejor alumno, pero en ambos casos concuerdan en descartarla por considerarlo demasiado arduo. Mientras tanto las únicas fuentes luminosas que podían emitir con cierta coherencia eran lámparas espectrales como las de sodio o mercurio y es por esto que desde el año 1952 a 1956 Gabor trabaja en la construcción de un microscopio holográfico que emplea como única

Deimis Gabor Dennis Gabor nació en Hungría y estudió en la Universidad Técnica de Budapest y en la Technische Hochschule en Berlín. Trabajó como ingeniero investigador en Alemania y en Inglaterra hasta formar parte del Imperial College of Science and Technology, en Londres, como profesor de Física Electrónica y Aplicada. Actualmente trabaja en los laboratorios de la compañía CBS en Stanford, en Norte América, donde ha hecho numerosas contribuciones al desarrollo de las comunicaciones y de la televisión en color. Su saber cubre una amplia gama de intereses, como se manifiesta en varios artículos suyos escritos en revistas científicas y en un libro sobre problemas sociales titulado "Inventing the Future" (Imaginando el futuro). Antes de obtener el Premio Nobel ya había ganado fama mundial y distinciones, como la medalla Rumford de la Sociedad Real de Londres y en Estados Unidos el premio Michelson del Instituto Franklin y la medalla de honor del Instituto de Ingenieros Eléctricos y Electrónicos,

7


m t m , de impacto y que se agrandan a velocidad constante. A esta onda la llamaremos "onda de referencia". En la figura 1 destacamos el sector de esta onda que nos interesa, que es el que se propaga hacia el punto O donde hay un barrote rígido simulando un objeto elemental. Al alcanzar al barrote parte de la onda se difracta, esto es, da lugar a una nueva onda con origen en O que se suma a la anterior en toda la superficie del agua y que al vibrar mantiene un perfecto sincronismo con la porción de onda que no fue difractada. Esto equivale a decir que ambas ondas están en fase o son coherentes entre sí. A esta nueva onda la llamaremos "onda objeto". En la figura 2 tenemos representada esta situación y podemos observar los puntos en los que las crestas (o máximos de la onda) se interceptan. En estos puntos la intensidad de la suma de ambas ondas es máxima (puntos de interferencia constructiva) y si observamos su trayectoria durante la propagación de las ondas vemos que siguen líneas como las marcadas en la figura que desembocan en los puntos que han sido numerados sobre el segmento PP. En los restantes puntos de este segmento se podrán encontrar, por ejemplo, el máximo de una onda con el mínimo de la otra, u otras combinaciones semejantes de menor intensidad que la de los puntos señalados. El registro de la suma (o interferencia) de ambas ondas es lo que Gabor llamó holograma (del gr. holo — total, grama = registro) pues constituye, como ya veremos, el registro de toda la información que la onda puede obtener del objeto.

'//¿'y--

Figura 1

Figura 2 fuente la luz de una lámpara de mercurio. Pero la poca coherencia de esta luz hace que el aparato sea demasiado complicado y por lo tanto de difícil aceptación, pese a tener también la ventaja de poder hacer tomas empleando diez o hasta cincuenta veces menos cantidad de luz que la requerida para fotografías microscópicas comunes. Este es el último trabajo de Gabor sobre holografía hasta que en 1960 se logra la fuente luminosa de radiación coherente tan buscada, el láser, que simplifica y mejora notablemente las técnicas interferométricas, dando un gran espaldarazo a ese "nuevo principio" que, debido

8

también a Gabor, se llama holografía y pasa a ser la técnica de reconstrucción de frentes de onda.

Principios elementales Veamos una analogía entre las ondas producidas por el impacto de una piedra en el agua y la radiación de una fuente coherente (por ejemplo, luminosa) a fin de poder entender qué es la holografía. El impacto de la piedra sobre la superficie del agua genera en ésta una onda que se propaga en todas direcciones y cuyas crestas o máximos de vibración pueden verse como círculos con origen en el punto (R)

Toma del holograma Registrar la suma de ambas ondas en P P equivaldría, en el caso de ondas luminosas, a colocar allí una placa fotográfica o algún otro medio de registro. En tal caso, los puntos de mayor actividad de la onda corresponden a los puntos que aparecerán más ennegrecidos una vez revelada la placa. Siguiendo con nuestra analogía acuática, reemplacemos dichos puntos por nuevos barrotes rígidos colocados en la misma posición (o sea, en los puntos ya numerados) que representarán al holograma. Sea ahora el caso de la figura 2,


donde mantenemos la onda de referencia con origen en R y la hacemos incidir sobre el holograma, habiendo eliminado la onda objeto al sacar el barrote que estaba en O. Cuando la onda llega al holograma se generan por difracción nuevas ondas centradas en cada uno de los barrotes. La distribución de estas ondas depende pues de la anterior interferencia entre la onda de referencia y la del objeto y es tal que a cierta distancia del holograma se suman, dando lugar a una única onda, pero con centro en el punto O. Lo que sucede es, pues, que se forman crestas semejantes a las que hubiera producido el barrote si lo hubiésemos dejado en O, o sea que se reconstruye totalmente la onda objeto utilizada en la toma del holograma. Tratándose de ondas luminosas, al mirar esta onda divergente vemos una perfecta imagen virtual del objeto ubicado en la posición en que se encontraba al efectuar la toma del holograma. Es interesante mencionar el hecho de que todas las ondas difractadas por el holograma también convergen sobre un punto como el O' de la figura 3, que es simétrico a O respecto del holograma. En este punto todas las ondas llegan en fase, produciendo interferencia constructiva y dando así lugar a un punto que es la imagen de O enfocada en O'. Esta imagen creada por el holograma es la llamada imagen real del objeto y posee características particulares. El ejemplo que hemos dado tomando como objeto un barrote (o un pequeño punto difractante) es válido para el caso en que tenemos como objeto varios barrotes (o puntos), pues podemos reconstruir conjuntamente cada una de las ondas provenientes de dichos barrotes. En general podemos considerar la superficie de un objeto como constituida por una sucesión de pequeños "barrotes" o puntos difractores que dan origen a una onda compleja pero que puede ser igualmente registrada y reconstruida. En las figuras anteriores hemos representado la obtención de un holograma tal como la concibió Gabor, pues es el caso en que tanto el origen de la onda de referencia (R) como el de la onda objeto ( O ) y el centro de la placa fotográfica se encuentran sobre un mismo eje. Lo que ocurre entonces es lo que

se ve en la figura 3, donde tanto las ondas difractadas como la no difractada se superponen en la misma región del espacio. Estos efectos molestos de superposición son los que Gabor menciona en su artículo como efectos de "onda doble" y pueden ser evitados si apartamos la placa del eje RO. Como vemos en la figura 3 al reconstruir el holograma en esas condiciones las tres ondas sólo se suporponen en una zona muy cercana al holograma. En dicha figura hemos puesto un objeto en forma de flecha y agregado líneas entrecortadas que sirven para comparar geométricamente la situación de la figura 1 (derecha). La característica esencial de la toma holográfica es que reconstruye no una imagen del objeto sino toda la onda que proviene de él, de modo que no hay diferencia entre la observación del objeto y la de la reconstrucción holográfica. Así es como al mirar una reconstrucción holográfica la tridimensionalidad del objeto se conserva tal cual es, pues cada uno de ambos ojos observa la imagen según su propio punto de vista y recoge la reconstrucción holográfica con la perspectiva que corresponde a ese punto de vista, de modo que en nada se diferencia la imagen que se observa de la que se vería si el objeto estu-

viera realmente allí. Sin embargo, como puede verse en la figura 3, la imagen real del objeto aparece invertida. En efecto, ubicándonos en dicha figura, la observación la haríamos cíesele la reglón que está a la derecha del holograma. Si mirásemos la imagen virtual veríamos el objeto como una flecha que nos apunta, tal cual es. Pero si mirásemos la imagen real veríamos en cambio la cola de una flecha que se aleja. Este fenómeno es doblemente curioso, ya que no sólo nos cambia la posición de la imagen sino que también cambia su perspectiva, porque se ven más cerca las partes del objeto que en realidad están más alejadas. Este efecto, llamado seudoscopía, nos brinda una imagen semejante a la que tendría una matriz de moldes del objeto. (Actualmente puede verse en las vidrieras de muchas farmacias una propaganda que emplea este efecto: consiste en el molde del rostro de una señorita pintado interiormente de modo que su cabellera se ve por delante de sus ojos y de su brillante sonrisa, creando una extraña sensación de bajorrelieve.) La reconstrucción holográfica también puede hacerse a todo color mediante una técnica que emplea en la toma y en la reconstrucción luz de láser de tres colores diferentes.

9


Aplicaciones

t Los primeros bologramas fueron tomados por Gabor empleando luz de una lámpara de mercurio. En la figura podemos ver el holograma, que es el registro de la figura de difracción producida por el objeto y en la cual es casi imposible reconocer la imagen de éste. Pero la reconstrucción del holograma muestra la imagen del objeto con nitidez y también algún "ruido" de fondo debido a la imperfección de tas lentes que empleó Gabor.

Interferometría holográfica por doble exposición. Cada una de ambas secuencias holográficas corresponde a dos estados de tensión distintas del neumático. Una falla en un surco hizo que en el resto del neumático, la dilatación en esa zona fuera mayor interferenciales que surcan dicha zona y esto se evidencia en las franjas.

10

Holografía ultrarrápida. Una cualidad importante de la holografía es que permite registrar el frente de onda que provino de un objeto en un breve instante y detenerse luego a analizar su reconstrucción tanto como se quiera. La herramienta fundamental para este tipo de estudios es el láser de rubí, que puede emitir pulsos luminosos de mucha potencia y de brevísima duración (unos pocos mi! millonésimos de segundo). De este modo el holograma de un objeto veloz tomado con este láser permite detenerlo en el tiempo y observarlo cuidadosamente. Interferometría holográfica. Otra aplicación interesante es la de detectar variaciones tales como dilataciones o contracciones en el objeto en el momento en que éstas se producen. Para hacer este tipo de interferometría holográfica es necesario reubicar al holograma exactamente en el lugar donde fue expuesto y así superponer la onda reconstruida holográficamente con la proveniente del objeto. De este modo cualquier variación en la superficie del objeto modificará la onda objeto y hará que difiera de la reconstruida por el holograma, que es la que representa al objeto no alterado. La diferencia entre estas dos ondas se podrá ver en la forma de franjas de interferencia en cantidad proporcional a la deformación. Este tipo de análisis es exclusivo de la holografía ya que permite comparar la situación del objeto en cualquier instante con la que tuvo en el momento de la toma del holograma, o sea que compara situaciones no contemporáneas. En forma semejante pueden compararse las situaciones del objeto en dos instantes dados mediante la superposición, por doble exposición, de los hologramas correspondientes a esas situaciones. Por ejemplo, el análisis de la figura de interferencia producida al reconstruir un holograma en el que se han superpuesto las imágenes de dos posiciones diferentes de un objeto permite describir cuál ha sido el movimiento resultante de éste entre ambas posiciones, y observar si durante el movimiento sufrió alguna deformación. Así se pueden medir dilataciones térmicas o deformaciones debidas a tensiones superficiales


' C.J."'jíia es (!; ";c¡n m -No ':< uno w'l [urj * ••'•t ¿ <:., i». 1 vi 1 - rail * \ki K-'ui

' > Ora i >1; dt ••áto ' 'íyto • -r ¡<W. ti: ¡ü> -Mi* v„- a•'.tí .. i '.i h íV ríe h '...'ti h -.rjJj aii, : .i-iuo •

•, W VV.i' , !í,U tl'HVO ••>un,,'iitul I. £® ,'', M en • h»

¿ Mi' ,,f¿ >h ai

%

í i|í¡ el)| h sido , c-se M¿r íi

mecánicas sin necesidad de tocar las Aplicaciones biológicas I I I I I i I II ll I I I ll I III ll I I I I I (til I I M I I I I I I piezas ni de recurrir a modelos. y médicas Por otra parte, la holografía también mejora notablemente las técLa holografía instantánea. Si en nicas de análisis de medios trans- • ' I I i I I I I lugar de la fotografía microscópica parentes, ya sea para la medición de < 1 M II I I II I I I II II I I I I I II II I I I I | IIconvencional I I I I I I I I de un espécimen tomavariaciones en el índice de refracmos un holograma del mismo, obteción o de tensiones en el interior de Ejemplo rudimentario de una imagen nemos la ventaja de poder registrar modelos transparentes de piezas me- que contiene varias frecuencias en una sola toma todos sus planos cánicas, pues permite obtener el re- espaciales y de su descomposición focales. Esto es importante en el gistro en forma tridimensional. en cada una de las frecuencias caso en que dicho espécimen se mueFiltrado espacial. Entre las valio- espaciales que la componen. va rápidamente, porque no es posas contribuciones que posteriorsible tomar una sucesión de fotomente a Gabor se hicieron a la hografías variando el enfoque si prelografía figura la idea de considerar tendemos que tales tomas corresuna analogía formal entre las frepondan a una misma situación. cuencias temporales de las ondas La holografía interferométrica. Al eléctricas (por ejemplo, el número que nos permite detectar su pre- aplicar la holografía interferométride ciclos por segundo) y las fre- sencia. ca a la microscopía se logra detercuencias espaciales de una imagen Pero este filtrado no sólo nos minar con precisión las pequeñas (el número de veces en que se re- dice si una cierta imagen compleja variaciones o movimientos del espite una unidad básica a lo largo contiene a otra más simple sino que pécimen. de un centímetro). también nos indica si contiene imáLa holografía ultrasónica consiste Así se puede introducir en la óp- genes parecidas a ésta, dándonos el en realizar la toma del holograma tica el mismo formalismo matemá- grado de semejanza mediante la in- mediante ondas de ultrasonido y tico que se venía usando con éxito tensidad de los puntos luminosos adecuar el registro de modo de poen la ingeniería eléctrica, basado que nos señalan la ubicación de ta- der reconstruir con luz de láser. En fundamentalmente en la operación les imágenes. consecuencia puede registrar objetos llamada transformación de Fourier, Este hecho permite su aplicación que son totalmente opacos a la luz, aplicable tanto a la teoría de las co- por ejemplo, a la detección y clasifi- como el interior del cuerpo humano, municaciones como a la de la di- cación de caracteres gráficos en for- obteniendo una información visual fracción. ma más rápida y precisa que la que tridimensional que puede ser supeLa exactitud de esta analogía per- resulta de descomponer la imagen rior a la de una radiografía y, obviamite la construcción de elementos punto por punto y hacer el análisis mente, sin requerir la exposición a los rayos X. que se constituyen en filtros de fre- por medio de computadoras. cuencias espaciales. Así como pue"Desborroneo" o mejoramiento El filtrado espacial puede ser muy de construirse un filtro para separar de la nitidez de una imagen. Una útil para hacer un diagnóstico citoen una onda eléctrica de audiofre- aplicación particular del filtrado es- lógico rápido a fin de clasificar los cuencia, por ejemplo, los tonos gra- pacial consiste en fabricar filtros ta- tipos de células presentes en una ves (de baja frecuencia) de los agu- les que, aplicados a una imagen, me- muestra de tejido, principalmente dos (de más alta frecuencia), tam- joren su nitidez. Esto es posible si las células cancerosas, aventajando bién es posible por medio de la tales filtros separan las frecuencias notablemente en tiempo al análisis holografía, realizar un filtro para se- espaciales que provienen de la ima- microscópico convencional. Para ello gen de aquellas que hayan sido oca- habría que hacer un filtro holográparar frecuencias espaciales. La importancia del filtrado espa- sionadas por imperfecciones carac- fico múltiple con los diversos tipos cial reside en que una imagen se ca- terísticas de los elementos que sir- de células, benignas y malignas, que racteriza más que por su forma y vieron para obtener la imagen. Así, se intenta reconocer y con este • filtamaño, por la distribución de las por ejemplo, si una fotografía con- tro hacer el análisis de la imagen de frecuencias espaciales que la compo- vencional sale fuera de foco, puede la muestra de tejido. Cuando ésta nen, de modo que si fabricamos ho- ser mejorada reenfocándola median- contenga células similares a las malográficamente un filtro que retenga te un adecuado filtro hecho con el lignas que fueron empleados como las frecuencias espaciales correspon- objetivo con que se tomó la foto- filtro, la presencia de puntos luminosos en la imagen nos dará una dientes a una imagen determinada grafía. con ese filtro podemos analizar cualEste procedimiento también per- señal de alerta y de ahí en más la quier otra imagen y determinar si mite recuperar la tridimensionalidad muestra deberá ser analizada en contiene a la que sirvió de filtro. en fotografías bidimensionales co- forma convencional. En la práctica esto se hace po- munes mediante la selección de los El "desborroneo" del reenfoque. niendo en un sistema óptico espe- planos focales del objetivo corres- Uno de los inconvenientes que precial la imagen a analizar e interca- pondiente. sentan los rayos X al ser usados lando como filtro el holograma de El "desborroneo" se aplica in- para formar imágenes, es que no la imagen que pretendemos indivi- cluso al mejoramiento de las foto- pueden ser enfocados por medio de dualizar. Al iluminar el sistema con grafías obtenidas mediante micros- lentes, debiendo formarse la imagen luz; de láser el resultado es que so- copios electrónicos. (Aquí se aplica con la sombra del objeto. bre todos los lugares de la imagen la holografía a la microscopía elecPara que una sombra sea lo más analizada que contienen a la imagen trónica en una forma que Gabor ori- nítida posible es necesario reducir filtro, aparece un punto brillante ginalmente no sospechó.) al mínimo las dimensiones de la

11


fuente emisora (esto se evidencia si observamos que la sombra producida por una lámpara de filamento es mucho más nítida que la que produce un tubo fluorescente). Es así que si pretendemos tomar una radiografía nítida debemos reducir de algún modo el tamaño de la lámpara de rayos X. Pero al hacerlo reducimos su intensidad, lo que nos obliga a exponer la placa durante mucho más tiempo y en esas condiciones se hace difícil radiografiar a ningún paciente sin que la toma salga movida. Es posible, sin embargo, radiografiar sin tener que reducir las dimensiones de la lámpara si luego, mediante un correcto filtrado espacial, compensamos la pérdida de nitidez de la radiografía. Asimismo se pueden también seleccionar distintos planos de la radiografía para analizarla en forma tridimensional. Las aplicaciones de la holografía son muy numerosas, por eso es que nos hemos limitado a considerar sólo las que abarcan los temas de mayor generalidad e interés, dejando de lado las de aplicación más específica. Pero las ya mencionadas bastan para ver en la obra de Dennis Ga-

La holografía en la Argentina Tres laboratorios han volcado sus esfuerzos en^el desarrollo de investigaciones básicas y aplicadas en holografía. El grupo del profesor Ickx, de la Universidad^ de Lieja, Bélgica, instalado en la Universidad Católica de Córdoba, dedica su actividad a los aspectos fundamentales de la holografía. Su trabajo se desenvuelve dentro del programa de cooperación con el centro madre de la Universidad de Lieja. En el Departamento de Física de la Facultad de Ingeniería de la Universidad de Buenos Aires se ha comenzado este año a trabajar en el tema con vistas a su aplicación. En el Laboratorio de Espectroscopia Optica y Láser del Departamento de Física de la Universidad Nacional de La Plata se obtuvieron los primeros hologramas en 1969; esto fue una consecuencia natural del desarrollo de técnicas de aplicación del láser a la fotoelasticimetría que condujeron hacia la holografía ¡nterferométrica.

bor un ejemplo cabal de la generalidad de la ciencia, mostrándonos cómo un científico, profundizando en su especialidad, puede llegar a trascender a muchas otras. En una de las fotografías anteriores se muestra uno de los primeros hologramas tomados por Gabor, en el que puso los nombres de Huy-

gens, Young y Fresnel, pilares de la óptica. No es difícil que si en el futuro algún investigador llega a descubrir algún nuevo principio óptico utilice como modelo para su primera nueva imagen estos nombres y el de Gabor. José J. Lunazzi

Gerhard Herzberg Premio Nobel de Química El premio Nobel de Química fue otorgado este año al espectroscopista Gerhard Herzberg, por su contribución fundamental al estudio de la estructura de moléculas y radicales libres. Su nombre es conocido de todo estudiante o profesional relacionado con la espectroscopia molecular, por su serie de libros "Molecular Spectra and Molecular Structure" comenzada en la década del 30 con "Spectra of Diatomic Molecules" y continuada con "Infrared and Raman Spectra" y "Electronic Spectra and Electronic Structure of Polyatomic Molecules". Esta obra monumental es aún hoy texto de consulta indispensable y su mérito, especialmente en cuanto a sistematización de datos en una época pionera, es extraordinario. Los trabajos originales del pro-

12

fesor Herzberg se extienden a un gran número de campos, afines si se quiere, pero que dada ia microespecialización de la ciencia son bien diversos entre sí: estructura de vibración de las bandas electrónicas, estructura electrónica en relación con la unión química, espectroscopia infrarroja de alta resolución, espectros de atmósferas planetarias, determinación espectroscópica de energías de disociación de moléculas, espectros de radicales libres, estructura hiperfina (Lamb Shift) de espectros atómicos del deuterio, 3 He, 4 He y Li + , espectros de absorción de iones moleculares, etc. Estos trabajos fueron desarrollados en el curso de mas de 40 años dedicados a la investigación. Herzberg se doctoró en Darmstadt en 1927 y trabajó en el lugar que era

en ese entonces el centro mundial de las ciencias físicas: Gottingen. Emigró luego al Canadá, donde fue profesor en Saskatoon y posteriormente director de la división de física del Consejo Nacional de Investigaciones en Ottawa, donde se formó bajo su dirección un importantísimo grupo de investigación que figura entre los más prestigiosos del mundo. El premio Nobel que le fuera tan justamente otorgado lo debió no a alguna realización espectacular, sino a una obra monumental, variada, interesante, paciente, que ciertamente hace de él una figura indispensable en la espectroscopia óptica moderna.

Hernán H o n a d e o


FflLCON El automóvil más vendido de todos los que se fabrican en el país, , *En 197/,

según

cifras

oficiales de

ADEFA.


Hemoglobina: el pulmón molecular O

Max Perutz

Consagrado desde hace muchos anos al estudio de la molécula de hemoglobina, Max Perutz considera en este artículo — e l primero de dos— la culminación de largos trabajos de análisis estructural que brindan ahora una clara comprensión de la función que la hemoglobina desempeña. Lejos de ser u n agente pasivo de transporte, la hemoglobina sufre radicales reordenamientos moleculares al aceptar y al liberar las moléculas de oxígeno que transporta por los tejidos.

M. F. Perutz es jefe del Departamento de Biología Molecular de la Universidad de Cambridge, Inglaterra. Nació en Viena en 1914 y estudió química en la Universidad de Viena. En 1936 se trasladó a Inglaterra para trabajar en el Laboratorio Cavendtsh de la Universidad de Combridge bajo las órdenes de J. D. Bernal. Obtuvo su PbD en cristalografía de rayos-X en 1940. Entre 1939 y 1945 trabajó como asistente de investigación de W. L. Bragg en el Laboratorio Cavendish. En 1947 fue nombrado director del nuevo Medical Research Council Unit for Molecular Biology, cargo que ocupó hasta 1962 cuando fue construido para él y sus colegas el Laboratorio de Biología Molecular.

14

La hemoglobina es la proteína de los glóbulos rojos de la sangre y es tan vital como el corazón, porque actúa como un enlace entre los pulmones —donde el oxígeno es inhalado— y los tejidos —donde se lo necesita para la generación de energía—. Un glóbulo rojo puede transportar hasta 1.000 millones de moléculas de oxígeno. Al liberarlas, la hemoglobina toma iones de hidrógeno, que colaboran con el transporte de retorno de dióxido de carbono ( C 0 2 ) desde los tejidos hasta los pulmones; además transporta directamente cierta cantidad de COu. La hemoglobina tiene, en consecuencia, una doble personalidad: actúa como transportador de oxígeno en las arterias y, tanto directa como indirectamente, actúa como portador de CO2 en las venas. La sangre arterial saturada de oxígeno es escarlata, pero al entregar su oxígeno se torna púrpura. Esta característica "camaleónica", por así llamarla, presenta numerosas facetas, particularmente un cambio magnético. Si parte de un tubo que contiene sangre venosa es suspendida verticalmente entre los polos de un electroimán, parece tornarse más pesada cuando el campo es conectado. Después de admitir oxígeno, en cambio, parece tornarse más liviana. Esta transición

del estado paramagnético al diamagnético fue descubierta en 1936 por Linus Pauling y C. D. Coryell. En aquel tiempo su significado no resultaba del todo claro; ahora dicho fenómeno es la clave que permite comprender la doble función de la hemoglobina y el sutil control de su afinidad con el oxígeno en respuesta a necesidades fisiológicas.

Eficiente transporte de oxígeno Poco después de comenzado este siglo, fisiólogos y bioquímicos descubrieron que la hemoglobina es una gigantesca molécula constituida hasta por 10.000 átomos, que incluía cuatro átomos de hierro, cada uno de los cuales podía formar una conexión química débil con una molécula de oxígeno. El hierro ocupa el centro de un pigmento llamado porfirina que otorga a la hemoglobina su color rojo (Figura 1). Los átomos restantes configuran la proteína llamada globina. Los fisiólogos que medían la gradual absorción de oxígeno por soluciones de hemoglobina descubrieron un curioso efecto. Establecieron que la atracción de una molécula de hemoglobina por el oxígeno dependía del número de moléculas de oxígeno


ya combinadas con ella. El caso es bien descrito por la parábola bíblica del rico y el pobre: "Porque a aquel que tiene le será dado y a aquel que no tiene le será quitado". Supongamos que hay dos moléculas de hemoglobina, A y B; A tiene tres moléculas de oxígeno y B ninguna. ¿A cuál se adherirá una molécula de oxígeno próxima? Las posibilidades son de 70 a 1 en favor de A, Análogamente, supongamos que A tiene cuatro moléculas de oxígeno y B solamente una. ¿Cuál de ambas tiene más probabilidades de perder una molécula de oxígeno? Hay 70 probabilidades contra 1 de que B pierda su única posesión y no de que A pierda cualquiera de sus riquezas. Este efecto asegura una eficiente carga y descarga de oxígeno: si la descarga de cada molécula de oxígeno ligada a la hemoglobina no debilitara la adhesión de las restantes moléculas, la mayor parte del oxígeno sería llevado de vuelta a los pulmones y un hombre se asfixiaría aunque respirara normalmente. Otros factores presentes en los tejidos, así como los propios glóbulos rojos, ayudan a la hemoglobina a entregar su oxígeno. Los ácidos láctico y carbónico, productos resultantes ambos de la oxidación de los alimentos, liberan iones de hidrógeno que disminuyen la afinidad de la hemoglobina por el oxígeno. El 2,3-difosfoglicerato (DFG) es un fosfato orgánico producido en el glóbulo rojo a partir de azúcar en respuesta a la escasez de oxígeno. Promueve la liberación de cualquier cantidad de oxígeno que permanezca aún adherida a la hemoglobina. El DFG tiene particular importancia en la rápida adaptación del organismo a cambios de altura o a la pérdida de sangre, así como en la regulación de la transferencia de oxígeno de la madre al feto a través de la placenta. La afinidad, de la hemoglobina por los iones de hidrógeno, el DFG y el C 0 2 aumenta a medida que es liberado el oxígeno. El comportamiento de la hemoglobina fue durante largo tiempo uno de los grandes enigmas planteados a la bioquímica y a la fisiología. Resultaba llamativo que una molécula fuera capaz de modificar sus afinidades químicas a mitad de camino del ciclo respiratorio y que tales afinidades respondieran a la regulación ejercida por varios factores que, desde el punto de vista quími-

Figura 1. Grupo hemo con su hierro, fijado a un nitrógeno de una cadena lateral de histidina de la globina. El anillo plano de átomos sombreados que rodea al hierro representa el pigmento porfirina.

co, estaban escasamente relacionados entre sí. En años recientes los bioquímicos han descubierto que las funciones de muchas otras proteínas, incluso las de ciertas enzimas y represores genéticos, pueden ser alteradas en respuesta a estímulos químicos específicos, en gran medida en la misma forma en que el comportamiento de la hemoglobina es alterado por el oxígeno o los iones de hidrógeno y han descubierto igualmente que tales respuestas desempeñan un papel decisivo en la regulación de la actividad química de la célula viva. Las estructuras de tales proteínas aún no son conocidas, y sus mecanismos funcionales son poco claros, pero en 1965 Jacques Monod, Jeffreys Wyman y JeanPierre Changeux propusieron una teoría física general para explicar esas extrañas propiedades. De acuerdo con esta teoría, todas las proteínas de esa índole deben de estar constituidas por varias subunidades relacionadas simétricamente que pueden oscilar entre dos estados alternativos. Estos difieren por la estructura de las subunidades mismas y por la índole de los vínculos que las conectan. En uno de tales estados, llamado T (por tenso), las sub-

unidades estarían estrechamente conectadas por modificaciones que dificultarían su actividad, en tanto que en el otro estado, llamado R (por relajado), las uniones serían más débiles, lo que facilitaría la liberación de su actividad. Monod, afecto a los nombres griegos, acuñó el término "alostéricas" para tales proteínas y, junto con sus dos colegas, sometió la teoría a prueba utilizando la hemoglobina, por ser ésta el ejemplo mejor estudiado desde el punto de vista q u í m i c o . Sus predicciones —con una importante excepción— son ratificadas por los resultados de nuestras recientes investigaciones estructurales.

La hemoglobina c o m o máquina química Cuando empecé a estudiar la hemoglobina, hace más de 30 años, pensé que nadie podría establecer cómo funciona sin conocer antes su estructura. Si se trata de una máquina química, sólo desenmarañando sus partes componentes y sus interconexiones se averiguaría su mecanismo. El único método adecuado para determinar la disposición atómica de la

15


Figura 2. Molécula de oxibemoglobina. Pueden apreciarse las cadenas a en blanco, las cadenas p en negro y las hemos y discos. El símbolo Os marca los puntos donde se combina el oxígeno.

materia sólida era la cristalografía por rayos X, pero nadie sabía cómo resolver el caso de una estructura tan compleja como la hemoglobina y me llevó 15 años dar con el recurso acertado. Este método fue empleado por John C. Kendrew y por mí mismo, así como por varios de nuestros colegas, para develar la estructura de la forma arterial de la hemoglobina y de su parienta más simple, la mioglobina. Hemos determinado ya las posiciones atómicas tanto en la forma arterial como en la venosa de la hemoglobina. Hilary Muirhead, Joyce Cox - Baldwin, Gwenne Goaman y yo resolvimos el caso de la oxihemoglobina; Bill Bolton, H i l a r y Muirhead, Jonathan Greer y yo, el de la deoxihemoglobina. La molécula de hemoglobina es aproximadamente esférica y consiste en cuatro subunidades idénticas en pares, designadas como a y (3. Están dispuestas tetraédricamente alrededor de un eje de simetría binario que pasa por una cavidad rellena de agua situada en el centro de la molécula (Figura 2 ) . Cada subunidad consiste en más de 140 residuos ami-

16

noácidos, ordenados en una secuencia determinada genéticamente que forma una cadena bobinada en segmentos helicoidales y no helicoidales de distintas longitudes. El interior está relleno de cadenas laterales de aminoácidos eléctricamente neutros, principalmente hidrocarburos, en tanto que la superficie está "claveteada" por cadenas laterales que tienen cargas eléctricas y dipolos. La cadena de proteína forma una suerte de canasta o bolsillo en torno del grupo hemo, que contacta laxamente con unos 60 átomos de la globina. Además, el grupo hemo está conectado químicamente, por medio de su átomo de hierro, con un nitrógeno de la histidina del aminoácido (Figura 1). Del otro lado del hemo hay un espacio vacío para el oxígeno. De tal manera, en la forma venosa, el átomo de hierro está conectado con otros cinco átomos: cuatro nitrógenos de la porfirina y uno de la globina. En la forma arterial se agrega un oxígeno, pero la valencia del hierro no se altera; permanece constantemente bajo forma ferrosa. Consideremos ahora una vez más

la molécula de hemoglobina como conjunto (Figura 2). Los cuatro hemo se alojan en bolsillos —ampliamente separados— de su superficie, ignorando aparentemente cada uno la existencia de los otros. Un estudio químico detallado de su contorno no proporciona clave alguna acerca de la forma en que la combinación de un hemo con oxígeno altera la afinidad de las restantes por el oxígeno, ni tampoco acerca de los efectos reguladores ejercidos por los iones de hidrógeno y por el DFG. Nuestra comprensión de cómo funciona la hemoglobina sólo comenzó cuando descubrimos que no se trata de un edificio estático sino de un mecanismo dinámico, es decir no un tanque de oxígeno sino una suerte de pulmón molecular. Al reaccionar con el oxígeno, cada unidad experimenta una pequeña redisposición, en la que el hemo modifica en pocos grados su ángulo de inclinación y las regiones helicoidales se trasladan, unas en relación con las otras, de 2 a 3 Angstroms. Además, las subunidades rotan unas respecto a las otras y en relación con el eje central de simetría por un valor angular de aproximadamente 10 grados. El amplificador molecular ¿Cómo puede la débil reacción química de las cuatro diminutas moléculas de oxígeno con los cuatro átomos de hierro determinar una redistribución tan radical en esta gigantesca molécula? Es algo así como si cuatro moscas hicieran saltar un elefante. El problema me tuvo perplejo durante muchos años, y sólo en julio de 1970 descubrí súbitamente la solución. La clave fue dada por el cambio de propiedades magnéticas mencionado antes y por un riguroso examen del mapa de densidad electrónica de la hemoglobina venosa confeccionado por Bill Bolton. El cambio magnético observado al combinarse la hemoglobina con oxígeno es la expresión exterior de una enigmática redistribución electrónica en 'Jos átomos de hierro. Cuando el hierro está químicamente ligado con sólo cinco de sus vecinos más cercanos, como en la forma venosa, dos de sus seis electrones de valencia ocupan posiciones orbitales que apuntan en las direcciones de los enlaces químicos y mantienen los átomos vecinos a distancia.


«afc ««•a

M

ya»j >"-í¡¡B

"mi n

••fW '• 'i¡ t '¡A i "JM>! » r • "P

415' '•'•jii -•rt

S,;4»fi , •

< !

;'¡ .?¡

^

vt?'» i'íi , -íí , irí» . ííi® .-.-si

"I

Por consiguiente, en la forma venosa el átomo de hierro es demasiado grueso para caber en el cinturón formado por los cuatro nitrógenos de la porfirina y es forzado a ocupar una posición desplazada hacia el quinto nitrógeno. La conexión con oxígeno determina que los electrones pasen a orbitales que apuntan en direcciones situadas entre los enlaces químicos y permiten que los átomos vecinos se acerquen más al hierro. En efecto, el hierro se contrae en un 13 por ciento, lo suficiente como para que pueda deslizarse al plano del anillo de porfirina. Como consecuencia de ello, el anillo de porfirina ejecuta, en relación con la globina, un movimiento de aproximadamente 1 Angstrom, lo que en escala atómica significa una gran distancia (Figura 3). De tal manera, el hemo amplifica el pequeño cambio sobrevenido en el radio de los átomos de hierro, convirtiéndolo en un gran movimiento de la cadena de globina en relación con el anillo de porfirina. Este movimiento proporciona el tan buscado gatillo que explica la redistribución de toda la molécula de hemoglobina que acompaña su reacción con el oxígeno. A partir de estudios cristalográficos sobre complejos de porfirina y hierro, J. L. Hoard había predicho ya la existencia de un efecto de gatillo de este tipo. Consideremos ahora la finalidad de esa redistribución desde el punto de vista de la teoría de Monod. Si la forma venosa de hemoglobina tiene una baja afinidad por el oxígeno, y la forma arterial una alta, puede deberse tanto a que en la forma venosa, los enlaces químicos entre las subunidades se oponen a su combinación con el oxígeno, o que en la forma arterial los enlaces químicos entre las subunidades se oponen a la liberación de oxígeno, o a ambas causas. La afinidad por el oxígeno de subunidades libres a y § se parece más a la de la forma arterial que a la de la forma venosa, lo cual sugiere la conveniencia de buscar constricciones sobre todo en la segunda. Encontrarlas fue fácil. La comparación de los modelos atómicos de ambas formas mostró que en la arterial cada cadena puede menear libremente su cola, en tanto que en la venosa las colas están ancladas a las subunidades vecinas. En términos químicos, esto significa que el último aminoácido, que es arginina en

la cadena a e histidina en la cadena P, y el penúltimo aminoácido, que es tirosina en las cuatro cadenas, tiene, en la forma arterial, libertad para asumir varias posiciones alternativas. En la forma venosa, en cambio, las tirosinas están firmemente aferradas entre dos segmentos helicoidales; las argininas de cada cadena a opuestas, y las histidinas de cada grupo forman también dos puentes salinos, uno con un grupo polar de la misma cadena P y otro con un grupo polar de una cadena « vecina.

Un azar afortunado Descubierta la índole de las constricciones que sujetan las subunidades de la forma venosa, el paso siguiente consistía en establecer qué es lo que las rompe cuando los átomos de hierro se combinan con el oxígeno. El punto no estaba nada claro, puesto que los átomos de hierro de cada subunidad se encuentran a cierta distancia de los extremos de la cadena. Por un afortunado azar, un experimento me dio la respuesta. Establecí que la redistribución atómica dentro de las unidades de globina, fenómeno que acompaña a su reacción con el oxígeno, incluye un estrechamiento del bolsillo que contiene la tirosina cerca del extremo de la cadena. Esto determina que la tirosina sea expulsada, sin duda alguna, de las subunidades « y probablemente (esto aún es preciso probarlo) también de las subunidades P (Figura 4). La expulsión de las tirosinas suelta las argininas e histidinas de los puentes salinos que las conectan con las subunidades vecinas. Al parecer, por cada átomo de hierro que se combina con oxígeno, se rompe un par de puentes salinos, de manera que los vínculos que constriñen las subunidades en las distribuciones venosas son sucesivamente conmovidos. Experimentos realizados en colaboración con John Kilmartin indican que la forma venosa está realmente dotada de una suerte de resorte, como lo sugería el término "tenso" de Monod, y que salta por sí misma a la forma arterial, incluso en ausencia de oxígeno, no bien los constrictores puentes salinos se rompen (Figura 5 ) .

His F8

DEOXI•

-2-9A

Figura 1. Posición del ¿toma de hierro en el plano de los cuatro nitrógenos del anillo de porfirina en la oxibemo globina (arterial), y su posición, fuera de ese plano, en la deoxibemoglobma (venosa).

FG

(T^Fe

Q

-

DEOXI

^

OXI

Figura 4. Cambio que se produce en la estructura de la subunidad con la oxigenación.

Ahora podemos empezar a entender por qué las moléculas de hemoglobina se comportan como el rico

17


Otros factores de control

Distribución fas

de

subunidades

arterial

Estructura de subunidad venosa

,

arterial

1---J "* [9]

©

Figura 5. Mecanismo alostérico de la hemoglobina. Las subunidades más pequeñas representan las subunidades a; las más grandes, las ¡i. Los cuadrados representan la forma venosa y los círculos la forma arterial de las subunidades individuales. Los vínculos entre ellos representan los puentes salinos. Las formas que pueden ser demasiado inestables para ser observadas batí sido trazadas con líneas de puntos. La línea superior representa el conjunto de las cuatro subunidades en su forma venosa; la inferior, en su forma arterial. Al combinarse con oxígenos las sucesivas subunidades, un número cada vez mayor de moléculas salta de la forma venosa (hilera superior) a la arterial (hilera inferior) y aumenta la afinidad por el oxígeno.

y el pobre de la parábola bíblica. Considérese el equilibrio entre las formas venosas y arteriales en una gran población de moléculas de hemoglobina. En ausencia de oxígeno casi todas ellas asumirán la forma venosa, bajo la cual los puentes salinos constrictores se oponen a la combinación de hierro y oxígeno. En efecto, el hierro no puede trasladarse al plano de la porfirina sin expulsar las tirosinas de los bolsillos a los cuales están ancladas por tales puentes. A medida que el oxígeno empieza a combinarse, un número cada vez mayor de las moléculas salta a la forma arterial, bajo la cual dichas constricciones están ausentes. Por ejemplo, de las moléculas de hemoglobina que han tomado dos moléculas de oxígeno, la mitad puede estar bajo forma arterial y la mitad bajo forma venosa, pero de aquellas que han tomado hasta tres moléculas de oxígeno las nueve décimas partes pueden estar bajo forma arterial y sólo una décima bajo la venosa. De modo que la afinidad por el oxígeno aumenta debido a que aumenta la fracción de moléculas que existen bajo la forma arterial,

18

sin constricciones y de alta afinidad. El efecto de los iones de hidrógeno sobre la afinidad por el oxígeno puede ser atribuido también a la apertura y al cierre de los puentes salinos. Algunos de estos puentes se encuentran formados por ácidos fuertes unidos a bases débiles. Si la forma arterial es disuelta en una solución neutra donde las bases débiles están libres, éstas tienen cargas positivas, bajo forma de iones de hidrógeno, en sólo una pequeña proporción de las moléculas de hemoglobina. Empero, tal como en un matrimonio los caracteres opuestos a menudo se fortalecen entre sí, los ácidos y las bases se fortalecen al unirse. Bajo la forma venosa las bases, débiles, son fortalecidas al combinarse con ácidos, por efecto de lo cual casi todas ellas toman iones de hidrógeno. Inversamente, una abundancia de iones de hidrógeno tiende a fortalecer sus enlaces con los ácidos y por tanto torna más difícil romper o más fácil formar, los puentes salinos. De tal modo, los iones de hidrógeno disminuyen la afinidad por el oxígeno al estabilizar la forma venosa.

El 2,3-difosfoglicerato hace otro tanto, pero en manera distinta. Forma entre las dos unidades P un vínculo electrostático que se combina sólo con la forma venosa y que debe ser expulsado para que la molécula de hemoglobina pueda pasar a la forma arterial. En una solución neutra este vínculo posee el equivalente de cuatro cargas negativas que se fijan a cuatro positivas, dos en cada una de las subunidades (3, en la cavidad central de la molécula de hemoglobina. Bajo la forma venosa tales cargas positivas se encuentran localizadas como para coincidir con el DFG, tal como los orificios de un tomacorriente están espaciados para coincidir con las fichas del enchufe, pero en la transición a la forma arterial esta posibilidad de complementarse se pierde y el DFG desaparece. Tal como los iones de hidrógeno y el DFG, también el CO2 disminuye la afinidad por el oxígeno, pero en tanto que una abundancia de iones de hidrógeno ayuda al DFG a combinarse con la hemoglobina y viceversa, el CO2 compite con el DFG y los iones de hidrógeno. John Kilmartin y Luigi Rossi-Bernardi han demostrado que se combina con los grupos amino al principio de la cadena de globina, pero aún no se ha explicado por qué la forma venosa tiene más afinidad por el CO2 que la arterial. Restan por explicarse otros problemas aún, pero todo permite pensar que su solución perfeccionará, en vez de alterar, la descripción del mecanismo que acabo de esbozar. Es notable que la naturaleza haya desarrollado un instrumento tan sutil, complejo y elegante para transportar el oxígeno y el C 0 2 sirviéndose de una pequeña contracción del átomo de hierro en combinación con el oxígeno. Me emociona vivamente que mi trabajo de toda una vida sobre la estructura de la hemoglobina haya explicado por fin su función respiratoria y, de paso, aclarado nuestras ideas acerca de las proteínas alostéricas que intervienen en la regulación del proceso biológico. Además hemos averiguado cómo la función respiratoria de la hemoglobina puede ser deteriorada por mutaciones genéticas. La patología molecular de estas hemoglobinas anormales será tema de otro artículo. O


uu

líc

Hnelf — ^

desarrollo científico Argentina de hoy J

Tilomas Moro Simpson y Rolando García opinaron en el ciclo de conferencias iniciado por CIENCIA NUEVA en agosto (C. N. 12 y 1 3 ) . Este es un resumen de sus respectivas exposiciones.

Irracionalidad, ideología y objetividad Thomas Moro Simpson

1. Esta polémica sobre Ideología y Ciencia posee la virtud de transcurrir en una atmósfera intensamente surrealista; y ello por motivos diversos, algunos de los cuales se harán visibles en las observaciones siguientes. Hubiera sido quizás fácil y agradable coincidir sobre algunos puntos concretos; por ejemplo, a) que una política científica debe establecer un orden de prioridades basadas en las características de nuestro contexto económico y social; b) que no hay un modelo único de desarrollo científico {ya sea el de EEUU, Rusia, China o Camerún) ni de desarrollo económico, y que, por lo tanto, c) no hay por qué admitir para nuestro país la perspectiva forzosa de una sociedad consumista a la americana o de un 'socialismo' totalitario a la soviética; d) que en un mundo en que las aplicaciones tecnológicas de la ciencia poseen un dramático impacto social, sería lamentable que el científico permaneciera moralmente indiferente a las consecuencias prácticas de su investigación, que pueden implicar crímenes gigantescos. Estas afirmaciones —y algunas más— me parecen razonablemente obvias, y aunque es inevitable que su análisis detallado provoque discrepancias, creo que debe realizarse de manera exhaustiva y concreta, sin necesidad de clarificar primero los misterios de la Trinidad o los no menores misterios de la dialéctica. Pero hay (¡ay!) personas que antes de formular una proposición concreta de modo inteligible prefieren crear {y lo logran) una enorme confusión inicial acerca de una gran variedad de temas, aumentando así eficazmente las posibilidades de desacuerdo. Se dedican, pues, con insistencia, a rechazar la noción de 'objetivi-

dad científica" y la existencia de "hechos objetivos"; los valores culturales "universales" (risas) caen también bajo la picota, y no se olvidan de denunciar de manera equívoca el positivismo lógico, un perro filosófico que está muerto hace mucho, aunque prestó buenos servicios. El minuet suele completarse con algunos lanzasos contra el liberalismo en general, cuyas obsoletas teorías económicas no se distinguen de sus ideales políticos y humanitarios (nuevas risas). Sin duda involuntariamente, el coro actual trae el recuerdo de otras voces pretéritas, que en tiempos sombríos para la humanidad coincidieron en las mismas repulsas.

2. Señala un autor que en los textos de Marx y Engels el adjetivo "Ideológico" posee un sentido más amplio que el sustantivo "ideología". Es bien sabido, además, que Lenin emplea "ideología" en un sentido distinto del que hallamos en Marx. Y Ame Naess ha distinguido más de 30 significados diferentes de esta palabra. Parece necesaria, pues, una ligera clarificación semántica. Un ejemplo de esta necesidad puede hallarse en la nota de O. Varsasky titulada "Ideología y Verdad" (Ciencia Nueva, N? 12), que pretende constituir una respuesta a las afirmaciones de G. Klimovsky sobre "Ciencia e Ideología" (Ciencia Nueva, N° 10).

Leemos en la nota de OV que "sería demasiado barato detenerse a mostrar el sesgo ideológico de las afirmaciones de GK", pues el artículo de GK "es un buen ejemplo en contra de lo que en él se sostiene"

19


(p. 44). Además, "La ciencia actual está impregnada de ideología a todo nivel". Muy bien, pero ¿qué entiende OV por "ideología"? ¿En qué consiste la posesión de tan desdichado "sesgo ideológico"? Aunque OV se niega a dar una definición explícita (sostiene que hacerlo es un vicio ideológico [¿¡!?], el texto permite inferir que algo es ideológico cuando dificulta o favorece la transformación de la sociedad en la dirección que OV considera adecuada, con el agregado implícito de que lo que no contribuye positivamente a ese cambio lo dificulta (conclusión obvia: todo es "ideológico" en este sentido, así como todo objeto físico es Verde o no Verde). Pero de aquí se deduce que la observación de OV acerca del "sesgo ideológico" de la tesis de GK solo puede significar, a lo sumo, que esta tesis no favorece el proceso político en la dirección adecuada; por lo tanto no es cierto, como cree OV, que la mera existencia de tal "sesgo ideológico" refute la tesis de GK sobre la objetividad del conocimiento (ver Ciencia Nueva, N? 10). Pues el hecho de que las ideas de GK no tengan la virtud de acelerar el proceso revolucionario no las convierte en falsedades. Después de todo, lo mismo ocurre con la teoría de la relatividad, para no hablar de las investigaciones sobre el transplante de órganos, que tampoco contribuyen a la revolución, sino que en cierto modo estimulan las "ilusiones reformistas". Es quizás por eso que en un pasaje desconcertante de su libro (Ciencia, Política y Cientificismo, p. 16, línea 19) OV alude con escepticismo a los corazones artificiales, cuya producción parece ser un señuelo más de la sociedad de consumo.

3. Una de las falacias usuales en que incurren los que promueven la instrumentación política de toda actividad cultural es la siguiente: afirman primero que el poder político ha controlado siempre esta actividad; y concluyen en seguida que la cultura debe estar al servicio de la política. Esta es la falacia elemental que consiste en pasar del hecho a la norma. He aquí un ejemplo de entrecasa. En 1949 hubo en la revista Ciencia e Investigación una polémica acerca del caso Lisenko. En el número de abril el doctor J. E. Azcoaga publicó una carta defendiendo las medidas del gobierno soviético contra los biólogos mendelianos, a quienes el P. C. había condenado por sostener "teorías biológicas extranjeras y antipatrióticas, hostiles al pueblo". Como argumento esencial en defensa de la dirección política de la ciencia, el Dr. Azcoaga cita allí esta frase de R. Ghioldi: "Estamos esperando todavía que dicha prensa [la "prensa burguesa". T. M. S.] trate de probar en toda la historia de la ciencia un solo caso en que la ciencia estuviese disociada de la política. Si les citamos los casos de Galileo y de Bruno dirán, tal vez, que son cosas de un pasado remoto; pero ¿y ese profesor norteamericano condenado [ . . . ] por defender la teoría darvinista de la evolución? [ . . . ] Evidentemente —concluye— la ciencia y la política no están separadas" (p. 157). Aquí tenemos la falacia en su forma pura, con esa deslumbrante ingenuidad lógica que suele adornar la justificación de los más grandes crímenes. Todos conocemos lo ocurrido con Galileo y el profesor norte-

20

americano, pero creo modestamente que no son hechos dignos de imitarse. 4. Hay también una falacia similar pero más elaborada, cuyo análisis podría titularse: "De la correspondencia imaginaria entre base y superestructura a la persecusión policial". Consiste en afirmar que a cada época "coresponde" empíricamente cierta forma de cultura, según leyes históricas difíciles de testear; establecido luego que a una sociedad X "corresponde" una forma de cultura Y, y que vivimos en una sociedad X, se concluye que debemos producir tal forma de cultura. El punto gracioso de esta cuestión es que si la cultura producida de hecho en la sociedad X no es la que le "corresponde" según el esquema teórico, entonces la policía se encarga de hacer cumplir las leyes históricas y evitar la refutación de la teoría. Esta falacia ha gozado de mucho predicamento en algunas sociedades denominadas "socialistas" porque nacionalizaron los medios de producción. 5. Los que invocan a Marx debieran recordar que él entendía por "ideología" una imagen invertida, y por lo tanto falsa, del mundo, solo superable mediante un esfuerzo máximo del pensamiento racional, que Marx identificaba con la ciencia. Su análisis de la sociedad capitalista se proponía presentar las leyes que la gobiernan con la misma pretensión de objetividad con que Darwin formuló su teoría de la evolución. No abrigaba el propósito de exponer una nueva ideología, sino el resultado de la aplicación consecuente del método científico a la realidad social. Y lejos de clamar contra "la investigación desinteresada de la verdad", denunció a la sociedad capitalista por las trabas que los intereses de clase ponían a tal investigación: "La lucha de clases. . . dio el toque de difuntos por la economía científica burguesa. Ya no se trató de si este o aquel teorema era verdadero, sino de si era útil o perjudicial, cómodo o incómodo para el capital, agradable o no a la policía. Al estudio desinteresado reemplazó la fanfarronada pagada; a la libre investigación científica, la mala conciencia y la perversa intención de la apología" (Del prólogo a la 2a. ed. de El Capital). Parece claro que Marx no soñaba con proponer una imitación socialista de la realidad que criticaba con tal indignación. Siendo el pensamiento ideológico, para Marx, una ilusión producida por los fenómenos observables de la estructura social (así como el movimiento aparente del sol genera en forma natural una astronomía geocéntrica) no es de extrañar que el desgarramiento de esta ilusión solo pueda lograrse mediante un enorme esfuerzo del pensamiento crítico, que supere los límites del realismo ingenuo. Lo que se ofrece es un esquema teórico que por mostrar el origen de la ilusión no puede, a su vez, ser ilusorio. El marxismo se presenta, en suma, como una teoría científica de la sociedad (es increíble que haya que repetir esta trivialidad en 1971); y como ocurre con toda teoría científica,^ el conocimiento que proporciona es neutral en el sentido de que corresponde simplemente a la verdad, con prescindencia de la ubicación social del observador o de cualquier otra circunstancia considerada por la sociología del conocimiento.


6. El "sesgo" anticultural de la actitud ideologista puede verse con claridad cuando pasamos de la ciencia a otros aspectos de la cultura. En el N ? 7 de la revista Hombre Nuevo, OV se arroja al campo de la literatura, y refiriéndose a los escritores de izquierda dice que con ellos "este sistema social se ha anotado uno de sus mayores éxitos": "Con el pretexto de no hacer literatura populachera. . . —dice OV— escriben solo para intelectuales o gente con un grado apreciable de instrucción. A García Márquez no lo lee el pueblo; y aun si lo leyera, ¿en qué lo ayudaría políticamente?" (p.

6 ) .

Este utilitarismo en materia artística cuenta con una buena tradición en el pensamiento de derecha. En una novela de Proust un aristócrata critica a Flaubert porque, según él, "en estos tiempos hay tareas más urgentes que ordenar palabras de un modo armonioso". En verdad, es fácil probar que siempre hay tareas de mayor urgencia. Las desdichas de la humanidad no se han acumulado en el siglo xx: existen a todo lo largo de la historia. La triste conclusión es que no hay lugar en este mundo para los productos más elaborados de la cultura, incluyendo ejercicios tan inocuos como el intento de comprobar si negando el quinto postulado de Euclides puede inferirse una contradicción. Mientras Sacheri se dedicaba a este ejercicio "inútil", cuyo resultado final fueron las geometrías no euclídeas, la humanidad no era más feliz que en 1971. El problema es, entonces, ¿qué hacer con la cultura? La exigencia de que el arte debe ser comprensible para el pueblo tiene algunas variantes de interés. En una época que a los jóvenes parece remota, el C. C. del P. Comunista Soviético se expresó "contra la teoría podrida [de los compositores que creen] que el pueblo no está bastante evolucionado para apreciar su música". Pronto se vio que esta teoría era, en efecto, falsa, pues el gobierno eliminó la música complicada y ya todos entendieron. Por la misma época, el bienintencionado Zdanov acusó a la poetisa Ana Akhmatova de escribir poemas que "no ayudaban a construir la nueva sociedad". Ya lo vemos: ahora es urgente destruir la vieja sociedad, y a esta tarea debe supeditarse la totalidad de la cultura; mañana será necesario construir la nueva sociedad, y como esta tarea es tan importante como la destrucción de la vieja, habrá que deshechar todo lo que "no ayude al pueblo políticamente". ¿Y pasado mañana? Pasado mañana, sin duda alguna, la nueva sociedad se habrá convertido en vieja, v lo más urgente será hacerla pedazos (esta predicción está asegurada por las leyes dialécticas inmanentes al proceso histórico). No es de extrañarse si esto conduce a la degradación cultural y el fanatismo; pues según una definición feliz, un "fanático" no es otra cosa que " u n hombre que perdió de vista los fines y se dedica por completo a los medios".

7. La filiación histórica de los ataques a los valores culturales universales y a la objetividad del conocimiento es tan triste, que dan ganas de llorar. En la Universidad de Heidelberg, donde enseñó Spinoza, los nazis reemplazaron la famosa inscripción: "Al espíritu universal", por otra más "revolucionaria": "Al espíritu Germano". Desde el punto de vista nazi la ciencia no es nunca objetiva, y menos aún "internacional" (la in-

ternacionalidad de la ciencia es un invento de "judíos y liberales"). En 1938 un grupo de historiadores nazis proclamó dulcemente: "Nosotros no somos objetivos: somos alemanes" (sic). Si no hay objetividad ni criterios comunes para juzgar los argumentos, es imposible el diálogo racional; y por eso el ideologismo, o sea la actitud consistente en considerar las ideas como una mera función de intereses o motivos ocultos, sin atender a su contenido y a su relación con los hechos, conduce a una forma u otra de irracionalismo (elegante o bestial). Durante el desarrollo del fantasmagórico caso Lysenko, al que me referí antes, un biólogo soviético con "conciencia política" dijo lo siguiente: "Los morganistas quieren una discusión. Pero nosotros no discutiremos con los morganistas (aplausos); nosotros continuaremos denundándolos". El reemplazo de la discusión por la denuncia parece una consecuencia natural del ataque a la objetividad. Es digno de señalar que Marx fue una víctima predilecta de esta técnica ideologista. Una versión suave de ella puede hallarse en Toynbee (Estudio de la Historia, t. u ) , donde Marx es "refutado" sin tomar en cuenta para nada el contenido teórico de sus afirmaciones. ^ No ignoro que hay quienes usan los "valores universales" y la "objetividad" con el objeto de "vender buzones", para decirlo con la metáfora elegida por OV; pero lo mismo ocurre con otros conceptos como "Pueblo" ("Oh, Pueblo, cuántos crímenes. . . " , etc.), "internacionalismo proletario" (Oh, Checoslovaquia), "libertad" (pretexto para masacrar vietnamitas), "socialismo" (pretexto para masacrar bengalíes), y así ad finitum. El peligro se halla, pues, en los buzones, y no necesariamente en los conceptos mismos.

8. Me interesa detenerme ahora en un detalle pintoresco, que forma parte del carácter surrealista que atribuí a esta polémica. Según nos cuenta OV en la p. 47 de Ciencia, Eolítica y Cientificismo, "una escuela filosófica muy en boga entre los científicos norteamericanos afirma que: una proposición significa algo si, y solo si, es verdadera o falsa". ¿Cuál es esta escuela filosófica? Sin duda el positivismo lógico. El estilo insinuante de la frase recuerda otras como: " E n círculos filosóficos pagados por el Pentágono está en boga la teoría de que el espacio es curvo". OV rechaza la tesis mencionada porque, según dice, "hay otra dimensión del significado que no puede ignorarse: la importancia". Pero ¿cómo puede creer OV que esto constituye una refutación? La afirmación negada por OV tiene la forma de un bicondicional, y negarla equivale a sostener que puede darse al menos uno de los casos siguientes: a) que una proposición significativa no sea ni verdadera ni falsa; b) que una proposición no significativa sea, sin embargo, verdadera o falsa. Pero, por una parte, no es esto lo que OV dice; y, por otra, esto nada tiene que ver con la "importancia", como es obvio para cualquiera. La tesis rechazada se apoya en la intuición de que una oración significante trasmite información, y que en eso consiste precisamente su significado. Y es plausible considerar que el contenido informativo de una oración está dado por sus condiciones veritativas: la información puede caracterizarse como el conjunto

21

^

!|

[ * }

j j


de casos posibles en que una oración es verdadera. Este es el quid de la tesis sostenida por la mentada "escuela filosófica", tesis que ya fue rechazada por Aristóteles con argumentos más serios que los de OV. De ningún modo deseo negar que "la importancia" es importante. Ni siquiera el más acérrimo "liberal a la violeta" negaría algo tan obvio, que es perfectamente compatible con la idea de que una oración es significativa si, y solo si, es verdadera o falsa. Las razones de OV para atacar esa tesis semántica son para mí oscuras. Ya he sugerido que tal actitud parece destinada a promover el desacuerdo hasta donde sea posible; "y lo peor de todo, sin necesidad", como observó Carriego acerca de "la costurerita que dio aquel mal paso"; pues creo firmemente que es posible coincidir en los objetivos prácticos del cambio social (cuando estos objetivos se explicitan claramente) sin necesidad de pasearse por la epistemología con tanta desidia intelectual.

lo usa. Si T y T" son dos teorías diferentes en las que figura la palabra "tomate", entonces su significado debe ser también distinto en cada una de ellas. Del punto B resulta que dos biólogos que sostengan teorías "incompatibles" —o que describiríamos normalmente como tales— acerca de los tomates, no pueden eliminar la discrepancia mediante la discusión racional y la experimentación, pues el sentido de "tomate" en una teoría no es el mismo que posee en la otra. Cada científico solo puede conversar con los que participan de su paradigma; y los paradigmas son "inconmensurables" entre sí, pues no hay un lenguaje empírico neutral que permita la comunicación entre sostenedores de teorías diferentes. En suma, la discusión racional es un mito. Solo los partidarios del mismo paradigma usan el mismo lenguaje y pueden entenderse, aunque no discutir sobre las hipótesis; pues si alguien pone en duda una hipótesis cambia el significado de los términos y se encuentra automáticamente en otro paradigma, o sea en otra galaxia.

9. En su conferencia, R. García se manifestó de acuerdo con OV en que "Hay que replantear la base misma del quehacer científico", y en relación con esto impugnó "la imagen oficial de la ciencia", representada según él por el empirismo lógico. Esta concepción de la ciencia se apoyaría sobre dos supuestos: 1. Hay "hechos objetivos", independientes del individuo que investiga; 2. El científico formula hipótesis, extrae sus consecuencias lógicas y compara estas últimas con los hechos. Según García, la crítica conjunta de Piaget, Chomsky, Russell Hanson, Kuhn y Feyerabend han probado que tal concepción es falsa. Sobre el supuesto 1 dice textualmente: "El punto de vista empirista lógico sobre la existencia de hechos objetivos es cuestionable aun en el contexto de justificación". Y también: "No solo la descripción de cualquier hecho depende de cierta teoría... sino que algunos hechos no son hechos, no se ponen de manifiesto como hechos, es decir, escapan a la posibilidad de ser considerados como hechos... hasta que no se tiene una teoría alternativa para ponerlos en evidencia". En cuanto al supuesto 2, sostiene que no resiste el análisis histórico realizado por Kuhn. Lamentablemente, las afirmaciones acerca de la inexistencia de "hechos objetivos", independientes del sujeto que percibe, no se apoyan en ningún ejemplo; y las ambigüedades con que García formula el tema, por ser producto de una exposición no escrita, obligan a una exégesis ecuánime: García sabe, sin duda alguna, que "no ponerse de manifiesto como un hecho" no es lo mismo que "no ser un hecho". Pero como García se remite a Kuhn, nos referiremos brevemente a este autor. En síntesis apretada, las ideas de Kuhn podrían resumirse en los dos puntos siguientes: A. No hay observación pura: al percibir categorizamos la realidad. Un niño y un biólogo que observan un tomate ven cosas diferentes. Observamos a través de teorías, las cuales crean de algún modo los hechos acerca de los que hablan. Una teoría científica aceptada es un marco conceptual que Kuhn llama un "paradigma". B. El significado de cualquier término es una propiedad relacional que depende de la teoría en que se

La referencia al "cambio de galaxia" tiene un sentido más literal del que podría esperarse. Kuhn sugiere de manera algo ambigua que el cambio de paradigma no solo reconstituye la ciencia, sino que además modifica la naturaleza. En la p. 117 de La estructura de las revoluciones científicas leemos lo siguiente: "Como resultado de haber descubierto el oxígeno, Lavoisier vio la Naturaleza en forma diferente. Y puesto que no podemos acceder a esa hipotética Naturaleza que él "vio en forma diferente", el principio de economía nos induce a decir que después de descubrir el oxígeno Lavoisier trabajó en un mundo diferente". Es difícil decidir si nos encontramos aquí frente a un empleo audaz del principio de economía, o simplemente con un lenguaje metafórico, como sostiene Margaret Masterman (Criticism and the Growth of Knowledge, 1970). Pero si se trata realmente de una afirmación seria, esta postura conduce a un subjetivismo extremo, que me resulta difícil conciliar con las repetidas invocaciones de García a la dialéctica. Dicho sea al pasar, el supuesto sobre la existencia de hechos independientes de cualquier sujeto forma parte de las versiones canónicas del marxismo, y sin duda sería suscripto por Mao Tse Tung, a quien García cita con placer. Pero volvamos a las tesis A y B. Lo que deseo sugerir es que son autorefutativas. Una teoría puede compararse con un sistema de creencias, representable como un conjunto de oraciones- Consideremos ahora el sistema RG, o sea el sistema de creencias que García puso de manifiesto aquí el 26 de octubre, cuando dijo que Galileo tardó 34 años en formular cierta ley. Me pregunto si se trata realmente de un hecho "autónomo", "objetivo", de un hecho que existe con prescindencia de que García lo conozca o no, o si lo dicho por él acerca de Galileo es algo que solo existe cuar do se observa desde el paradigma RG. Este punto ilustra una cuestión más general: la de que no es posible apoyarse en los hechos de la historia de la ciencia para probar que no hay hechos o que la realidad no es descubierta sino creada por el científico.

22

Es interesante observar que el ataque a la noción de objetividad contenido en los paradigmas de Knhn es aun más radical que el representado por las "ideologías totales" de Manheim, pues éste suponía que los


'•NíicaJo

not. M»[nte. Htiión ta.

'•«"ttfflj.

¡nía ota H í i e par' f ü i e cu' «'te S05-

' tfeaiin

msimo

3 entender, si ¿

fl

míticamente un sen-

'As ««¡jete * nr,idp • itmlí i» mmii í-: "Cuino 1 livoiát ti!» qne

' í'Vaí que i1 "imk "«p

: :ítentea > simple-

intelectuales podían liberarse de las deformaciones determinadas por la perspectiva social sin caer en la deformación correspondiente a otra perspectiva (por eso afirmaba que su teoría del conocimiento no era "relativista" sino "relacionista"). En el volumen citado antes, Feyerabend dice que la concepción de Kuhn "tiende a inhibir el avance del conocimiento y a aumentar las tendencias antihumanitarias" (p. 197). Kuhn, por su parte, nos informa que, de acuerdo con Feyerabend, "la elección de teorías es algo intrínsecamente irracional" (p. 235). Puedo citar ahora sin remordimientos a Karl Popper, según quien "el mito del marco conceptual [es decir, el mito del paradigma] es en nuestros días el baluarte principal del irracionalismo" (loe. cit., p. 56). 10. Finalmente, lamento contrariar a OV manifestándome de acuerdo con él en un punto fundamental: la necesidad de construir utopías (científicas) o modelos de una sociedad deseable. Es conocido el tajante menosprecio de Marx por todo intento de construcción utópica: "No queremos anticipar el mundo dogmáticamente —escribió cuando aún era un joven

hegeliano de izquierda— sino hallar el mundo nuevo por medio de la crítica del antiguo". Creo, sin embargo, que este menosprecio se apoyaba en una confianza demasiado ingenua en el carácter dialéctico de la historia universal. El esquema era simple: es estéril especular sobre el futuro; hay que aguardar a que éste madure en el presente, y contribuir a esta maduración por medio de la crítica y la acción revolucionaria. Y en el instante preciso, cuando las circunstancias lo exigen, aparecen necesariamente las instituciones políticas y económicas que constituyen la superación de la etapa anterior. La tragedia del socialismo en el siglo xx muestra el tamaño de esta ingenuidad antiutópica. En 1917, a pocas horas de tomar el poder, Lenin declaró solemnemente: "Pasamos ahora a la construcción de la sociedad socialista"; pero nadie sabía cómo era esa sociedad que debían construir. La confianza en los procesos dialécticos de la historia está hoy menos justificada que en la época de Marx. Hoy sabemos más que él. Construir utopías científicas revisables es promover un utopismo realista, en contraste con la dialéctica utópica del marxismo clásico. O

Ciencia, política y concepción del mundo

• vMit' r •'&,«• ••wá i h* tepe• !lb;ea ' k.Wn: adelas " mLI» t.'.i Ju coa .'¡'.1 puede KKiítiutíe •* , abr.nl Gaá

ra^li»

¡¡y, Me '», .'litÍBO«jttescin, 'j dicho i it coando - í-.t ilustra

'/f0fj¿fi' '¡noción <k

j. géncs "¡deolo-

Rolando V. Garda Uno de los problemas más candentes que preocupa a los científicos y a los estudiantes es la posición de la ciencia y de los trabajadores de la ciencia en el mundo convulsionado en el cual vivimos. Este problema tiene un aspecto puramente político y otro aspecto directamente relacionado con la teoría del conocimiento científico. El punto de partida de las consideraciones de tipo político que voy a formular puede resumirse con una simple frase: somos un país en guerra. O, si uds. quieren: estamos en un continente en guerra. Una guerra que es parte de la guerra mundial que está librando el Tercer Mundo por su liberación. No somos nosotros quienes hemos inventado la frase "estamos en guerra". Es el propio gobierno, o mejor dicho los gobiernos que hemos tenido. Ellos saben, desde hace mucho, que estamos en guerra. En nosotros está la culpa de no haber asumido este desafío en toda su dimensión. Si estamos en guerra, nuestra función es la función de los combatientes. Debemos sentirnos combatientes; debemos actuar como combatientes; debemos pensar como combatientes. El objetivo de un combatiente es ganar la guerra. Sus mayores esfuerzos deben de estar

concentrados en ese fin. Y aquí surgen de inmediato los problemas fundamentales que hay que considerar: cómo se identifica al enemigo; cuáles son las condiciones de la lucha; qué pasa después de la victoria . . . En los análisis que suelen hacerse acerca de la actitud que debe asumir el hombre de ciencia en est-e proceso, hay una posición que está en boga y que ha resultado muy atractiva para sectores universitarios de izquierda, particularmente en el campo estudiantil. Según esta posición, cada tipo de sociedad tiene su "estilo" de ciencia característica, y el hombre de ciencia que aspira a que se instaure una sociedad distinta de la actual debe desarrollar un "estilo" de ciencia acorde con el tipo de sociedad que se establecerá "después de la victoria". Creo que es, en forma muy esquematizada y, por consiguiente, no totalmente exacta, la posición que ha planteado Oscar Varsavsky. Planteado así el problema, creo que debemos considerarlo como un planteo fuera de contexto, un planteo en abstracto. En tal medida es sólo un juego académico, una nueva forma de cientificismo ( o neocientificismo). Creo que la calificación más adecuada que le corresponde es la de ser un planteo tecnocrático. Voy a dar tres argumentos para fundamentar lo que digo.

23


En primer lugar, la historia es un proceso dialéctico. Las condiciones reales en las cuales se da un proceso revolucionario no están determinadas de antemano. Se van definiendo a medida que el proceso avanza. Ningún plan preconcebido tiene mucha probabilidad de ser aplicado, o aún de ser aplicable. Basta con dar un ejemplo: Para los vietnamitas el proceso revolucionario, la guerra misma y la reconstrucción se dan como un solo proceso. Los vietnamitas van introduciendo la reforma agraria a medida que van liberando territorios. Esa reforma agraria tiene características propias que están determinadas por las condiciones mismas del proceso de liberación. Es fácil imaginar que si hubieran ganado la guerra —digamos— en un par de batallas, hubieran tenido todo el territorio en sus manos y con posibilidades de ser organizado en un período de paz, las características de esa reforma serían distintas. Nadie sabe cómo va a concluir ese proceso, ni cuánto va a durar ni, por consiguiente, cómo tendrán que irse adaptando las soluciones a los problemas concretos de las zonas liberadas. En segundo lugar, aún cuando se tratara de un rápido proceso revolucionario, de una toma efectiva del poder en forma inmediata y de condiciones que hicieran posible la implantación de un plan preconcebido, el planteo que aquí se nos propuso me parece utópico. Los físicos saben muy bien que una solución matemática de una determinada ecuación que representa un problema dado carece de sentido hasta que se le aplican las condiciones iniciales y las condiciones de contorno. Eso es muchísimo más cierto en los problemas que corresponden a las ciencias sociales. Y las condiciones de contorno suelen ser —lo han sido históricamente— de tal gravedad que eliminan muchas bellas soluciones concebidas en abstracto. Todos los países liberados (cualquiera sea la forma de liberación) han tenido que prepararse para el ataque exterior en todas sus formas. El país —cualquier país— está inmerso en un mundo donde pasan ciertas cosas, se aplican determinados métodos de guerra abierta, o de guerra económica, o de presiones de todo tipo. Cuando visití China hace algunos años, me llamó la atención el cuidado que ponían en la enseñanza del idioma inglés, la cantidad y la alta calidad de los intérpretes en esa lengua. Al preguntarles la razón, contestaban con su habitual sonrisa: "hay que conocer muy bien el idioma del enemigo principal". La misma respuesta obtuve en un laboratorio de Física de la Universidad de Pekín, donde un grupo de alumnos armaba un equipo de resonancia magnética nuclear: "tenemos que saber todo lo que sabe el enemigo". El tercer argumento que voy a presentar es el valor relativo, muy relativo, del científico —en tanto científico— en un proceso revolucionario. Oscar Varsavsky se preocupa por ciertas características de la ciencia actual que pueden dificultar el proceso. ¿Cuál proceso? ¿El proceso revolucionario? ¿El proceso de construcción del país después de la toma del poder? ¿Ambos? Yo creo que hay aquí una idealización, una sobrevaloración desmesurada de lo que puede hacer la ciencia, que puede calificarse de posición tecnocrática. En todos los planteos de este tipo falta el protagonista principal del proceso histórico: el pueblo. Ese pueblo al que la ciencia no le importa mucho por ahora. Nosotros podemos integrarnos al proceso, pero como in-

24

dividiros que se incorporen a un movimiento popular, no como científicos que pretenden tener en su poder el plan, la fórmula, el programa que contenga la solución de los problemas, solución recién salida, fresquita, de una poderosa computadora. Yo no niego el valor del tipo de trabajo que preconiza Varsavsky. No niego que sea muy útil. Pero planteado así, en abstracto, sin que sea el producto mismo de la acción, aparece como una actividad intelectualizada e intelectualizante de más valor académico que real. Repito que no niego su importancia. Pero aquí hay que aplicar el criterio que el propio Varsavsky proclama: es necesario definir las prioridades. Entre las prioridades más apremiadas de este mundo en lucha, de esta guerra en la cual estamos inmersos, la búsqueda de nuevas formas de hacer ciencia no tiene para mí la máxima prioridad. No va en la página 1 de mi cuaderno de prioridades. Va en la página 4, porque yo reservo para la página 1 aquellos problemas de los cuales puedo extraer consecuencias inmediatas para la acción: la toma de decisiones "aquí y ahora", con las condiciones tal como están dadas, con los medios disponibles, con los recursos humanos y materiales que están a nuestro alcance, con el tipo de enemigo que tenemos por delante, con la dureza y la duración de la lucha que enfrentamos. Al margen de las consideraciones de tipo político esbozadas precedentemente, queda en pie el problema de saber si efectivamente hay otras formas de hacer ciencia que sean distintas de lo que podríamos llamar "la versión oficial". Más precisamente, si el proceso mismo que conduce al desarrollo del conocimiento no puede llegar a ser distinto del proceso que está descripto por las corrientes que están en boga dentro del campo de la filosofía de la ciencia. En este tipo de planteos suelen presentarse como posición de la ciencia oficial las corrientes filosóficas que (sin mucha precisión y con bastante arbitrariedad) suelen designarse con el nombre genérico de "empirismo lógico". Esta posición ha dado una imagen de la ciencia que podría esquematizarse así: hay hechos, que son la materia prima del quehacer científico; son hechos autónomos del individuo que investiga, y que están ahí, dados-, el hombre ele ciencia formula hipótesis, extrae consecuencias de dichas hipótesis, y somete esas consecuencias a la verificación, confrontándolas con los hechos autónomos. Esta posición ha sido seriamente cuestionada en los últimos diez o quince años en los Estados Unidos, pero viene siendo combatida sistemáticamente en la prolífica obra de Jean Piaget desde la década del treinta. El mundo central de la crítica es coincidente, aunque las vías para hacerlo, las reinterpretaciones ofrecidas y las consecuencias extraídas no lo son. La coincidencia reside en rechazar el punto de vista estrictamente empirista sobre la existencia de hechos autónomos y objetivos. La concepción según la cual lo que hace el científico es comparar una teoría con hechos autónomos que están dados como tales es considerada como una descripción demasiado simplista de la práctica científica. Kuhn, Feyerabend y Russell Hanson, entre oíros, se basan fundamentalmente en un análisis hisrórico. Jean Piaget llega a través de la epistemología genética. La reconstrucción del proceso por el cual Kepler


llega a la idea de que las órbitas descriptas por los planetas son elípticas (proceso que nada tiene que ver con el anecdotario comente acerca de las ideas místicas de Kepler), o por el cual Galileo llega, después de 30 años de especulaciones, a la constancia de la aceleración de la gravedad, muestran que la versión oficial antes mencionada no es adecuada para dar cuenta de la complejidad del proceso. La respuesta de las posiciones que hemos designado genéricamente como empirismo lógico se basa en la distinción entre psicología y filosofía de la ciencia, por un lado, y entre contexto de descubrimiento y contexto de justificación, por el otro. Aquí se hacen dos suposiciones. En primer lugar, que la línea divisoria entre el contexto ele justificación y el contexto de descubrimiento es perfectamente clara. En segundo lugar, que los factores psicológicos, subjetivos, sólo juegan un rol en el contexto de descubrimiento. Ninguna de estas dos suposiciones parecen, sin embargo, resistir al análisis histórico del desarrollo de la ciencia, ni el _ análisis genético del proceso constitutivo del conocimiento. Kuhn pone énfasis en el cuerpo de presuposiciones y de creencias que es sostenido por la comunidad científica en un momento particular de la historia. Tales presuposiciones constituyen verdaderas reglas que gobiernan implícitamente la elección de problemas admisibles y los métodos correctos de evaluar la solución de los problemas considerados legítimos. La posición de Feyerabend, por su parte, está centrada en la afirmación de que hay hechos importantes que no están "disponibles", como hechos, hasta que haya una teoría disponible que los revele como tales. El éxito en el proceso de verificación de una teoría —sostiene Feyerabend— puede ser más fabricado que objetivo en la medida en que produce la eliminación de hechos que podrían refutar la teoría. Esta situación no es hipotética. El conductismo estableció una "psicología científica" cuyos materiales de trabajo eran "observables", "estímulos objetivos" y "respuestas" a dichos estímulos. Como consecuencia, una enorme cantidad de hechos quedaron de jacto excluidos en cuanto tales. Cincuenta años de esterilidad fueron el resultado de tal "rigor científico". (Ver, por ejemplo, la crítica ya clásica de Chomsky a Skinner.) Sin adherir a las conclusiones que extraen Kuhn y Feyerabend, considero que sus críticas son suficientemente fundadas. También estaría de acuerdo con algunos de sus oponentes en que el empirismo lógico podría reformularse para tomar en cuenta estas críticas. Creo, sin embargo, que en un momento dado las reformulaciones se acumulan en forma tal que es preferible hablar de una posición distinta, en lugar de seguir considerando que se trata de una nueva versión de la misma historia. De todas maneras el empirismo lógico y las posiciones afines han cumplido una misión histórica de tal magnitud que no es irreverencia hacia ellas presentarlas como un proceso superado. Esta nueva posición no sería, sin duda, la de Kuhn o Feyerabend, pero sí una basada en una investigación epistemológica más profunda "a la Piaget". Una posición que curiosamente se entronca con la tradición marxista (aunque no lo parezca leyendo los textos filosóficos de la "ortodoxia" soviética). Lo que interesa, para nuestro análisis, es una conse-

cuencia que podríamos expresar de la manera siguiente: dado el mismo mundo, podría haber sido pensado, percibido, en forma diferente; podríamos hablar dé él de manera distinta a como lo hace la ciencia actual. Este tipo de consideraciones me lleva a coincidir con el enfoque que hace Oscar Varsavsky —aunque no con su formulación— sobre la posibilidad de una ciencia distinta de la "ciencia oficial' 'actual. Pero aquí conviene hacer un par de observaciones. En primer lugar, hay algunas formas muy obvias, que han imperado en toda la historia de la ciencia, de nacionalismos o de concepciones de ciertas clases o grupos que han impuesto la manera de hacer ciencia en una época determinada. En mecánica de fluidos, por ejemplo, los ingleses se aferraron a las ideas de Newton —casi todas falsas— e ignoraron durante muchos años los brillantes trabajos de John y Daniel Bernoulli o de Euler, simplemente porque era la ciencia "del continente". Este es un hecho muy conocido y no vale la pena detenerse en el, cuando se habla de la influencia de la ideología en la ciencia. Pero hay otro sentido, mucho más profundo, de considerar la influencia de la ideología —yo diría, más bien, de la concepción del mundo— en el desarrollo de la ciencia. Si los chinos, que descubrieron el principio de inercia 2000 años antes de Galileo, hubieran continuado desarrollando las ideas físicas que tenían en la época en que el mundo occidental estaba dominado por Aristóteles, es muy posible que la física actual fuera bien distinta. Esto está de acuerdo con la posición esbozada anteriormente según la cual los hechos no están ahí, dados de una vez por todas: hay toda una concepción del mundo que va involucrada en su elección y en la manera de tratarlos. Sin embargo, esto difícilmente lo hace un conjunto de hombres reunidos alrededor de una mesa, y estudiando mucho. Creo que es algo que se da a través de procesos históricos y no por la acción directa de un individuo que por razones de convicción decide hacer otro tipo de ciencia. En este sentido, la formulación de Varsavsky, que creo que es genuina y profunda, la entiendo como un programa, como una posibilidad, como algo que podría llegar a tener lugar. Si las consideraciones precedentes tienen algo más que el valor de una especulación puramente académica es, a mi juicio, por sus implicaciones prácticas para la acción. Lo que nos preocupa es qué es lo que podemos hacer nosotros —trabajadores en el campo científico— para ser coherentes con nuestra concepción del tipo de sociedad al cual aspiramos. En este contexto, vuelvo a poner la problemática que plantea Oscar Varsavsky en la página 4 y no en la página 1 de mi cuaderno de prioridades. Porque creo que los problemas que tenemos por delante están dados ya de cierta manera. Estamos inmersos en un mundo que nos conduce a pesar nuestro. Tenemos que conocer y dominar ese mundo y no podemos tomar como actitud revolucionaria legítima el retirarse a replantear la formulación de la ciencia o a buscar la ciencia que habrá de implantarse cuando se transforme la sociedad. Dentro de la perspectiva de lucha que se abre para nosotros, lo que importa es la manera de estar involucrados en un proceso que nos impone la urgencia de actuar con él, dentro de él, y no marginados, observándolo desde afuera. O

25


Qué haríajusted con una| computadora? « S i

f *

\ 1U

El concurso organizado por "Ciencia Nueva" y Honeyivell'Bull despertó apreciable interés entre los lectores, aunque no llegaron a 20 los inicialmente interesados que con» cretaron la elaboración de un tema. El jurado, presidido por José Babini e integrado por Ricardo A. Ferraro, Manuel M. Risueño, Oscar Mattiussi y Alfredo Pérez, encontró, en general, bajo nivel en los trabajos presentados, declarando desierta la categoría Profesionales en computación y destacando el de J. C. Crespi entre los tres trabajos premiados que pueden leerse más abajo. Los ganadores podrán utilizar durante un mes el servicio de Time-Sharing Honeyivell-Bull.

1 Regulación de tensión y frecuencia en una distribución de energía eléctrica intereonectada

necesario mantener constante los siguientes parámetros: tensión, frecuencia y secuencia de fases. Los parámetros a mantener constantes a través de la computadora son: tensión y frecuencia.

Aplicaciones de la computadora a este trabajo

Carlos Rubén Cejas Estudiante de la E.N.E.T. N? 1 "Luciano Fortabat" - Olavarría Categoría: Escuelas secundarias Consideraciones generales En los sistemas de generación y distribución de energía eléctrica es

26

Regulación de la tensión: En un sistema de distribución podemos distinguir las siguientes etapas: generación transmisión y distribución (en media y baja tensión o tensión de consumo). La aplicación de la computadora quedaría limitada, por razones de extensión, al control de la tensión en la etapa de transmisión o de distribución a estaciones transformadoras

a alta tensión. Dicho control se llevaría a cabo con la acción directa de la computadora sobre el sistema de excitación de los alternadores y cuando esto no sea suficiente sobre la operación de bobinas de reactancia, capacitores fijos y condensadores sincrónicos. Como regulación auxiliar se podría considerar la salida fuera de servicio de los cables alimentadores que se encuentren en paralelo con otros, entre los mismos puntos de origen y destino y sin alimentaciones o derivaciones intermedias. Regulación de la frecuencia: La frecuencia depende estrechamente de la relación oferta-demanda de energía. Con esta base la computadora deberá regular en función de la frecuencia la potencia generada en los distintos grupos, al valor económico que corresponda de acuerdo con las características de cada grupo.


La puesta en servicio y salida de servicio de grupos teniendo en cuenta que la reserva en rotación se mantenga siempre en un valor equivalente a la potencia de la máquina más grande que se encuentre en funcionamiento en ese momento. Deberá lógicamente preveer cortes de energía para los casos en que se produzcan desequilibrios debidos a variaciones bruscas en la potencia generada por la salida fuera de servicio accidentales de grupos generadores. Para las variaciones de carga en los grupos deberá actuar la computadora sobre todo el sistema de control de las máquinas motrices.

k nor m

2 Distribución

10-

Luis Eduardo

os

Etudiante

!Í0

Sraibman

de Ingeniería,

U.N.B.A.

Categoría-. Estudiantes de temas de computación

de de aula

«a ita-

La nte de Italia en ni:do

po.

El objetivo de este planteo es la resolución de problemas de distribución de objetos en un plano (reales o simbólicos), en base a pautas de prioridad y / o compatibilidad. La estructura lógica del programa consiste en un "arreglo base (bidimensional o tridimensional, según el campo de distribución sea plano o espacial), cuya dimensión es la del campo disponible, m o d u l a d o d e acuerdo al tamaño de los objetos a distribuir. Los elementos de este arreglo se inicializan con valores que dan su prioridad de ocupación. Otros arreglos (uno por cada elemento a distribuir) son los que deberán saturar al básico respetando las pautas dadas. Por ejemplo, aplicado a la distribución de máquinas en una fábrica, los accesos (puertas y ventanas) son inocupables; las condiciones de pro-

ducción pueden aconsejar la proxi- metales sometidos a carga uniaxial midad de algunas máquinas entre sí más allá clel rango elástico, a la vez y características funcionales exigir la que han sido diseñados modelos que ubicación de algunas en sectores ventoman en cuenta la dependencia ele tilados o iluminados, como también la historia de carga de un metal. Sin recomendar que ciertos elementos no embargo estas relaciones empíricas estén juntos. Todas estas condiciones y estos modelos están generalmente se ordenarían según prioridades (allimitados a condiciones de estado esgunas de ellas absolutas) y en algutacionario, ignorando factores tales nos casos (precisamente en los que como endurecimiento por ciclado, resultaría más útil este programa) se ablandamiento y relajación depenpodrían definir condiciones óptimas diente del ciclado de la tensión prode distribución. medio que generalmente exhiben los Otro ejemplo de aplicación es la materiales reales. confección de horarios de clases en Los procedimientos de daño acuuna Facultad, donde el arreglo bási- mulativo que predicen la vida a la co es la semana dividida en días y fatiga de muestras sin entalladuras horas (o medias horas); los objetos sometidas a tensión-compresión y las a distribuir son las materias a dictar soluciones teóricas que relacionan con sus números de horas semanatensión y deformación en la punta les y las pautas a fijar son: turnos de una entalladura con la carga so(mañana, tarde o noche), disponi- bre un miembro estructural, han perbilidad de personal docente y aulas, mitido el diseño de estructuras socantidad de alumnos (total y por metidas a cargas fluctuantes. Aquí, curso), etc. la más severa limitación en el análiEste planteo es aplicable a cual- sis de fatiga es la falta de una adequier caso que real o simbólicamen- cuada representación matemática de te se pueda reducir a un problema la respuesta del material. de distribución. El modelo matemático de Martin, Toppler y Sinclair 1 no sólo reproduce la forma de los ciclos de histéresis y muestra suficiente memoria para tratar con la historia previa del material sino que también permite que la tensión promedio se relaje, así como que haya endurecimiento y ablandamiento. U n modelo de este tipo suministra un método más exacto y conveniente para predecir la respuesta del material en el diseño de estructuras. Para demostrar la aplicabilidad de Simulación por c o m p u t a d o r a este modelo y compararlo con el prodel comportamiento cíclico puesto por R. M. W e t z e l 2 en un tensión-deformación cálculo simulado de computadora, se desea predecir la vida de muestras entalladas sometidas a un espectro de cargas arbitrario, cuando dicho Juan Carlos Crespi modelo se combina con la regla de Licenciado en Físico-química. Inves- Neuber, las constantes del material, tigador científico de la Comisión Na- las propiedades de fatiga y un procional de Energía Atómica, Depar- edimiento de daño acumulativo de fatiga. tamento de Metalurgia

3

Categoría-, Personas n o relacionadas con la computación El desarrollo de equipos de ensayos de materiales más complejos, ha hecho posible la obtención de una gran cantidad de datos sobre el comportamiento cíclico de metales. Concurrentemente se han desarrollado relaciones empíricas que describen la respuesta tensión-deformación de

1 J. F. Martin, T. H . Toppler y G. M. Sinclair "Computer based simulation of ciclic stress-strain behavior with applications to fatigue". Materials Research and Standards, February 1971, pág. 23. 2 R. M. Wetzel, "A method of fatigue damage anaíqsis". Tesis doctoral. University of "Waterloo, U.S.A. Department of Civil Engineering, September 1971.

27


Que es la Biofísica Marcelino Cereijido ^ I l f f

Este artículo debería comenzar con la definición de biofísica. Formalmente podríamos salir del paso diciendo por ejemplo: "es la disciplina que trata de explicar los procesos fundamentales de la vida en base a leyes físicas". Pero eso no nos llevaría muy lejos. Más honesto sería hacer como hizo Aaron Katchalsky, ex presidente de la Sociedad Internacional de Biofísica (IUPAB): En su discurso inaugural del I I I Congreso Internacional de B i o f í s i c a (Cambridge, Mass., 1968) confesó que con la biofísica le pasaba como con su mujer: la conocía profundaM a r c e l i n o Cereijido. (38)

Miembro

de la Carrera del Investigador del Consejo Nacional de Investigaciones Científicas y Técnicas (CNICT). Trabaja actualmente en el Departamento de Biofísica del Centro de Investigaciones Médicas Albert Einstein (CIMAE). Graduado en Medicina (1957). Dr. en Medicina (1961). Obtuvo un premio a la mejor Tesis Doctoral (1962). Trabajó bajo la dirección de Braun Menéndez en Hipertensión Arterial Nefrógena. Trabajó en Harvard bajo la dirección del Prof. A. K. Solomon y P. F. Curran en el Laboratorio de Biofísica (1961 a 1964) primero como becario del CNICT y luego como Post-doctoral International Research Fellow del Public Health Service de Estados Unidos. Profesor Adjunto de Fisicoquímica en la Universidad de Buenos Aires (1964-1966). Profesor de Biofísica en la Universidad de J.i Plata (desde 1968).

28

mente, podía contar su historia y diferenciarla a simple vista de todas las demás mujeres.. . pero no aplicarle una definición. Pero contar qué es la biofísica no es en realidad un problema. Después de todo, cuando a una disciplina científica se le puede aplicar una definición rigurosa, sus límites están claramente marcados y sus conexiones son perfectamente establecidas y es porque ya ha hecho sus contribuciones principales y está lista para una academia. Aprovechemos pues mientras no exista una Academia de Biofísica y contemos qué es y qué no es la biofísica, demos ejemplos de qué hacen los biofísicos, quiénes son (o como llegaron a serlo), dónde trabajan, qué problemas tienen y para qué sirven.

Cómo empezó la cosa Hasta la segunda o tercera década de este siglo los sistemas biológicos (un virus, una célula, una palmera, un sistema nervioso, un tumor, un sacristán, los niños de una escuela, un bosque, todos los bosques, el equipo de tercera de Atlanta, los vegetales, la humanidad, toda la biosfera) parecían constituir una violación tan flagrante de la Segunda Ley de la Termodinámica que el propio Lord Kelvin limitó su enunciado a "entidades materiales inanimadas". En realidad, puesto que ningún sistema vivo es un sistema cerrado no se le puede aplicar así no más la

Segunda Ley. Sin embargo esta escapatoria legalista no nos deja muy conformes en vista de que en un mundo que tiende a desorganizarse, los sistemas biológicos siguen el curso opuesto: un espermatozoide más un óvulo, se convierten con el tiempo en un elefante de varias toneladas. El físico Erwin Schródinger, que ya había maravillado al mundo con su ecuación de onda, tomó este problema en serio y publicó un libro (¿Qué es la v i d a ? 1 ) que hoy muchos consideran como uno de los comienzos de la biofísica. En resumidas cuentas lo que el libro dice es que los sistemas biológicos siempre se las arreglan para aumentar su organización a expensas de la desorganización del medio, de modo que si uno hace el balance total (lo que se organiza el sistema biológico más lo que se desorganiza el medio) siempre resulta negativo (la desorganización es mayor). El explicar cómo hacen los sistemas biológicos para realizar tales proezas está muy lejos de ser claro. Pero no es eso lo que nos interesa por el momento, sino que al tratar de contestar en términos físicos la pregunta "¿qué es la vida?" se puso a andar —o por lo menos se dio un gran impulso— una disciplina nueva: la biofísica. Pero la historia no es tan sencilla. La biofísica, como los ríos, se originó por la confluencia de varias causas menores. El siglo pasado, Emile Du Bois Reymond encontró que la piel de rana tiene a su través nna diferencia de potencial eléctrico


:sta «s¡a muy en un

liarse, el

mi-

tón»

no este Util nc hoy délos

11 raís dice s sientmentar de la modo tal (lo ilógico odio) desoícar rflógicos

de casi 0,1 volt. Es decir la parte de adentro es unos 100 mV positiva con respecto a la parte de afuera. Si se diseca la piel de la rana y se la monta como un diafragma entre dos cámaras que contienen idéntica solución salina (ver figura 1) se observa que la cara interna de la piel es unos 100 mV positiva con respecto a la otra. A principios de este siglo el biólogo Galeotti 2 postuló que eso se debía a que la piel de rana es más permeable al ión sodio ( N a + ) cuando éste la atraviesa de afuera hacia adentro que cuando lo hace en el sentido inverso. "¡Absurdo! —le contestaron—- es un claro ejemplo de lo que puede llegar a decir un biólogo cuando no sabe física. Si uno prepara una cámara en forma de aro como la de la figura 2, llena ele solución salina, ésta tendrá al principio la misma concentración de sales en todo lugar de la cámara. Pero, si la permeabilidad al N a + hacia adentro (hacia la derecha en el ejemplo de la figura 2) fuera mayor que hacia afuera, se observaría al poco rato un aumento de concentración de Na + del lado derecho (figura 2 b ) . Esto haría difundir al Na a través de la solución que llena la cámara siguiendo el sentido de las agujas del reloj (figura 2 c) y se tendría así un móvil perpetuo". Salirse en pleno siglo XX con otro móvil perpetuo colmaba la paciencia de cualquier físico. Luego los biólogos averiguaron que, en realidad, el móvil no es perpetuo: al cabo de unas horas todo se acaba y la diferencia de potencial eléctrico entre ambos lados de la piel desaparece. Lo que pasa es que la piel utiliza energía metabólica para ayudar al N a + a pasar más fácilmente de afuera hacia adentro que en el sentido inverso. "¡Pamplinas! —volvieron a responder los físicos— ahora están vio-

á muy eso lo Tiento,

taren -o por jlso— ca. sendos, se varias asado, rontró través

ítrico

Figura. 1

Figura. 2 í¡ lando el Principio de Curie 3 : fenó- evidente: que para entender los promenos de orden tensorial distinto, cesos biológicos había que saber fíno son acoplables". Una simple sica. ojeada a los trabajos de Curie y a sus elucubraciones sobre la simetría bastó para dejar fuera de combate a Qué estudia hoy la biofísica los biólogos más mentados de aquel entonces. En otras palabras eso queHasta ahora nos mantuvimos en un ría decir que si por ejemplo, en el nivel muy general y eso amenaza escentro de un tanque lleno de agua terilizar nuestro propósito de contar se inicia una reacción química, uno qué es la biofísica. Con el único fin no puede esperar que la reacción de ilustrar ordenadamente, dividiremarche, digamos, hacia el ángulo sumos los problemas de que se ocupa perior derecho del tanque, sino que en tres categorías completamente arse va a propagar en todas las directificiales. ciones. Esto, aplicado al caso de la membrana biológica de la figura 2 es más o menos así: la energía me- Fenómenos simples tabólica se origina en procesos quí- Ejemplo 1: Los sistemas biológicos micos; los procesos químicos son fe- tienen una enorme selectividad. Dos nómenos escalares (no se hacen pre- isómeros ópticos de una misma esferentemente en una dirección del pecie química pueden ser totalmenespacio); en cambio el movimiento te reconocidos y uno solo ser acepde Na + a través de la membrana es tado en un proceso dado. La glánun fenómeno vectorial (preferente- dula tiroides reconoce y acumula mente hacia la derecha). ¿No sería iodo, los osteocitos reconocen Ca + + , posible, en principio, que el metabo- una enzima reconoce Mg + + . El lílismo de una membrana diera origen quido que baña las células tiene gea un flujo neto de N a + para un neralmente mucho más sodio ( N a + ) lado (de izquierda a derecha)? que potasio ( K + ) y un paciente porque la concentraLuego vino el uso de los isótopos puede morir + radiactivos y se pudo comprobar que ción de K en su plasma se eleva si uno pone Na 24 en la cámara de- un poco por encima de su concenrecha (figura 1) y Na 22 en la iz- tración normal. Dentro del agua cequierda, pasa más Na 22 hacia un la- lular las cosas son al revés: generaldo que Na 24 hacia el otro. También mente hay más potasio que sodio (figura 3). Sin embargo la membravino Onsager 4 y empezó a justificar na celular deja pasar a ambos. La que en un sistema todos los flujos membrana celular tiene un cierto Depueden estar acoplados a (deberse de Maxwell que hace que el a) todas las fuerzas presentes. Y vi- monio + la célula y que no Kedem 5 y justificó que los pro- K se acumule en + cesos químicos del metabolismo pue- en cambio el Na sea parcialmente Esta distribución asiméde perfectamente originar un flujo excluido trica de iones da origen a diferencias de Na neto hacia dentro de la piel. Y vinieron los revisionistas y nota- de potenciales eléctricos entre amron que, dadas las condiciones ani- bos lados de la membrana celular. sotrópicas de las membranas biolóLa membrana de una célula nergicas como la piel de rana, las ob- viosa puede ser unas 100 veces más servaciones de Galeotti (1904) eran permeable al K + que al N a + , de correctas y no se daban de patadas pronto hacerse más permeable al con el Principio de Curie. A esa al- Na + que al K + y nuevamente, en tura de las cosas (mil novecientos unos pocos milisegundos, volver a sesenta y pico) Galeotti ya estaba su permeabilidad normal: 100 veces muerto remuerto, pero una cosa era más permeable al K + que al N a + .

29


Ese rápido cambio de selectividad produce una variación en el potencial eléctrico de la membrana de la célula nerviosa y tanto el cambio de selectividad como la señal eléctrica originada se propagan a lo largo de la membrana constituyendo la señal eléctrica fundamental mediante la que se comunican las células nerviosas. La Biología clásica se limitó a describir los fenómenos: la célula necesita K + y no Na + y por eso los discrimina. La biofísica se pregunta qué quiere decir necesita y cómo se discrimina en términos físicos. Si bien la selectividad de los sistemas biológicos es mucho más delicada que la de los no biológicos, estos también seleccionan Na + del K + . Pero es del estudio de estos últimos de donde los biofísicos obtienen la información para entender a los primeros. Es común que los investigadores de la selectividad trabajen indistintamente con células, vidrios, resinas y minerales y que hagan contribuciones útiles en campos biológicos y no biológicos. Se ha aclarado cómo la intensidad del campo eléctrico generado por los sitios de las membranas celulares (o en los vidrios, resinas y minerales ) determina que ion va a ser preferido. La información que se está obteniendo no sólo responde la pregunta original sobre cómo discriminan las células, sino que ha dado nacimiento a una industria de vidrios selectivos a distintos iones. Hoy se construyen electrodos de vidrios con los que se puede medir la concentración de N a + de una solución con la misma facilidad que con otros electrodos se mide su p H (dicho sea de paso: los electrodos que miden p H no son más que un caso extremo de selectividad por el ión H + ) . De la misma manera los bioquímicos saben que una enzima puede por ejemplo ser estimulada por el ión magnesio ( M g + + ) y ser inhibida por el ión calcio ( C a + + ) . Los biofísicos tratan de averiguar cómo hace la enzima para distinguir Mg + + de Ca + + , y por qué uno la estimula y el otro la inhibe. Ejemplo 2: Para encontrar el factor que origina tal o cual reacción un bioquímico puede recurrir a la tecnología más avanzada y detectar la presencia de las trazas más ínfimas de alguna sustancia sospechosa. Durante todo el tiempo tiene delante de la nariz varios moles de agua

30

Figura 3

a la que en general no asigna otro papel que el de actuar de escenario de la reacción en estudio. Sin embargo los sistemas biológicos están formados en un 80 por ciento por agua. Donde no hay agua no hay vida. El agua no tiene la misma estructura ni propiedades en el citoplasma que en la superficie de las células, ni se comporta de igual manera cerca de los grupos químicos con cargas eléctricas que cerca de las zonas hidrofóbicas (Berendsen,7). Las membranas celulares donde se llevan a cabo reacciones fundamentales pueden recubrirse con una costra de agua organizada de muchos angstroms de espesor que influye profundamente en las reacciones que ocurren en ese lugar. La estructura del agua y la de las macromoléculas y organelas celulares están en mutua interdependencia. De pronto pareciera como si se transformara el agua de escenario en uno de los primeros actores. Toda la base conceptual y la tecnología necesaria para estudiar estos problemas son desarrolladas al mismo tiempo que los físicos no-biólogos estudian la estructura del agua pura y la del hielo. En realidad una enorme cantidad de investigadores hacen ambas cosas.

Fenómenos complejos Ejemplo 3: La mayoría de los conocimientos de los procesos químicos que ocurren en las células han sido obtenidos en homogeneizados o extractos celulares. El primer paso de esos estudios fue pues destruir la estructura celular. El avance que la biología debe a estos procedimientos es enorme. Un paso ulterior en el

estudio de la química celular es la síntesis artificial de alguna de las sustancias claves de la compleja maquinaria metabólica. Imaginemos q u e visitantes de otros planetas desearan saber qué son y cómo funcionan nuestros aparatos de radio. Supongamos además que, en el estudio, aplicaran el mismo enfoque con el que nosotros estudiamos la bioquímica celular. "Homogeinizarán" las radios, aplicarán métodos de separación y, cuando la "recuperación" sea suficientemente buena averiguarán la estructura y propiedades de cada pieza. Podrán conocer las posibilidades y conducta de cada una de ellas en las distintas circunstancias. Vendrá luego una etapa en la que "sintetizarán" un condensador o un triodo. Pero es evidente que, hasta que no pasen a otro tipo de estudios, en los que tengan en cuenta las leyes que rigen las conexiones entre las partes, que sepan de circuitos, e integren la radio a un sistema radioemisor, tendrán una idea incompleta de lo que es realmente una radio. La información obtenida en lo que va de este siglo sobre la química de los procesos biológicos es lo suficientemente amplia como para armar ahora el rompecabezas y estudiar cómo se llevan a cabo y cómo se regulan en el ser vivo. Por ejemplo, el conocimiento de qué son, qué hacen y dónde están los citocromos ha permitido pasar a tratar de contestar otras preguntas: ¿Cómo se ensambla todo ese mecanismo? ¿Por qué el proceso de síntesis de ATP origina diferencias de potencial eléctrico entre el interior y exterior de la mitocondria? ¿Por qué una pequeña variación de la distancia intermolecular cambia totalmente las características del proceso? ¿Cómo juega la asimetría del sistema? ¿De qué manera está asociada la producción de ATP a la energía almacenada en las distintas conformaciones que adoptan las estructuras mitocondriales? 8 Y así, en este y otros campos, encuentran su lugar los cristalógrafos de membranas, los especialistas en estado sólido, etc. Ejemplo 4: Uno de los problemas que fascina por igual a los científicos, filósofos y legos es el del origen de la vida. Los biofísicos en general rechazan la tesis del "accidente histórico" (un meteorito de otro planeta que contaminó la Tierra; una colisión molecular fortuita


en la sopa prebiológica que de repente dio origen a un organismo, etc.). Un enfoque más "biofísico" es por ejemplo el siguiente:® La biosfera es un sistema cerrado al flujo de materia y que —termodinámicamente hablando—- no está en equilibrio. Para que mantenga su desequilibrio tiene que estar intercalada entre una fuente (el sol) y un sumidero (el espacio) de energía. Se puede demostrar que el flujo estacionario de energía a través de cualquier sistema lleva a, por lo menos, un ciclo material en el sistema. £n el caso de la biosfera sin duda el ciclo originado por el flujo de energía que nos resulta más familiar es el del agua: mates —> evaporación —» nubes —> lluvias y nevadas ríos (usinas) —> mares. La palabra «usinas» ha sido intercalada para sugerir que ese ciclo, a su vez, se puede acoplar a otros a través de la producción de electricidad. Un ciclo más importante para nuestro caso es la constante formación y degradación. de moléculas de distinto grado de complejidad. Un sistema químico complejo, que pueda formar un gran número de uniones estables (covalentes, iónicas, etc.), puede almacenar una gran cantidad de energía si los compuestos tienen una vida media larga (el tiempo que transcurre entre su formación y su descomposición). Las características de la forma de energía que viene de la fuente (la luz solar), la temperatura local y el tipo de elementos disponibles condiciona el tipo y distribución porcentual de moléculas que se forman, La vida media de cada molécula, su estructura atómica y la variedad de especies químicas formadas da origen a una multitud de transformaciones cíclicas. El ciclaje, a su vez, da origen a estructuras. 10 La complejidad de los ciclos y las estructuras tiende a aumentar hasta llegar a un máximo. Es decir, el sistema progresa hacia un estado más organizado en el que su diferencia con el estado de equilibrio (termodinámico) con el medio es máxima. El análogo de la figura 4 puede ayudar a comprender lo que queremos decir. Se trata de dos cilindros concéntricos. El de afuera tiene un agujero cerca de su borde inferior. El de adentro tiene agujeros distribuidos verticalmente. Estos agujeros son muy pequeños en la parte inferior del cilindro pero se agrandan progresivamente a medida

que se asciende. Todo está contenido dentro de una bandeja chata que se comporta como un reservorio. Si nosotros (representando al sol) agregamos agua en forma continua al cilindro central (energía química) ésta se escapará por los agujeros laterales hacia el cilindro externo (energía térmica). De ahí pasará por el agujero de la base hacia la bandeja (energía térmica del sumidero: el espacio extraterrestre). La diferencia entre los niveles del agua entre el cilindro interno y el externo (L) es una medida del orden. Si inyectamos agua continua pero lentamente el nivel del cilindro de adentro va a ser muy alto con respecto al nivel del de afuera (porque el área de los agujeros por donde pierde el cilindro interno es, hasta esa altura, menor que la del cilindro externo). A medida que el flujo de agua que agregamos es mayor, el nivel del agua en el cilindro interno es más alto, la pérdida se hace por más y mayores agujeros, y L tiende a hacerse nula. Los agujeros del cilindro interno son cada vez más grandes para representar el hecho de que a medida que la energía potencial aumenta, los estados son menos estables. Nótese que, tanto si interrumpimos el flujo, como si lo hacemos muy rápido L tiende a hacerse cero. Este análogo ilustra no solo que hay un flujo de agua que da un L máximo sino, además, que para cada flujo de agua hay un L máximo. Nótese que si de pronto alguien, aparte del flujo estable que agregamos nosotros, agregara o quitara una taza de agua al cilindro central, el nivel volvería a bajar o a subir hasta ajustarse nuevamente al valor que tenía antes de la perturbación, o sea que el nivel se autorregula. Volviendo a nuestro problema biológico: la biosfera parece ser un sistema que maximiza L. En un sistema con un flujo de energía estacionario la apa-

o o

rición de vida y el aumento de la complejidad lejos de parecer un accidente es así inevitable. Las ideas de "creación" y de "progreso" cobrarían un sentido distinto. Pero los teoremas, mediciones y cálculos que aún quedan por resolver, hacer y ajustar van a dar mucho que hacer a los biofísicos. Este es un relato más o menos redondeado cuyo único propósito es ilustrar un típico problema biofísico. Este es además un campo donde un biólogo que haya tomado un curso básico de termodinámica o un termodinamista cuyos conceptos biológicos no vayan más allá del número de patas de la cucaracha, no se pueden manejar cómodamente.

: ¡ \ ;

;

Fenómenos muy complejos Ejemplo 5: Durante los últimos cincuenta años la física y las matemáticas han delineado las leyes que gobiernan a los autómatas 1 1 y han diseñado máquinas que toman decisiones, corrigen su conducta, 12 tienen propósitos. 13 La biología fue aprendiendo los principios que rigen la auto-organización 14 y también la recepción codificación y transferencia de mensajes en los sistemas biológicos.15 Esto ha dado como resultado la aplicación de la Teoría de la Información y el Análisis de Sistemas a la comprensión del sistema nervioso. En vena de pintar un lindo cuadro de la biología, podríamos mencionar que grandes maestros de la Cibernética han trabajado (al menos en parte) con sistemas biológieos (Wiener, Ashby, Gray Walter). La experiencia recogida con sistemas no-biológicos ha ayudado a encontrar los mecanismos subyacentes de una amplia gama de actividades biológicas que van desde la transferencia de mensajes entre abejas hasta la lesión que padece un enfermo de Parkinson y desde como hace el ojo para transmitirle eléctricamente al cerebro la imagen de una línea recta hasta el mecanismo de control de la circulación sanguínea. Los investigadores que trabajan en estos campos tienen sólidos conocimientos de neurofisiología, circuitos, Teoría de Información, etc.

o

Figura 4

1 ' j '[

Ejemplo 6: Uno de los problemas fundamentales es entender cómo, en sistemas espacialmente homogéneos y que están en estado estacionario, aparecen de pronto ritmos y conductas periódicas. El estu-

31

| '| ' I : i • j | 1 I j ] j , • .


dio de cómo hace el caótico "ruido" siendo su cerebro: no es biofísica la a nivel molecular para dar origen utilización de un electrocardiógrafo a una conducta periódica a nivel transistorizado y con registro remomacroscópico 10 está recién en _ sus to para averiguar si el corazón de un comienzos. Los sistemas biológicos, enfermo coronario late rítmicamenposeedores

de

los fecdbacks

más

perfectos que se conocen, capaces de mantener un estado estacionario ante las situaciones más variables, están llenos de "osciladores". Las conductas pueden tener períodos en el orden del milisegtindo (descarga de señales en neuronas), del segundo (latidos cardíacos), del minuto (ondas peristálticas intestinales), de la hora (oleadas de crecimiento de la avena), de días y semanas (ciclos sexuales), etc. Hoy se están^haciendo esfuerzos por entender cómo hacen los procesos químicos para dar origen a conductas periódicas y a estructuras ordenadas, con millones y millones de bits de información, con memorias y feedbacks10,

Es de-

cir, se está estudiando cómo el caos se hace máquina y la máquina organismo, en base a un planteo distinto del planteo termodinámico planteado en el ejemplo 4. El nivel desconocimientos biológicos, fisicoquímicos y matemáticos que se requieren para trabajar en estos campos obliga a formar especialistas a través de toda una carrera universitaria.^ De otra forma el biólogo "clásico" no saldría de la etapa descriptiva, ni el físico saldría de la construcción de análogos más o menos intrascendentes.

Qué no es biofísica Así como el lego suele asociar la Física, no a sus principios, sino al uso de aparatos complicados, también suele creer que la biofísica consiste en el uso en biología de una tecnología complicada. La existencia de la biofísica no depende de la complejidad de ningún aparato. Tan "físico" es un espectrofotómetro para infrarrojos como una simple balanza. Lo que va a determinar si se está haciendo o no biofísica es la utilización posterior de la información obtenida con esos instrumentos. No hay que olvidar que, a pesar de la utilización en biología de aparatos de resonancia magnética nuclear, microscopios electrónicos y aparatos de difracción de rayos X, el instrumento más complejo y avanzado que utiliza un científico sigue

te, y sí lo es, en c a m b i o , la utiliza-

ción de una simple balanza para ver si una célula se comporta como un osmómetro. A menudo la situación es peor aún: algunos creen que es misión del biofísico explicarle a otros profesionales cuanto método experimental estos usan pero cuyas bases no están preparados para entender. Sin embargo, aún cuando el desarrollo tecnológico haya alcanzado y sobrepasado el nivel científico de muchos profesionales, la misión de la biofísica no consiste en explicarles el principio y los fundamentos del manejo de instrumentos. Si hubiera sido así, en lugar de desarrollar la biofísica hubiera bastado con preparar mejor a dichos profesionales con cursos sobre instrumentación, como los existentes en muchas universidades, a fin de que entiendan el principio de los métodos que se suelen usar en sus propios campos de trabajo.

De dónde salen los biofísicos A esta altura del artículo espero que resulte claro que la biofísica no empezó de repente el día en que algún genio lanzó una definición, sino que el enfoque físico del estudio biológico se ha ido desarrollando gradual e irregularmente. Hasta hoy la biofísica ha sido desarrollada fundamentalmente por médicos, bioquímicos y biólogos que complementaron sus conocimientos con cursos de matemáticas, física y fisicoquímica. Estas siguen siendo, sin embargo, su "pata floja". La siguiente anécdota personal puede resultar ilustrativa. Me encontraba tratando de resolver un problema de difusión de sodio en una membrana biológica del tipo de la figura 1, que constaba de varios compartimientos. Tenía ante mí una ecuación tan complicada, con tantos símbolos y subíndices que estos se caían por los bordes de la hoja. Una vez que me hube convencido de que ella era más ecuación que yo matemático, fui a pedir ayuda a un matemático amigo. "Aquí traigo un problema matemático" comencé diciendo. Luego le expliqué el problema. "Estás equivocado —contestó— este no es un pro-

blema matemático. La matemática ya lo resolvió el siglo pasado. problema es tuyo que no sabes matemática". Muchas veces los biofísicos se ven en situaciones análogas, pues los problemas biológicos que deben resolver son muy complejos y muchas veces requieren el uso de tecnologías y conceptos más avanzados de los que él conoce. No le basta con haber aprendido un par de capítulos de la física dedicados a la cristalografía, pues los cristales más complejos del mundo no-biológico son juegos de niño al lado de un cristal de proteína. La computadora más sofisticada resulta simple aún al lado del cerebro de un pajarito. La miniaturización ingenieril más increíble es irrisoria al lado de la miniaturización biológica: todo el programa para hacer un señor de bigotes está contenido en una sola molécula, el DNA. Además uno no está seguro que la solución a un problema dado vaya a quedar confinada dentro de los límites de la especialidad para la que se había preparado. ¿Qué especialista en absorción de azúcares iba a sospechar que hoy necesitaría conocer técnicas de spin echo? ¿Qué especialista en riñon iba a soñar que un día necesitaría entender los potenciales de superficies en los alumino silicatos? ¿Qué especialista en cultivo de tejidos iba a creer que llegaría a estudiar a Shannon para comprender como se introducen errores de generación en generación celular hasta liquidar su cultivo? Con honrosas excepciones los físicos que aprendieron biología son malos biofísicos. En muchos casos se trata de físicos malos que buscan su segunda chance en la biología. Terminan asociándose con algún biólogo para fabricar algún aparato raro que mide veinte variables a la vez y —esto es fundamental— las computa y las grafica. La mayoría de los físicos no conoce los problemas de la biología moderna y la menosprecia. Cuesta mucho convencerlos de que el problema no es ver qué descubre un físico en el cerebro, sino ver cómo hace el cerebro para hacer física. Hoy en día solo algunas de las universidades del mundo tienen una Carrera de Biofísica. Otras tienen "orientaciones" biológicas para físicos, o complementación física para bioquímicos, biólogos y médicos.


Otras tienen un par de cursos que tarde o temprano mueren en cursos de instrumentación (radioisótopos, ul tracen trifugáción, espectrometría, etc.) o en cursos de física para nofísicos. Sin duda la salida correcta es la que han adoptado las universidades más avanzadas: reunir físicos, biólogos, matemáticos, médicos, ingenieros, psicólogos, etc. y formar biofísicos a través de una carrera ad

hoc.

¿Qué hacen los biofísicos? Hoy la mayoría hace investigación y docencia. Según dicen los historiadores de la ciencia, este fenómeno es típico de toda ciencia nueva. Estas tareas se cumplen en muy pocos casos en departamentos de biofísica. Lo más común es que los biofísicos trabajen dentro de departamentos de biología, agricultura, fisiología, física, etc. La mayor parte del resto de los biofísicos trabaja en industrias biomédicas. Reemplaza con ventajas al ingeniero que trata de entender a los médicos y al médico que trata de aprovechar sus conocimientos de ex-radioaficionado. Sus tareas incluyen la fabricación de contadores de radioisótopos que detectan y mapean tumores; el diseño de prótesis que trasducen señales para que un ciego o un sordo pueda utilizar otros canales de información que no tenga dañados; el diseño de fármacos que se distribuyan en el organismo de tal o cual manera, etc. Un pequeño número de biofísicos trabaja en problemas biológicos planteados por la vida en situaciones extremas (el espacio, La Antártida) problemas agrícolas, problemas sanitarios planteados por la contaminación del aire, el suelo y las aguas con productos radiactivos, químicos, etcétera.

Qué problemas tienen los biofísicos Los biofísicos tienen problemas comunes a todos los científicos (sus posibilidades de trabajo, su enajenado papel social, etc.) y problemas específicos. Por la naturaleza de este artículo vamos a ocuparnos aquí solo de los segundos.

Problemas Universitarios 1) El biofísico está en una Tierra de Nadie entre varias Ciencias (Física, Biología General, Fisiología, Bioquímica, Matemáticas, etc.). Su progreso depende de la colaboración de todas ellas. Por el contrario, todas lo consideran (y tratan como) un intruso. En universidades con feudos-cátedras que enseñan asignaturas clásicas la única tarea multidisciplinaria es sacarse a los biofísicos de encima. 2) El estudiante de biofísica necesita tomar cursos en varias facultades. En universidades que no tienen un campus eso es un vía crucis. 3) Aun en el caso en que se coordine un plan, ninguna facultad le confiere título alguno que lo habilite para nada. Ni siquiera para presentarse a concursos donde enseñe lo que la Universidad le enseñó. 4) El título profesional, aun cuando llegara a ser conferido, no sirve para ejercer profesiones liberales. Dada la actual estructura económica social de nuestro país, las carreras que no desembocan en una profesión liberal prosperan difícilmente. Problemas a nivel extraimiversitario 1) El CNICT no tiene comisiones de biofísica. Todo subsidio, beca, calificación de miembros de carrera, etc., es hecho en distintas comisiones (Medicina, Química, Biología, etc.) Esto, en el mejor de los casos, podría llegar a resolver el problema individual. Nunca el desarrollo planificado de la biofísica. 2) En nuestro país el biofísico no sólo no está al servicio de la sociedad sino que no tiene forma de conectarse. Desconoce la política científica que debe apoyar y no participa en su elaboración. 3) La industria nacional no absorbe al biofísico. Como la solución de la mayoría de los problemas que tiene generalmente no depende tanto de la aparición de un aparato o un producto que no se conozca ya en algún otro país, no utiliza científicos. La mayor parte de la producción en la que el biofísico podría participar, ya viene diseñada del extranjero, incluida su adaptación al mercado local. En resumen: la Biofísica depende en forma crucial del cambio de

la estructura universitaria y nacional. Además lo favorece, porque requiere que los científicos de distintas ramas colaboren entre sí y recuperen la cultura científica que han ido perdiendo por la forma ultraespecializada en que se trabaja actualmente en las ramas clásicas. O

Bibliografía 1 Schrodinger, E.: What is Ufe? Cambridge University Press, 1945. 2 Galeotti, G.: Ricerche di elettrofisiologia secando i criteri dcll' elettrochimica. Z. Allg. Physiol., 1907, 6, 99. 3 Curie, P.: Oeuvres, Gautier-Villars, París, 1908. 4 Ónsagei', L.: Reciprocd relations iti irreversible processes. Phys. Rev., 1931, 37, 405 y 38, 2265. 6 Kedem, O.: Gritería of active transport. En "Membrane trnnsport and Metabolism" (Ed. Kleinzeller y Kotyk), Acad. Press, Londres, 1961. 0 Cereijido, M. y Rotunno, C. A.: Introduct'ton to tbe Stndy of Biological Membranes. Gordon and Breach, Londres, 1970. 7 Berendsen, H . J. C.: "Water structure" en Theoretical and Experimental Btopbysics (Ed. Colé). Marcel Dekker, N . York, 1967, vol. I. 8 Penniston, Harris, Asai y Green: The conformational basis of energy conservation in membrane systems. Tbe conformational changes in mitocondria. Proc. National Academy of Sciences, 1968, 59, 624. 9 Morowitz, H . J.: Energy flow in Biology. Academic Press, N. York, 1968. 10 Prigogine, I.: Structure, disipation and Lije en Theoretical Pbysics and Biology (Ed. Marois), North Holland, Amsterdam, 1969. 11 Vort Neumann, J.: The general and logicd tbeory of autómata en "Cerebral Mecbanisms in bebaviour: tbe Hixon Symposium ( E d . Jaffress) John Wiley, N . York, 1951. 12 Wiener, N.: Cybernetics. John Wiley, N . York, 1948. 13 Canefield, J. V.: Parpóse in Nature. Prentice Hall, N . York, 1966. 14 Von Foerster, H . and Sopf, G. W. (Editores): Principies of self-organizatioii. Pergamon Press, N . York, 1962. 15 Von Foerster, H.: From stitnulus to Symbol: tbe economy of biological computation. En Sign, Image and Symbol (Ed. Kepes), G. Braziller, N. York, 1966. 1(1 Derksen, H . E.-. Axon membrane voltage fluctuations. North-Holland, 1965. 17 Katchalsky, A. y Spangler, R.: Dynamics of membrane processes. Quat. Rev. Biophysics, 1968, 1, 127.

33


Novedades de ciencia y tecnología

i Criminalidad y cromosomas

.« j,

Siempre lia tenido adeptos la idea de que un criminal nace así estructurado y que no son las circunstancias las que lo forman, quizás porque está de acuerdo con el concepto cristiano del pecado original... Esta teoría pareció confirmarse cuando en 1965 se descubrió que un alto porcentaje de los "agresores de la sociedad" de dos hospitales especiales escoceses tenían cromosomas en exceso. Gracias a la complicidad de los científicos y de la prensa, el público se habría fabricado una imagen de hombres grandes, particularmente agresivos, con características físicas anormales y con desviaciones del comportamiento en general, desde su nacimiento. El cromosoma Y extra, presente en todas sus células, parecía sugerir una potencia masculina inusual, aunque la evidencia mostraba que las infracciones cometidas por éstos eran generalmente incendios o robos contra la propiedad y no contra la gente. Los peores prejuicios y temores de los más fanáticos defensores de la teoría se confirmaban y ya se hablaba de agregar a las impresiones digitales y a los datos sobre el grupo sanguíneo,

34

el análisis de los cromosomas de los infractores de la ley. Luego de varios años de arduo trabajo, puede verse con claridad el valor real de esta teoría. Un estudio recientemente publicado por el Instituto de Criminología de la Universidad de Cambridge sintetiza los hechos y el abogado Dr. J. E. Hall Williams, profesor en criminología de la Escuela de Economía de Londres, aclara los múltiples malentendidos. El Dr. Hall Williams explica que según los científicos partidarios de la teoría, no hay duda sobre la relación directa entre el doble cromosoma Y, la delincuencia y el comportamiento antisocial. Este último se vería aumentado al disminuir el nivel de inteligencia. El paciente genéticamente sensible a la criminalidad no respondería al castigo; el extra cromosoma Y daría por resultado una personalidad severamente desordenada y ese desorden produciría en estos hombres un conflicto con la ley. Los abogados, cuando les resultó conveniente, usaron este tipo de afirmaciones para probar que sus clientes, poseedores de ciertas anormalidades genéticas, estaban predestinados a la delincuencia. Una defensa basada en esta línea fue usada en una apelación del caso Raymond S. Tanner ante la corte Superior de los Estados Unidos. Raymond S, Tanner fue acusado de asalto con intento de homicidio y previamente

había ya sido juzgado por violación de una mujer. El juez dictaminó que no existían suficientes evidencias para probar la relación entre el síndrome XYY y el comportamiento humano. Casos similares en Australia, Francia, Alemania Oeste y en Estados Unidos, recibieron una sentencia parecida. El Dr. Hall Williams opina que un extra cromosoma podría ser usado como una evidencia adicional para la comprobación de insania o de disminución de responsabilidad, pero el extra cromosoma en sí no establece ineludiblemente una disminución de responsabilidad o una enfermedad mental. En otras palabras, la ley continuará juzgando a los hombres en base a sus acciones y no a su constitución genética. Esto parecería correcto, puesto que en el Reino Unido solamente, deben existir por lo menos 20.000 adultos XYY que viven normalmente y no hacen daño a nadie. Algunas personas sin embargo, parecen llevar una carga genética que les impide manejar la frustración y las crisis emocionales. La falta de inteligencia sola puede causar un comportamiento psicopático en un individuo con anormalidades en sus cromosomas. El descubrimiento de que el mongolismo proviene de un pequeño cromosoma extra ha motivado la búsqueda de este tipo de coincidencias. Luego de diez años de investigación en cromosomas, pareciera que los


síndromes más importantes ya han sido descubiertos, aunque se continuará realizando investigaciones exhaustivas en esta importante área.

2 Taxis sin chofer En Montpellier, al sor de Francia, se ha inaugurado un autoservicio de taxis. Si la experiencia resulta exitosa se inaugurarán servicios similares en todas las ciudades importantes de Europa. El proyecto está basado en el Tipmetre, aparato inventado por Felipe Leblond de Beziers. Este medidor está situado bajo el tablero del automóvil y sirve para grabar automáticamente las características de la persona que lo usa y el número de kilómetros recorridos por la misma. La experiencia se extiende actualmente solo a los límites de la ciudad de Montpellier y la organización, debido a las reglamentaciones vigentes para taxis, es similar a la de un club. Cada miembro paga el equivalente de 60.000 pesos viejos y recibe una llave con un número grabado; las fichas de aproximadamente 1.500 pesos viejos, válidas para 18 kilómetros de recorrido, se pueden comprar en el mismo club o en los kioscos. Para hacer arrancar el coche el usuario debe poner la llave en el Tipmetre, que registra el número correspondiente en una película sensible. Luego coloca la ficha y el Tipmetre graba también ese número; da vuelta la llave y el automóvil arranca del modo habitual. Las autoridades locales han cedido 19 playas de estacionamiento especiales para los "Procotip", nombre con el que se designa este tipo de taxi. Un cliente puede conducir el automóvil cuando quiere y dejarlo en la playa de estacionamiento más cercana al lugar de destino. La nafta es proporcionada por la compañía; el cliente puede llenar el tanque en el garage del club o sino éste es cargado gracias a un minitanque de auxilio que recorre regularmente las playas de estacionamiento. Una luz de alarma aparece

en la parte exterior del automóvil cuando el tanque tiene poca nafta. Inicialmente el proyecto consta de 35 automóviles y 250 socios. Los automóviles utilizados son Simca 1000 y están pintados con colores característicos, azul y blanco, los colores de la ciudad de Montpellier, para ser fácilmente distinguibles por los clientes y por el minitanque de auxilio. Si un cliente termina un viaje sin utilizar los 18 kilómetros puede completarlos en un próximo recorrido en otro vehículo. En caso de aplicarse el sistema a otras ciudades se usará una ficha diferente para cada localidad.

3 Diseño de anteojos por computadora El diccionario Webster define "aniseikonia" como un estado en el cual la imagen del objeto formado en un ojo difiere en tamaño o forma de la realizada por el otro ojo. Es una anomalía de la visión binocular en la cual las imágenes oculares difieren en tamaño o en forma, o en ambas simultáneamente. En una empresa de lentes oftálmicos de Southbridge, Massachussets, una pequeña computadora está resolviendo complejos cálculos para que la prescripción de las recetas de aniseilconia pueda ser convertida en instrucciones para procesos de fabricación de anteojos. Cuando un oftalmólogo receta lentes dióptricos con correcciones astigmáticas, se usa un lente aniseikonico. Estas correcciones son requeridas por los pacientes que sufren de aniseikonia, los que en numerosos casos no pueden realizar su estudio o trabajo sin tales lentes especiales correctivos. Las complejas recetas para los que padecen de aniseikonia se complican más debido a la variedad de soluciones que pueden emplearse para corregir esta anomalía. La computadora permite un mayor grado de precisión en el diseño de las lentes que el que se obtiene habitualmente con calculadoras más simples.

4 Alimentos hechos con diarios viejos En Inglaterra algunos estancieros han introducido los diarios viejos como alimentos para bovinos. El papel tiene un alto porcentaje de celulosa, materia que el ser humano no digiere pero que es fácilmente transformable y asimilable por los herbívoros. Los periódicos se dejan macerar en agua hasta que se transforman en un material que flota, manuable, semiseco y graniliforme. No es necesaria la 'eliminación de la tinta para que el producto sea comestible. Esta sustancia celulósica se mezcla, para que sea más nutritiva y sabrosa, con melaza obtenida de la remolacha, en la proporción de 8 a 2. Este alimento es útil para bovinos y ovinos. La experiencia realizada con vacas lecheras durante dos meses permitieron comprobar que su ingestión no disminuye la producción de leche.

5 Los sorprendentes parecidos entre los hongos y los hígados Entre las muchas funciones del hígado de los vertebrados se destaca la de neutralizar sustancias tóxicas mediante la adición de otras; estos compuestos conjugados o bien pierden su efecto nocivo sobre el organismo o son excretadas con más facilidad. Este mecanismo bioquímico se denomina detoxificación. D. M. Dhar y A. W . Khan acaban de proponer un mecanismo similar para explicar el origen de los antibióticos sintetizados por diversas especies microbianas (Nature 233: 182 [ 1 9 7 1 ] ) . Los antibióticos tienen la característica estructural de estar formados por dos partes químicamente diferentes. Por ejemplo, un heterociclo está unido a un péptido, o a una secuencia de hidratos de carbono (los nucleósidos); un

35


son incorporados casi con exclusividad a cadenas polinucleotídicas cortas, que en una segunda etapa son unidas —ligasa mediante— para formar cadenas pesadas de ADN. Estas observaciones, realizadas en varias especies de bacterias y fagos, dieron pie a la convicción universal de que la síntesis de ADN es discontinua y que por eso es posible copiar simultáneamente dos cadenas antiparalelas de ADN mediante una enzima que sólo replica en sentido 5' a 3'. Sin embargo dos paradojas enturbiaron el cielo de Okasaki: sus fragmentos eran complementarios a sólo una de las cadenas del ADN en B. subtilis, y su número absoluto era muy pequeño para explicar la tasa de biosín tesis de ADN en situaciones donde la velocidad del punto de replicación se puede calcular con relativa exactitud. Todos los trabajos destinados a detectar y jugar con los fragmentos de Okasaki se realizan con timidina, que se incorpora con gran rapidez al ADN. Aun en células incapaces de sintetizar timina, la timidina parece ser el precursor preferido para la síntesis de los segmentos de Okasaki. Lo que hizo Werner fue estudiar la aparición de los segmentos de Okasaki en células de E. coli incapaces de sintetizar timina, suplemenMás desconcierto entre tadas con timina y expuestas a pullos bioquímicos del ADN sos breves de timina tritiada. Los resultados fueron completamente disLos ADN-polimerasólogos sufren. tintos a los obtenidos utilizando tiTodo se complica, no se puede creer midina, sugiriendo que la creación en nadie. Cuando DeLucia y Cairns de los fragmentos de Okasaki es un liquidaron las aspiraciones de la evento que sigue, y no precede, la ADN polimerasa de Kornberg, co- replicación y la síntesis del ADN. menzó la industriosa búsqueda de la Werner concluye que la síntesis reverdadera enzima de replicación. En plica tiva del ADN utiliza diferentes el fondo, muchos se deben haber ale- precursores que la síntesis de repagrado porque veían en esta carrerita ración; la timidina sería utilizada en un atajo a la fama: con la replicasa esta última, mientras que la replicaen la bolsa (o mejor, en el curricu- ción apelaría a precursores distintos. En un trabajo posterior, Werner lum vitae) el sustento estaría asegurado por unos cuantos años. No vale relata su búsqueda del precursor de la pena recapitular esta ingente labor replicación (Nature New Biology de tantos bioquímicos industriosos, 233: 99 [1971]) mediante métodos entre otras cosas porque resultó cinéticos: su objetivo era determi(hasta ahora) trabajo perdido. Re- nar la composición y el tamaño de cientemente, Rudolf Werner, un los diversos reservorios de nucleósidiscípulo de Hershey y Cairns, ac- dos trifosfatos. Las conclusiones a tualmente en la Universidad de Mia- las que llega son novedosas, ya que mi, sacudió los cimientos mismos de según sus datos el reservorio de la bioquímica de la replicación. Su precursores de la replicación es muprimer andanada destruyó los frag- cho más pequeño que el de nucleómentos de Okazaki (Nature 230: tidos trifosfatos. La naturaleza de la 570 [1971]). Este ex-colaborador molécula precursora, sin embargo, de Kornberg había demostrado que no aparece clara. Dado que los únicortos pulsos de timidina tritiada cos nucleótidos de E. coli que pue-

macrociclo puede estar unido a hidratos de carbono (los macrolidos) o a un sistema aromático (las rifamicinas). En las penicilinas, un ácido carboxílico se encuentra unido a un péptido. Según Dhar y Khan, estos antibióticos se originan por la detoxificación de una de las dos estructuras mediante la adición de la otra. Según esta hipótesis, los antibióticos son metabolitos secundarios formados por reacciones bioquímicas destinadas a despojar a una molécula "iniciadora" de sus propiedades tóxicas. Uno de los corolarios de Dhar y Khan es que el iniciador tóxico debe ser el inductor de las enzimas responsables de la síntesis del antibiótico. Sin embargo, en el caso de la penicilina, esto no es así. El ácido feniíacético es detoxificado por el agregado de un residuo del ácido 6aminopenicilánico, pero la aciltransferasa no es inducible por el ácido feniíacético.

6

den ser "chased" al ADN son los mono, di y trifosfatos, es posible que el precursor real se destruya durante los procedimientos de extracción o que el desoxirribonucleótido monofosfato esté unido a una molécula lo suficientemente grande como para que no se pueda extraer de la célula con los métodos convencionales (es decir, que no sea TCA soluble). Por último, el trabajo de Werner permite entender ciertos resultados de John Cairns y Dave Denhardt que indicaban que mientras la síntesis de ADN es inhibida por cianuro o monóxido de carbono, estas sustancias no deplecionan el reservorio intracelular de desoxirribonucleótidos trifosfatos. Claro está, los bioquímicos h la page ya están postulando en corrillos informales que el precursor tiene un lípido como carrier. Otros bioquímicos, más a la page todavía, dicen que Werner tiene una imaginación calenturienta. Los próximos meses dirán quién tiene razón.

7 La periodicidad de las aguas Según cálculos de científicos soviéticos los océanos del mundo cambian totalmente sus aguas cada tres mil años. Hidrólogos de Moscú y Leningrado realizaron investigaciones sobre el balance acuático mundial y llegaron a la conclusión de que el ciclo de aguas en la naturaleza se realiza con mayor rapidez de lo que se suponía. La evaporación anual en la superficie terrestre, por ejemplo, alcanza una cifra colosal: más de medio millón de kilómetros cúbicos de agua, con la particularidad de que el vapor de agua en la atmósfera de nuestro planeta se renueva por término medio una vez cada diez días. Los ríos cambian el agua cada veinte días y los lagos cada diez años. Las "huchas de humedad" más duraderas son los glaciares, cuyo ciclo de aguas transcurre en ocho milenios y medio. Estos cálculos, según opinan los científicos, permitirán precisar los recursos del planeta en agua dulce. O


La Ingeniería Genética en células humanas es un hecho Daniel Goldstein

En la edición del 8 de octubre de la revista científica inglesa Nature fue publicado uno de los trabajos más trascendentales de la tecnología contemporánea: un grupo de investigadores ele los Institutos Nacionales de la Salud de los Estados Unidos ( N . I . H . ) pudo corregir un defecto genético de células humanas (galactosémicas) introduciéndoles un gen específico de una bacteria intestinal (la Eschcrichia coli). Para lograrlo infectaron un cultivo ele células somáticas de un paciente galactosémico con el bacteriófago lamhcla, un virus de la E. coli, portador del gen bacteriano necesario para compensar el defecto de la galactosemia. Este sensacional experimento demuestra la posibilidad de efectuar ingeniería genética en células humanas, la posibilidad de manipular la información genética de nuestras células para corregir errores metabólicos que por lo general son letales o altamente invalidantes. La senda metabólica Leloir Para comprender qué es la enfermedad denominada galactosemia es necesario examinar el metabolismo celular del azúcar galactosa. El principal hidrato de carbono de todas las leches es el disacárido lactosa, compuesto por glucosa y galactosa. El lactante posee enzimas que rompen la lactosa en sus azúcares componentes, pero mientras que la glucosa es utilizada directamente por

glucosa determina una grave enfermedad d e n o m i n a d a galactosemia, que es hereditaria y congénita. Los resultados de la acumulación de galactosa son desastrosos: el hígado se agranda desmesuradamente y se destruye su arquitectura funcional; se desarrolla un severo retardo mental y el depósito de galactosa en el cristalino determina la aparición de cataratas. Los desequilibrios nutricionales son también graves, ya que el lactante no tolera la leche (tiene vómitos y diarreas que lo deshidratan) y mientras que la concentración sanguínea de galactosa es muy alta, la de glucosa es muy baja; la gran cantidad de galactosa que se excreta por el riñon impide la reabsorción normal de aminoácidos, que se pierden por la orina. La enfermedad se diagnostica precozmente cuando la lesión genética determina una enzima transferasa completamente inactiva, o a las semanas o meses del nacimiento cuando la enzima defectuosa es parcialmente activa. La detección precoz del defecto es de importancia capital, porque la eliminación de la galactosa de la dieta del lactante galactosémico, si se hace inmediatamente después del nacimiento, evita el desastre posterior. Una dieta sin galactosa en un niño mayor consigue eliminar algunas de las manifestaciones de la enfermedad La galactosemia —la infiltración hepática y las cataLa inoperancia de la segunda enzi- ratas— pero no el déficit neurolóma de la ruta metabólica Leloir, la gico y psíquico. galactosa-transferasa, al bloquear la conversión de la galactosa en UDP-

las células como fuente de carbono y energía metabólica, la mayor parte de la galactosa es convertida a su vez en glucosa. A lo largo de la evolución, se seleccionaron los mamíferos con un sistema de conversión muy eficiente, ya que la galactosa en grandes cantidades resulta tóxica y letal para estos organismos. Las s u c e s i v a s transformaciones que sufre la galactosa hasta convertirse en glucosa reciben el nombre de senda metabólica de la galactosa. Fue precisamente el investigador argentino Luis F. Leloir (Premio Nobel de Química 1970) quien dilucidó esta senda metabólica, que comprende tres pasos sucesivos catalizados por tres enzimas específicas: la galactosa-quinasa, la galactosa-transferasa y la UDP-galactosa-epimerasa. La molécula resultante es el nucleótido-azúcar UDP-glucosa, que puede ceder la glucosa a las rutas metabólicas productoras de energía, o convertirse en una molécula precursora de la sustancia amorfa intercelular del tejido conectivo y del cartílago, o ser utilizada por la enzima glucógeno-sintetasa, t a m b i é n descubierta por el doctor Leloir, para sintetizar el polisacárido de reserva glucógeno.

37


GALACTOSA + A T P -> GALACTOSA-1-P + ADP galactoquinasa GALACTOSA-1 -P + UDP-GLUCOSA ?=± UDP-GALACTOSA + GLUCOSA-1-P galactosa-l-P uridil transferasa UDP-GALACTOSA

UDP-GLUCOSA

UDP-galactosa-4-epimerasa Actividad enzimática en glóbulos rojos de individuos normales y galactosémicos sujetos

galactoquinasa

transferasa

epimerasa

+ +

+

+ +

normales galactosémicos

EL problema genético Por el hecho que toda la información genética de sus células somáticas viene en dos copias, una proveniente de la madre y la otra del padre, el ser humano es un organismo dipíoide. Cada gen que controla cada enzima del metabolismo viene en dos copias, que pueden ser idénticas (el individuo es homozigota con respecto a ese gen) o diferentes (el individuo es heterozigota). Sólo las células germinales —los óvulos y los espermatozoides— tienen una sola copia de cada gen: las células germinales son haploides (del griego haploos: simple). Esta información genética duplicada en nuestras célalas somáticas tiene un gran efecto amortiguador, ya que basta que una sola copia de un gen codifique una enzima normal para que nuestras células funcionen normalmente. En el caso de los lactantes galactosémicos, donde la enzima galactosatransferasa es inactiva, lo que sucede es que ambas copias del gen que codifica la enzima son anormales y resultan en la producción de moléculas de transferasa completamente inútiles. Sus padres, en cambio, son heterozigotas con respecto al gen de la transferasa —tienen una copia buena y otra mala— pero la versión correcta del gen les asegura una cantidad de enzima normal suficiente como para haberles permitido una lactancia normal. De ahí la importancia de implantar sistemas de detección rutinaria de heterozigotas para estas enfermedades meta-

38

O

bólicas (un heterozigota tiene la mitad del contenido normal de enzima activa en sus células) ya que una cuarta parte de los hijos de dos heterozigotas pueden heredar los dos genes defectuosos y tener la enfermedad. Los virus transductores Las bacterias son organismos unicelulares haploides. Sin embargo, pasan por estados diploides durante los cuales pueden recombinar sus genes y diversificar su contenido informacional. Para lograr estos estados diploides, las bacterias utilizan tres tipos básicos de mecanismos: la conjugación, durante la cual una bacteria le pasa a otra un segmento de cromosoma, la transformación, por la cual las células pueden capt a r el á c i d o desoxirribonucleico (ADN) libre presente en el medio de cultivo y la transducción, donde un virus bacteriano (un bacteriófago o fago) actúa como vector, llevando genes bacterianos de una célula a otra. El fago lambda de Escherichia coli es un virus transductor muy específico: sólo lleva de una célula a otra ciertos genes. Al penetrar en la célula bacteriana, el ADN de lambda se inserta muy cerca del segmento del cromosoma de E. coli que contiene a los genes que codifican la síntesis de las tres enzimas necesarias para convertir la galactosa en UDP-glucosa. La desinserción del ADN viral no es perfecta: cuando ocurre, algunos genes de lambda

quedan en el ADN de la bacteria, y a su vez el ADN viral se lleva algunos genes celulares. Como en su estado integrado lambda es vecino de los genes de la senda Leloir, al desinsertarse defectuosamente muchas veces se los lleva consigo. Si fagos portadores de genes bacterianos normales infectan células que no pueden crecer en un medio que tiene galactosa como única fuente de carbono y energía, se comprueba que las bacterias adquieren la posibilidad de crecer y reproducirse usando galactosa: las células infectadas se corrigen ellas y pasan esa corrección a su progenie. El experimento C. R. Merril, M. R. Geier y J. C. Petricciani, del N.I.H., hicieron un simple experimento de transducción, sólo que en lugar de utilizar bacterias incapaces de crecer y reproducirse en un medio con glucosa, utilizaron células de pacientes galactosémicos. Fue un experimento riesgoso. En teoría tenía que funcionar, dado que el código genético es universal (el diccionario que traduce el lenguaje de los ácidos nucleicos al lenguaje de las proteínas es el mismo para todas las especies), pero las células de las distintas especies tienen enzimas que destruyen los ADNs foráneos, y esto podía ocurrir al infectar una célula humana con un virus bacteriano. Lo cierto es que tomaron células galactosémicas, deficientes en la enzima galactosa-transferasa y en un medio con galactosa, y las infectaron con lambda T + , que habían sido crecidos en una E. coli con todos los genes de la senda Leloir funcion a n t e s . C o m o control, utilizaron lambda T~, crecidos en bacterias incapaces de utilizar la galactosa por tener un gen de transferasa alterado (es decir, bacterias galactosémicas). El resultado fue espectacular. Ya sea infectando con el virus completo o tan solo con su ADN, aquellos cultivos de células humanas que recibieron el lambda T + a los 15 minutos ya tenían una gran cantidad de galactosa- transferasa en el citoplasma y no sólo sobrevivieron en el medio con galactosa sino que durante 41 días se pudieron reproducir normalmente sin perder la capacidad de síntesis de la enzima transferasa activa, aportada por el ADN del fago. Por el contrario, los culti-


®8!¡yjj». | 1 - i ; - «Iljj e

vos infectados con lamhda T~ se comportaron como células galactosémicas típicas: la actividad de galactosa-transferasa no apareció en ningún momento y a las 72 horas los procesos degenerativos celulares eran los habituales. ¡Los genes bacterianos resultaron ser mucho más parecidos a los genes humanos que lo que se suponía! El futuro

"StílJ

• "TIU ' «sé®, I

¡apa 6 I

El trabajo de Merril, Geier y Petricciani abre las puertas a medidas terapéuticas que basta ahora pertenecían a la ciencia ficción: controlar a voluntad la información genética de los organismos superiores. La ingeniería médica vegetó durante muchos años en la etapa de

las^ prótesis ortopédicas. Con la aparición de la cibernética, la prótesis mecánica burda fue sustituida por otras que incorporaron dispositivos electrónicos que les confirieron mayor flexibilidad operativa. Independientemente, los médicos efectuaban otro tipo de ingeniería biológica mediante las terapéuticas hormonales de reemplazo: por ejemplo, la aplicación de insulina a los diabéticos. Pero en este terreno la cura se limitó siempre a los individuos aislados: el tratamiento con insulina cura al diabético pero no altera su condición de potencial padre de un diabético. Sus hijos, si reciben los genes alterados que condicionan la diabetes, serán diabéticos aunque el padre esté controlado por la insulina. Con el experimento de trans-

ducción genética de células humanas están dadas las condiciones para curar no sólo al individuo, sino también a sus descendientes. Las aplicaciones prácticas del experimento del equipo del N.I.H. no son inmediatas, porque para corregir el defecto genético de un galactosémico, por ejemplo, habría que transducir el huevo o el embrión en un estadio muy temprano. Como todo desarrollo científico y tecnológico, las potencialidades beneficiosas para la humanidad son deslumbrantes, pero también lo son las negativas. La responsabilidad de los científicos en canalizar y controlar el uso de sus descubrimientos se convierte así en un elemento de primordial importancia para evitar desastres. O

Problemas de Go

' !¡:! ' El esfuerzo realizado por Hilario Fernández Long para difundir el juego del go en nuestro medio ha .•V? tenido enorme repercusión. Su traÉaa& I bajo publicado en CIENCIA NUE"'-i-. VA, 1 las clases que dictara en el Centro Argentino de Ingenieros, la * i -i ai > difusión generalizada a través de comentarios de diarios y revistas de interés general, han aportado al jueMiW , go oriental, un considerable número • ' 1 'í | de adeptos. CIENCIA NUEVA publicó asimismo un análisis de las posibilida•4 | des'<estratégicas del Go, 2 algunos dauU tos b i b l i o g r á f i c o s e información •W | i sobre la integración de un Club de Go. 4 Los trabajos que hoy presentamos inician una serie de problemas específicos del juego —seleccionados por Fernández Long— que publicaremos en números sucesivos. \ Vi

,

3• "Jh

;

tntitbd el cíto'ifü en ]üí dujpsrodtt-

! \ t

; 1

(

¡

.1 dj»' ; Í trató- ; m

¡dti- ;

1

Hilario Fernández Long, El juego del

GO, CN N? 9, pg. 58. 2

Alain Jaubert, El go, ¿secreto de la

estrategia revolucionaria?, CN N" 11, pg.

55.

3

Correo del lector, Go for ever, CN N? 11, pg. 64.

* GO Club, CN N- 12, pg. 58.

Problema 1 Juegan las blancas y las negras mueren. La primera jugada es el punto clave. Debe encontrarse el punto preciso con el cual las negras puedan hacer otro ojo.

El diagrama de referencia muestra que la osae de 1 —que los principiantes son capaces de jugar sin pensar— lleva a la derrota.

Problema 2 Solución

al Problema

1

la - La blanca 1 es el punto vital par a matar a las negras. Ib- - A u n cuando las negras resisten con el nobi de 2 contra la blanca 1, están predestinadas a morir.

El problema consiste en averiguar cómo pueden hacer las negras para vivir.

Solución

al Problema

2

La conección de negra 1, sin salvar las cuatro fichas negras, es la jugada correcta, contra la cual la blanca 2 es inevitable. Las negras pueden vivir por medio de "ishinoshita".

©•cr

r •f ©^ •f •i O r 1»#C#»

m

39


Los Flexágonos Juegos Matemáticos Nos ocuparemos hoy de un pasatiempo matemático de muy simple preparación y que puede ser para quien se dedique pacientemente a su estudio, fuente de muchas horas de distracción; si el problema se ataca con toda seriedad matemática, puede aún llevar a complejos estudios teóricos. El autor debe confesar que otros aspectos de las matemáticas recreativas han captado preferentemente su atención, por lo cual en este artículo deberá seguir muy de cerca lo que han escrito al respecto Martin Gardner 1 y Joseph S. Madachy Martin Gardner fue quien, en diciembre de 1956, puso de moda los flexágonos, al mencionarlos en su sección Mathematkal Games en la revista Scientiftc American correspondiente a ese mes; pero, como lo narra el propio Gardner, la invención de los flexágonos se había producido 17 años antes y se debió a la circunstancia fortuita de tener los cuadernos de apuntes ingleses menor altura que los norteamericanos. En 1939, un estudiante inglés, Arthur H . Stone, que seguía cursos de post-graduado en la Universidad de Princeton, había cortado una pulgada de su nuevo papel de apuntes, norteamericano, a fin de que cupiera en las tapas inglesas que tenía. Distraídamente empezó a doblar los sobrantes de papel, y así nació el primer flexágono. Los flexágonos son polígonos de papel que se obtienen doblando tiras rectas o quebradas de papel y que tienen la fascinante propiedad de ir cambiando sus caras visibles al ser doblados o "flexionados". El más simple y primero en ser descubierto, se obtiene partiendo de una tira dividida en 10 triángulos, en la forma indicada en la figura 1. Conviene doblar bien el papel, hacia adelante y hacia atrás, por las líneas punteadas, para mayor facilidad en formar el flexágono y en flexionarlo

40

Manuel Risueño

después. La tira debe doblarse en primer lugar por la línea ab hacia atrás y luego darse vuelta, en la forma indicada en la fig. 2. Se vuelve a doblar nuevamente hacia atrás a lo largo de la línea cd y la parte doblada se pasa luego delante del primer triángulo (figura 3). Bastará luego doblar hacia atrás el último triángulo y pegarlo a la parte de atrás del primero, para dejar formado el flexágono. Flexionándolo en la forma indicada en las figuras 4 y 5, una de las caras originales del hexágono desaparece y se presenta una cara enteramente nueva. Si se colorean en colores distintos las dos caras visibles del flexágono recién formado, una de estas desaparece y aparece una cara enteramente en blanco. Como se comenzó con 10 triángulos de dos caras cada uno, o sea 20 caras en total, y 2 desaparecen al pegar el último triángulo al primero, quedan 18 caras triangulares, que forman exactamente las tres caras del flexágono, que tiene seis triángulos por cara. Por este motivo, se le denomina "trihexaflexágono". Stone continuó pensando sobre la figura que había creado y a la mañana siguiente pudo comprobar en la práctica que podían crearse flexágonos más complicados, tal como lo había imaginado teóricamente. El segundo modelo fue un "hexahexaflexágono", con seis caras en vez de tres. Se forma con una tira de 19 triángulos (en la figura 6 se la muestra por ambos lados y con números que indican las caras a las que en definitiva pertenecerán los triángulos), que se dobla en espiral en la forma indicada en la figura 7, obteniéndose una tira doble igual a la de la figura 1, que se dobla ahora en la misma forma indicada en las figuras 2 y 3 para formar el hexahexaflexágono. Si se comienza a flexionar esta figura, las caras 1, 2 y 3 aparecerán con mucha faci-

lidad, pero las caras 4, 5 y 6 son algo más difíciles de poner de manifiesto. A esta altura de los acontecimientos, Stone estaba tan interesado que mostró sus modelos a algunos compañeros de estudios y pronto se veían flexágonos por doquier. Se formó un "Comité de Flexágonos", del que formaron parte, además de Stone, Bryant Tuckerman, Richard P. Feynman y John W. Tukey. De estos, Feynman era un estudiante de física y después se dedicó a su especialidad, pero los restantes miembros todos alcanzaron fama en diversos estudios matemáticos. Tuckerman fue el primero en descubrir que la manera más simple de poner de manifiesto todas las caras de cualquier flexágono (pues pronto también se descubrieron muchos otros), era continuar flexionando siempre a partir de un mismo vértice hasta que resultare imposible abrirlo, y en ese momento pasar a un vértice adyacente. Este procedimiento fue pronto bautizado como "travesía de Tuckerman". Aplicado al hexahexaflexágono, hará que las caras 1, 2 y 3 se pongan de manifiesto tres veces más frecuentemente que las 4, 5 y 6. El comité descubrió pronto la posibilidad de hacer flexágonos con otro número de caras, si bien, mientras se partiera de una tira recta de triángulos, el número debe ser siempre múltiplo de tres. Partiendo de tiras quebradas o en ztg-zag, pueden obtenerse tetrahexaflexágonos y pentahexaflexágonos, así como otros tipos de hexahexaflexágonos. Ya en 1940 Tukey y Feynman elaboraron una teoría matemática completa, la que determina el número exacto de hexaflexágonos de cada tipo, su clasificación en tipos y especies, y la forma de construir un hexaflexágono de cualquier especie o tipo que se desee. Estos resultados nunca fueron publicados en su

1


totalidad, pero muchos han sido redescubiertos y publicados por otros autores. Más adelante nos referiremos a algunos de estos resultados, pero primeramente vale la pena resumirlos, indicando tocios los tipos de hexaflexágonos ele un número relativamente pequeño de caras. Ya señalamos que hay un solo trihexaflexágono, un solo tetrahexaflexágono, y un solo penüihexaílexágono; hay tres hexahexa (en adelante suprimiremos con frecuencia la parte final del nombre, para abreviar), cuatro heptahexas, doce octohexas, 27 eneahexas y 82 clecahexas. El número de variedades para cada tipo puede variar según que se cuenten como distintas o no las figuras enantiomórficas que se pueden obtener.

yX

v/

/

/ \

* / *¡t'

Tí ' \ \ ut

'

A / \

TV \ , V ' \ \ t V / \ \ ÍÍt KseI \:

Figura 1

b c

,

A

/ 11 \

2

\/

,\

1

/ 3O \ v

~7\T7\ /«

^^ /

A

3/ \

2

I / \

d

Figura 2

Figura 3

En las figuras 8 a 11 indicamos las tiras de las que debe partirse para obtener el tetrahexa, el pentahexa y los dos hexahexas cuya constitución aún no se ha indicado. Hasta aquí lo que publicó Gardner en el año 1956. Joseph S. Madachy publicó primero en su revista "Journal of Recreational Mathematics" y luego en su libro, citado ya en la nota (2), un resultado redescubierto durante los siguientes diez años. Se trata de un método, —que parece confuso si uno se limita a leer la descripción, pero que resulta muy simple si se van siguiendo paso a paso las instrucciones a medida que se las lee—, para construir un hexaflexágono de cualquier tipo y especie que se desee. Para explicar este método, es necesario indicar primeramente el gráfico que corresponde a cada hexaflexágono. En la figura 12 damos los correspondientes al trihexaflexágono y al primer hexahexaflexágono descubierto. Estos gráficos constan de tantos puntos como caras tiene el hexaflexágono (que únicamente por razones de comodidad y estética se disponen formando los vértices de un polígono regular) y de rectas que los unen únicamente en el caso en que es posible pasar de la cara simbolizada por un punto a la cara simbolizada por el otro pun-

/

--

Figura 4

Figura 5

3/

\ 2 / A l

/

\ 3 /

'2 i \ / 1 \ / 3 m ' " \ / ' \ ' 3 \ > 2 w y v v y — * — * —

5 /\

5 \ /

B A, a 6 /\ « V V / X 1 5 \ / 6 y 4 y « y 5 y Jjí ¡¿ ,-jé. Figura 6

B \ / * \ /

41


to. Por ejemplo, en el primer hexa- es del todo fácil y es necesario pohexa descubierto, es posible pasar ner gran cuidado al analizar las insde la cara 1 a las caras 2, 3 y 5, trucciones y hacer los modelos. Ya pero no a la cara 4, y análogamente hemos indicado que es más fácil para las demás; puede apreciarse aplicar el método en la práctica, que las caras 4, 5 y 6 se presentan siguiendo paso a paso las instruccon menos frecuencia y son más di- ciones, que tratar de comprenderlo fíciles de encontrar, por cuanto sólo con la simple lectura de éstas. Las instrucciones se darán en térpuede llegarse a ellas partiendo de otras dos caras, mientras que a las minos generales para todo hexaflecaras 1, 2 y 3 se llega a partir de xágono, cualquiera sea el número, n, de sus caras; pero las figuras que otras cuatro. ilustran el procedimiento corresponSobre la base de estos diagramas, derán a los casos n — 1 y n = 8, Stone estableció en primer lugar que ya que hay pequeñas diferencias de todo diagrama de un flexágono podetalle según que n sea par o impar. sible estaba representado por un poPártase del gráfico deseado, que lígono constituido exclusivamente tendrá n vértices, unidos entre sí por un conjunto de triángulos que no se superponen; en otras pala- por los n lados del polígono y por bras, de figuras resultantes de agre- n - 3 diagonales que subclividen el gar, a partir de un triángulo primi- polígono en n - 2 triángulos. Numétivo, nuevos triángulos construidos rense estos vértices 1, 2,. . . , n en sobre las caras exteriores de la fi- cualquier orden; luego elíjanse argura obtenida por el agregado de bitrariamente puntos en cada una los triángulos anteriores. De ahí que de las 2n - 3 líneas de la figura; en hayan un solo tetrahexa y pentahe- la práctica conviene elegirlos aproxa, mientras que hay los tres hexa- ximadamente en el medio de la reshexas cuyos gráficos se dan en la pectiva línea. Tomando estos puntos como vértices trácese un nuevo grufigura 13. po de n - 2 triángulos (como se ha Ya Stone había dado un método hecho con líneas de trazos intepara demostrar que todo polígono rrumpidos en la figura 14) en tal formado exclusivamente por trián- forma que cada uno de los nuevos gulos constituye el gráfico de un he- triángulos quede en el interior de xaflexágono que se puede construir cada uno de los triángulos del gráen la práctica y que todos los He- fico primitivo. Los lados de estos xágonos posibles tienen, como que- triángulos forman un circuito cerrada dicho, un gráfico de este tipo. do que, para evitar ambigüedades, Este método indica la forma de de- se considera que se cruza a sí misterminar, a partir de un ^gráfico mo en cada diagonal. determinado, la red de triángulos Salvo en el caso n = 3, el cirequiláteros que servirá para obtecuito debe comprender como míniner el hexaflexágono deseado, y la mo 2 triángulos que tienen dos vérforma de hacer los dobleces necetices sobre los lados del polígono sarios para armarlo. y uno sólo en una diagonal; llámenPero este método de Stone, si se A y B a los dos vértices de uno bien es preferible cuando se trata de estos triángulos, que estén ubide hacer un desarrollo completo de cados sobre los lados del polígono; la teoría y de obtener pruebas ma- la decisión entre A y B se hará de temáticas rigurosas de los resultados manera que, si se imagina un punto obtenidos, es complicado en su rea- que recorre el circuito cerrado _en lización práctica. Un aficionado in- el orden definido por la dirección glés, el señor Sidney H. Scott, de de A hacia B, el primer triángulo Watford, Inglaterra, ha dado un va a quedar recorrido en el sentido método simplificado que es el que que los matemáticos definen como se expondrá a continuación. Aun- positivo, o sea, el contrario al del que "simplificado", el método no movimiento de las agujas de un reloj. Luego, debe imaginarse que_ se recorre el circuito cerrado partiendo de A hacia B; cada vez que se llegue a un lado del polígono, se designará el punto a que se llegue con la siguiente letra del alfabeto: C, D, etc. Además, se marcará con un signo positivo o negativo el m-


terior de todos los n -2 triángulos, según que dicho triángulo haya sido recorrido en el sentido contrario o en el mismo sentido de las agujas de un reloj, respectivamente. El próximo paso consiste en escribir cuatro líneas de n símbolos ordenados en n columnas (es decir, una matriz de 4 X n), que contendrán toda la información necesaria para diseñar la red de triángulos equiláteros que formará el hexaflexágono. La primer línea estará formada por las letras A, B,. . ., en orden alfabético. Desígnese por ai al número del vértice del gráfico original que precede a A si se recorre el perímetro exterior en el sentido positivo (siempre el contrario al de las agujas del reloj) y por aa al vértice que sigue a A, y defínanse análogamente bi y ba, ci y ca, etc. La serie ai, ba, ci, da,. . . , se usa para determinar la segunda línea, anotando en ella el número del vértice correspondiente; la tercera línea es análoga, pero basada en la serie aa, bi, cu, di,. . . . Finalmente, la cuarta línea está formada por signos más y menos que corresponden a los signos colocados en el interior de los triángulos de que la respectiva letra constituye un vértice. La aplicación a los dos ejemplos dados en la figura 14 debe aclarar completamente el procedimiento. Los resultados obtenidos serán: A 7 6 +

B C 7 6 1 5 -I

D 3 4

E F 2 2 1 3 H +

G 5 4 +

A B C D E F G H 2 2 7 4 6 8 8 3 1 3 6 5 5 1 7 4

Como consecuencia de la forma en que se definieron A y B, la cuarta línea comenzará siempre con dos signos + ; si toda la línea estuviera formada exclusivamente con n signos + , puede ahorrarse el diseño de la red de triángulos, pues el hexaflexágono se obtendrá de una fila rectilínea de triángulos (como las indicadas en las figuras 1 y 6). Preparado el esquema en la forma indicada, puede comenzarse a preparar el modelo mismo, para lo cual hay que tomar una hoja de papel y cubrirla con una red dibujada muy exactamente de triángulos equiláteros. El tamaño del papel crece con n no sólo porque se necesitan 3« + 1 triángulos, sino también porque, para poder mover satisfactoriamente el modelo, el tamaño mínimo de cada triángulo también crece con n. Un tamaño conveniente es dar a los triángulos aproximadamente 4 cms de lado. También, si se desea, puede ser ventajoso tener de antemano una idea de la red de triángulos que se va a necesitar, para lo cual puede hacerse primero un croquis de tamaño más reducido y a mano alzada. Comiéncese con un triángulo equilateral y coloqúese una flecha en cada uno de sus lados, de modo que todas las flechas indiquen un mismo sentido de movimiento alrededor del triángulo. Llámese a

esta dirección, positiva, y a la opuesta, negativa. El objetivo es elegir 3n + 1 triángulos que formen una tira en tal forma que al moverse a lo largo de una tira de un triángulo a su vecino, se lo haga en forma tal que las direcciones definidas correspondan a la cuarta línea del esquema. Dos triángulos adyacentes no definen una dirección pero tres sí. En la figura 14, el orden de los triángulos i, ii, iii "indica" la misma dirección que una de las flechas en el triángulo i y, por lo tanto, los tres triángulos "indican" una dirección positiva. El orden de los triángulos n i , n , iv también índica una dirección positiva, en tanto que el orden de los triángulos i, ii, iv indica una negativa. La cuarta línea del esquema, tomada tres veces, produce una serie ordenada de 3n signos. El primer triángulo de la tira será el marcado con flechas. Asóciese con el signo que corresponde al triángulo ; en esta serie de signos la dirección que los triángulos (/' — 1), /', (/ + 1) deben seguir en la tira. Así, el primero, segundo y tercer triángulos deben indicar la dirección positiva. Luego, para / = 3, 4, . . ., 3n, determínese el triángulo que debe ocupar la posición ; + 1 asegurándose que (/"—1), /, ( / • + 1) indiquen la dirección que corresponde al signo de j. Una vez dibujados los primeros tres triángulos, esto puede hacerse de una sola manera. Una gran ventaja de este método es que si la serie ordenada de signos tiene k signos consecutivos iguales,

43


Figura 15 Figura 16

pueden elegirse simultáneamente k triángulos. Aplicando este sistema a los ejemplos de la figura 14, se obtendrán las recles de la figura 16. Luego, puede cortarse la tira obtenida y marcarse los dobleces entre triángulo y triángulo. Los números indicados en la figura 16 son los de las caras a que pertenecerá cada triángulo y pueden escribirse en el mismo; los números indicados entre paréntesis corresponden al dorso. El procedimiento a emplearse para determinar estos números varía según que « sea par o impar: I. Para n par deben escribirse los números de ía segunda línea del_ esquema en orden, uno por cada triángulo de la tira y empezando por el primero. La serie debe repetirse tres veces basta numerar 3 n triángulos y luego en el último se repite el número ai (que es igual a b»). De la misma manera se procede del otro lado del papel, pero teniendo cuidado de empezar siempre por el primer triángulo, que ahora estará a la derecha, sí se ha dado vuelta el papel. I I . Para n impar los números que van a un costado del papel están tomados de la segunda línea del esquema, luego de la tercera, nuevamente la segunda y finalmente az. La serie para el otro lado comienza con la tercera línea, seguida de la segunda, nuevamente la tercera y, finalmente, ai. Si se ha procedido correctamente, la tira debe tener cada símbolo 6 veces, excepto los que figuran en los triángulos que están al comienzo y al fin, que aparecerán 7 veces. Al terminarse el hexaflexágono, estos triángulos deben pegarse e n t r e o í , con lo que desaparecerá la séptima aparición de estos números. Sólo falta doblar y cerrar el modelo. Cuando n es grande, conviene recortar una pequeña cinta (de un milímetro de ancho, por ejemplo) todo alrededor, lo que facilita las flexiones en el modelo armado.

44.

Según se ha indicado, debe haber siempre al menos dos vértices del gráfico de estructura por los que no pasa ninguna diagonal. Uno de ellos es el número ai (o sea, el número 7 de la primera parte de la figura 14 y el número 2 de la segunda). Supóngase que otro de estos vértices lleve el número c (c = <?i = 2 en la primera parte de la figura 14). Este número c aparece en tres pares de triángulos adyacentes de la tira. Dóblesela por las líneas que separan estos pares de triángulos en forma que éstos queden cara contra cara de manera que este número desaparezca. Si se pegaran estas caras, lo que no debe hacerse, quedaría un modelo de un hexaflexágono de orden n — 1, que correspondería al gráfico que se obtendría suprimiendo el triángulo con vértice c del gráfico primitivo. En la tira ya doblada de manera de hacer desaparecer los triángulos que llevan el número c, se encontrará nuevamente al menos un símbolo que se repite en tres pares de triángulos adyacentes, excluyendo el primero y el último; elimínese nuevamente este símbolo, doblando por las líneas que separa los dos triángulos de cada par en la forma indicada, y repítase este procedimiento tantas veces cuantas sean necesarias, hasta que sólo queden a la vista a\ y a-¿. Péguense los dos triángulos finales, que habrán quedado superpuestos, y se tendrá el Hexágono terminado, que antes de comenzar a flexionarlo mostrará a% seis veces en una cara, y «2 seis veces en la opuesta. Sólo nos falta prevenir una dificultad que puede presentarse: al determinar la forma de la tira, puede ser necesario seleccionar dos veces un mismo triángulo, es decir, la tira de triángulos puede cruzarse consigo misma (así ocurre, por ejemplo, con los triángulos iniciales y finales

en las figuras 10 y 11); en estos casos, para poder hacer el modelo no bastará una tira de papel, sino que habrá que pegar otra tira en el lugar apropiado. El método es obvio cuando el problema se encuentra en la práctica. Con lo expuesto creemos haber dado un buen punto ele partida para muchas horas de distracción; más adelante daremos algunas explicaciones adicionales, si nuestros lectores lo consideran necesario, y también hemos de referirnos a los tetraflexágonos, que son polígonos semejantes, pero cuyas caras tienen la forma de un cuadrado subdividido en cuatro y que presentan, aparte de fenómenos análogos a los hexaflexágonos, algunas complicaciones adicionales. También hay flexágonos cuyo elemento básico no son ni triángulos equiláteros ni cuadrados, sino triángulos rectángulos isósceles, y, finalmente, flexágonos híbridos, con algunas caras cuadradas y otras en forma de triángulos rectángulos isósceles. Estos últimos se han obtenido partiendo de los flexaedros, generalizaciones de los flexágonos al espacio de 3 dimensiones, pues sus elementos esenciales son cadenas ele tetraedros, octaedros, etc., que se pueden también flexionar, El lector impaciente por avanzar en sus estudios a estos tipos podrá encontrar "la punta del ovillo" en un artículo aparecido en 1969 3 y en el libro de Madachy citado en la nota (2), pp. 81-84. O

1 Artículo en Scientific American, reproducido en "Mathematical Puzzles_ and Diversions", por Martin Gardner, Simón and Schuster, New York, 1959, pp. 1-1-12 Artículo en Recreationd Mathematics Magazine, reproducido en "Mathematics on Vacation", por Joseph S. Madacliy, Charles Scribner's Sons, New York, 1966, pp. 62-75. 3 Journal of Recreationd Mathemat-n, vol. I I , n? 1 (January, 1969), pp. 35-41.

•V / (.

n¿ >


Humor

y

Julio Moreno

4.5


Actividad científica y realidad nacional Grupo Trabajadores de la Ciencia

Los organismos de planeamiento oficiales, asociaciones de investigadores, docentes, funcionarios, científicos de renombre, periodistas, insisten en afirmar que la ciencia argentina vive una situación crítica. Se discute sobre planes y proyectos, toma estado público la crisis del CONICET, la posible disolución de la CNEGH, los problemas del INTI e INTA. La situación de las universidades nacionales se deteriora, se habla de problemas en Atucha. Se comienza a hablar de la "transferencia". En otro plano menos "científico", pero no menos importante, se sufre la continua pauperización de los investigadores, la inestabilidad de las fuentes de trabajo. En estos momentos el personal de la CNEGH, más de un centenar de científicos y técnicos, puede ver tronchada su carrera y quedarse en la calle. Los problemas de quienes hacen ciencia o docencia no acaban allí: faltan becas, promoción, presupuesto y se practican distintas formas de discriminación política e ideológica. Además, salvo casos aislados (y aún allí para emitir una opinión solamente "técnica"), no se permite al conjunto participar en la creación de la política científica y es excluido de todo lo que signifique una decisión importante sobre el sentido de su actividad.

tarea, los que son discriminados, han empezado a reclamar soluciones. • Los redactores de este trabajo, que somos parte de los convidados de piedra, al comenzar a discutir nuestras ideas y, más aún, cuando intentamos llevarlas al papel, nos encontramos con una primera dificultad: para qué y para quién escribirlas. Buenos comentarios sobre la situación de la ciencia y los científicos, se publican frecuentemente. Igualmente muchos grupos políticos de diverso origen nos presentan sus análisis y salidas. Sin embargo, hay un vacío que impulsó a nuestra búsqueda de otra respuesta y propuesta de actividad. No nos parecen suficientes los llamados a nuestra "conciencia" individual o de sector social, para que apoyemos —racional o emocionalmente— a algunos de los sectores en pugna en la sociedad argentina. • Estamos convencidos de que no hay salida para la ciencia ñapara los científicos al margen de una salida para el país y el pueblo, y que, como sector aislado, no podemos imponer ninguna. Pero creemos que pesan muy poco las buenas intenciones, las honestas declaraciones de fe y las adhesiones ideológicas e individuales. Sólo impulsando, a partir de nuestros propios problemas y necesidades, una gran experiencia de la población científica argentina, nos transformaremos en importan—¿Por qué nos sucede esto? ¿Cómo armonizar nuestra tes aliados, activos y organizados, de los movimientos y tarea con la solución de estos problemas? organizaciones obreras y populares. • Los eternos convidados de piedra de la ciencia argen- • Así, comprendimos a quienes debíamos dirigirnos: a tina, a los que nunca se pide opinión, los que trabajan los científicos jóvenes que han empezado a inquietarse día a día en los laboratorios, universidades, institutos, por algunos de estos problemas. Desde la utilización de fundaciones, organismos privados y estatales, los que su producción científica hasta lo bajo de su salario; desencuentran cada vez más dificultades para desarrollar su de los problemas inmediatos de su lugar de trabajo, hasta los generales de la ciencia y la sociedad. Por eso esta elaboración termina con un llamado y un programa, un llamado a actuar y discutir juntos y un programa que sirva conloábase para esa discusión y acción. El Grupo Trabajadores de la Ciencia surge a fines • Entendiéndose así, como una herramienta apta para de 1969. Está integrado por jóvenes investigadores científicos, técnicos y docentes universitarios pertenecientes empezar a construir, como un aporte sumamente moal área biomédica y las ciencias exactas. desto, en elaboración, que resume e intenta corregir alSu objetivo es "promover el acercamiento de sectores gunas de las deficiencias de un primer trabajo titulado crecientes de la comunidad científica al proceso que lleva Ciencia, técnica e investigación en la Argentina" que al pueblo trabajador al socialismo". circula desde septiembre de 1971.

46


I. CIENCIA Y SOCIEDAD \

[ ¡

l a ciencia c o m o rama de producción El hombre, en sus orígenes, se enfrentó a la naturaleza como a una fuerza extraña a la que debía dominar para poder subsistir. Produjo herramientas: primero para la caza, luego para la agricultura, ganadería, alfarería, tejidos y metalurgia. Así comenzó el ciclo de su actividad productiva, en cuyo transcurso, a más de modificar a la naturaleza, se modificó a sí mismo. Creó herramientas cada vez más poderosas y diversificó la producción en distintas ramas, originándose una primitiva división del trabajo, que se hace neta con el surgimiento de las clases sociales y el Estado. Así se separa el trabajo manual del intelectual. De esta última rama surgió la ciencia, tal como la conocemos en la actualidad. La ciencia es la rama de producción social cuyo fin es desarrollar conocimientos objetivos. La utilización de los conocimientos no se da, en general, sincrónicamente con su aparición; ya sea porque no responden a las necesidades de las clases dominantes, o por que lo impide el desarrollo insuficiente de otras ramas de la producción; además estos conocimientos abren nuevos e imprevistos campos de aplicación. Por estas razones, generalmente combinadas, solamente a escala histórica y social se puede decir que la ciencia es utilitaria. Esto permite comprender la estéril polémica entre investigación "aplicada" vs. "básica", que debe ser resuelta en forma concreta mediante una adecuada planificación de conjunto. Ciencia y clases. Apropiación de la ciencia por las clase» dominantes

¡ [ I, i i

Desde la aparición de las clases sociales, algunas de ellas se han erigido, en las distintas etapas históricas, en dominantes: por apropiarse de la mayor parte del producto social y de los medios de producción y cambio. También la ciencia siguió ese camino. Esta, así como el arte o la petroquímica o la siderurgia, es parte de la herencia cultural de la humanidad en su totalidad.^ Pero sus resultados, en utilidad, así como sus herramientas {incluso la fuerza de trabajo de los científicos), se han transformado en propiedad privada de las clases poseedoras; a esto se debe que las conquistas de la ciencia y la tecnología estén al servicio de sus necesidades y no de las de la humanidad. Pero la ciencia, como tal, no es ni burguesa, ni imperialista, ni proletaria. Ha habido y hay una apropiación de la misma. En una etapa socialista —es decir, cuando se supriman la propiedad privada y todo vestigio de privilegios sociales— la ciencia, la técnica, el arte y la cultura podrán cumplir su rol social, sirviendo al conjunto de la población, superando sus actuales deformaciones. Ciencia e ideología Junto a la apropiación directa de la utilización de la ciencia por los sectores dominantes, hay otra indirecta, tan o más importante, que estos efectúan por medio del

manejo de las ideologías. Estas surgen históricamente bajo la forma de "falsa conciencia"; todo lo que no se conoce o no se puede explicar racionalmente se adjudica a construcciones ideales, religiosas, sistemas filosóficos, utopías, justificaciones, etc. Piaget precisa al respecto: "en tanto que la técnica y la ciencia constituyen dos tipos de relaciones objetivas entre los hombres en sociedad y el universo, la ideología, en todas sus formas, es una representación ele las cosas que centra el universo en la sociedad humana, en sus aspiraciones y sus conflictos". Con la lucha y la dominación de clases, las ideologías pasaron a jugar en el intelecto, el mismo papel que las armas y las cárceles en el terreno físico. Todo avance de la ciencia que destruye una de esas construcciones ideológicas, ha sido ocultado, postergado o sancionado por los privilegios de turno. Cuando en la Edad Media la censura ideológica estaba ejercida por la Inquisición, munida de un poder de vida y muerte, se llegaba a pagar con la vida los descubrimientos que atentaban contra el geocentrismo, el vitalismo, o la teología. En la actualidad esta censura se hace de una manera más sutil pero no menos eficiente. Las llamadas ciencias de la naturaleza (macro y microfísica, química, biología) —cuyos conocimientos objetivos son imprescindibles para el desarrollo de la industria capitalista— presentan un menor contenido ideológico, que se evidencia en alto grado en el terreno de la filosofía de la ciencia. Las ciencias humanas (psicología, sociología, antropología, economía) están tan embebidas por la ideología oficial, que ésta dicta las "conclusiones" y "teorías". Los conocimientos objetivos son parciales y la metodología no consigue superar la etapa empírica, porque toda generalización científica profunda lleva a un cuestionamiento de la estructura de clases. Condenadas a la parcelación y al pragmatismo, fracasan cuando intentan prever o explicar los fenómenos individuales, sociales o económicos de conjunto. Por esta causa quienes en contra o fuera de las instituciones oficiales, profundizan y combinan las verdades parciales arriban a conclusiones que cuestionan al sistema. Resultados que sólo son tomados como ciencia por las clases explotadas. Las deformaciones de la ciencia por la ideología oficial también se dan en las democracias populares burocratizadas: un ejemplo conocido es el caso Lysenko-Vavilov en la URSS. Toda ciencia, además del grado de desarrollo en que se encuentre, tiene un mayor o menor grado de ideología, y su mero desarrollo no puede eliminarla. Solo la liquidación histórica de una clase permite la destrucción de su ideología. Y solo la superación de todas las diferencias de clase o privilegios permitirá investigar lo nuevo y lo desconocido con una actitud científica. Ciencia y clases a l o l a r g o de la historia La accidentada evolución de la ciencia conoció distintas etapas. Durante el feudalismo se dio una represión generalizada del desarrollo científico, tanto de las ciencias humanas como de las naturales. Las clases dominantes no lo necesitaron durante el período estable de ese régimen y los descubrimientos atentaban contra la ideología eclesiástica, que tenía una explicación apriorística para todos los problemas. Sin


m embargo, a pesar de esa estructura represiva, el artesanado desarrolló un incipiente conocimiento científico, que creció en los intersticios de la persecución inquisitorial; este fue tomado por la nueva sociedad naciente. La gran liberación de las fuerzas productivas que significó el advenimiento del capitalismo, impulsó la ciencia. Hay un gran avance en las ciencias exactas y naturales, que rompen el dique de contención de las concepciones teológicas. Si bien limitado por la nueva ideología oficial, los mismo ocurre en las ciencias sociales y humanas con Smith, Ricardo, Marx y posteriormente con Freud, entre otros. En general se fomenta la producción científica así como la artística y la intelectual, pero no existe una planificación explícita y controlada. La burguesía es una especie de mecenas de la ciencia y provee los fondos a las grandes figuras individuales que, con sus discípulos, trabajan en pequeños grupos y encuentran una libertad de trabajo como nunca habían tenido. El neocapilalisnio en los países desarrollados Esta situación comienza a desaparecer en la etapa monopolista, y es liquidada en el "neocapitalismo". Finalizada la segunda guerra mundial se producen profundos cambios económicos y sociales. Surgen nuevas ramas de producción: atómica, aeroespacial, electrónica, computación, plásticos, y se impulsan otras preexistentes: fibras sintéticas, química, automotriz, propaganda (fundamental para el manipuleo del mercado y la mentalidad de la población). El mundo es conmovido por esta nueva revolución industrial y tecnológica. Los capitales se fusionan y concentran en forma creciente y unos pocos monopolios se adueñan del aparato productivo, las finanzas y el mercado. La guerra fría y las guerras coloniales, desatan la carrera armamentista, y el Estado, que maneja un presupuesto militar gigantesco y participa de las inversiones neocapitalistas, se convierte en una potencia económica de primera línea, en un monopolio más. La fusión del Estado con los monopolios da origen a una potencia económica, política y militar que supera todo lo conocido anteriormente. El armamentismo y las ramas neocapitalistas han provocado un impulso a la ciencia como nunca se había dado antes en la sociedad. Los monopolios comenzaron a necesitar masivamente mano de obra altamente capacitada y la reclamaron no solamente en las metrópolis sino en los países coloniales y semicoloniales que pasaron a servirlos, no sólo como proveedores de materia prima y de mercado para su producción industrial, sino como surtidores de técnicos, científicos e investigadores. En todo el mundo se produce la apertura masiva de la Universidad a amplias capas de población y se impone en ellas una nueva orientación cientificista rompiendo con los esquemas profesionales. La actividad controlada a escala mundial por las grandes corporaciones y sus fundaciones, sufre una profunda transformación. El trabajo y la información se centralizan en grandes centros e institutos científicos, a cuyo servicio se desenvuelve la ciencia mundial. Esta transformación de la ciencia ha provocado cambios en la ubicación social de los científicos que han pasado a ser un sector más de los trabajadores asalariados. j| ;

48

II. LOS CIENTIFICOS Y LA SOCIEDAD Del científico privilegiado de las primeras épocas del capitalismo al científico asalariado del neocapitalismo Hemos visto, en el capítulo anterior, cómo la ciencia se relaciona, como una rama de producción, con la estructura social. De igual manera, los científicos, como sector social, establecen relaciones distintas en cada etapa histórica. Hay un abismo entre el científico clandestino, perseguido, a veces quemado vivo, en la Edad Media y el que desarrolla su actividad en la primera etapa del capitalismo, que podríamos llamar de "libre competencia". Cuando la burguesía revolucionó la industria, y la producción se expandió velozmente, se abrió una era de amplia libertad de creación, y los intelectuales pasaron a ser los "niños mimados" de la sociedad. Ser intelectual significaba tener acceso a una capa social superior, gozar de un gran prestigio y elevar raudamente el nivel de ingresos. Si bien esto era más notable en las llamadas "profesiones liberales" (abogacía, medicina), se dio en general para toda la capa intelectual, incluyendo los científicos y los artistas. Es la época del gran intelectual, del "maestro", del académico por excelencia, que abandona sus rebeldías juveniles de estudiante —si las tuvo— para incorporarse de lleno a la defensa incondicional del régimen establecido. Es el científico individual (en nuestro país, además, oligárquico) que constituye una élite científica con grandes privilegios sociales.

¡ : ¡ : : : ; : ¡ ¡ ¡

Es cierto que los intelectuales son una capa muy sensible a problemas sociales, lo que solía provocar alguna que otra crisis de conciencia, y, a veces, choques abiertos con las clases dominantes. También lo es que, unos pocos "grandes hombres", cuando su actividad los llevó a una verdad que cuestionaba la estructura social o la ideología oficial, optaron por una defensa intransigen- ' te de sus descubrimientos contra los prejuicios de clase y la persecución moral, material y de todo tipo que les acarreaba su honestidad científica. Pero estas excepciones no niegan la característica general de los científicos como sector social en esta etapa. Este panorama empieza a cambiar cuando los monopolios pasan a ser hegemónicos en la economía mundial y se transforma cualitativamente, con la etapa neocapitalista. La élite es reemplazada por una gran masa de fuerza de trabajo intelectual; el investigador individual en su laboratorio, por grandes concentraciones de trabajadores intelectuales en centros altamente tecnificados, producto de inversiones masivas; el científico privilegiado por el científico asalariado. Es así como aparecen entre los científicos males hasta entonces exclusivos de los trabajadores manuales; bajos salarios y pocas posibilidades de progreso econó!™.c,° P a r a l° s <3ue trabajan, por un lado; y un verdadero "ejército de desocupados", nutrido por los científicos jóvenes, por otro. No sólo es imposible hacer la ciencia que le guste a cada une, sino que hay grandes dificulta- i


des para conseguir un empleo donde hacer aunque más no sea, la ciencia oficial. La relación entre el científico y el producto de su trabajo Pero la similitud con los trabajadores manuales no acaba allí; la alienación, la negación de la personalidad, que en su forma más brutal parecía ser propiedad privada de aquellos, aparece también entre los trabajadores intelectuales. Se pierde la propiedad del producto en manos del empresario que paga el salario y, peor aún, se pierde el control y, a veces, hasta el conocimiento del plan general que enmarca una investigación específica. Se da la terrible paradoja de miles de científicos antibelícistas trabajando directa o indirectamente para la industria de guerra; de miles de sociólogos y psicólogos izquierdistas trabajando para la manipulación ideológica de la población por las clases dominantes. De cientos de artistas con sensibilidad humana trabajando para publicitar productos inútiles y crear necesidades artificiales. La pseudo-especialización y la racionalización estrechan los márgenes que impiden el desarrollo personal. Aparece "la carrera de los papers" donde se vale de acuerdo al número de los trabajos publicados, donde se estimula una feroz competencia individual y donde se explota el trabajo de los que recién se inician en beneficio de los que ya han recorrido un trecho en el escalafón burocrático. En la cúspide, sólo una élite logra los medios económicos necesarios, al precio de no cuestionar el sistema de la ciencia institucional. La masificación, la concentración y la condición de asalariados, con sus consecuencias: la desocupación, la pauperización y la frustración del desarrollo individual han transformado a los científicos en un sector social que tiene grandes contradicciones objetivas con la actual estructura. A estas características estructurales, debemos sumar: 1) la especial sensibilidad de las capas intelectuales ante los problemas sociales; 2) el paso por la universidad y el contacto con el movimiento estudiantil (donde se sufre la irracionalidad de los planes de estudio y se vive la lucha de las concepciones e intereses de todos los sectores sociales); 3) la etapa que estamos atravesando de crisis económica y social generalizada y de grandes movilizaciones obreras, estudiantiles, campesinas y populares, en todo el mundo. La combinación de estos factores es la que facilita el salto, relativamente rápido del cuestionamiento a la ciencia oficial, al cuestionamiento del sistema social en su conjunto, e impulsa la participación de amplios sectores de científicos en luchas frontales y abiertas (como el Mayo francés) y grandes movimientos de masas (como el pacifista estadounidense y mundial). Asimismo, y frecuentemente a caballo de esta participación, surgen importantes sindicatos y fuertes tendencias políticas, que defienden los intereses económicos y profesionales e impulsan la unidad de acción con los movimientos y organizaciones de otros sectores. La "torre de marfil" se derrumba y los trabajadores científicos se convierten en un sector social inquieto, activo, dinámico y organizado. La nueva situación de los científicos en la etapa "neocapitalista" se ve claramente en las grandes metrópolis,

pero se da, en forma más o menos distorsionada en todo el mundo, incluyendo (como veremos más adelante) a nuestro país, La respuesta social, gremial y política a esta nueva situación ofrece también características comunes.

III. LA CIENCIA EN ARGENTINA Qué refleja la ciencia argentina Todo lo visto anteriormente sobre ciencia y sociedad, se da con características específicas en nuestro país. También aquí hay un desarrollo científico-tecnológico impulsado por el neocapitalismo. Pero, lo que en los países metropolitanos es desarrollo, aquí se traduce en atraso; lo que allá es autonomía, aquí es dependencia. El atraso Este atraso se ve en cifras; el % del PBN per cápita destinado a investigación es del 0,3 % (EE.UU. 3 % ) ; a su vez ese PBN está prácticamente estancado (EE. UU. es unas 20 veces mayor). El número de investigadores es, también, incomparablemente menor. La distancia sideral que nos separa, en grado y en ritmo de desarrollo, se advierte también al echar un vistazo a la siutación de las instituciones encargadas del planeamiento y realización ele la actividad científica: ellas se sobreviven a sí mismas por la falta de fondos y por la distribución burocrática de los mismos. La dependencia La orientacin de la ciencia argentina responde, en última instancia, a las necesidades de los países metropolitanos. El control de éstos sobre la economía argentina y las presiones de todo tipo que ejercen sobre nuestra actividad científica se conocen ampliamente. Esto se concreta mediante los subsidios y la formación de investigadores en determinadas líneas de trabajo. El apoyo otorgado por los EE.UU. a los estudios sobre reproducción (control de la natalidad), a ciertas investigaciones agrarias y buena parte de la investigación bioméclica lo ejemplifica, ya que poco tienen que ver con nuestras necesidades en ciencia y técnica. La dependencia se advierte también en nuestra obli gación de adaptar patentes y no poder, en consecuencia, desarrollar la tecnología argentina más que de manera deformada. Esta dependencia de las metrópolis y de los monopolios neocapitalistas no será superada con la aplicación de la "transferencia". Pero para llegar a ésta recapitulemos un poco la historia de la ciencia argentina. Las cuatro etapas del desarrollo científico argentino El desarrollo histórico de la ciencia en la Argentina,,, no es lineal ni homogéneo. Se caracteriza por grandes quiebras, marchas y contramarchas, y la falta de una planificación general. Esto se debe a los grandes cam-

49


bios que han ocurrido en el conjunto del país, causados por desplazamientos de sectores sociales y modificaciones en los grupos gobernantes. Falta escribir, desde un punto de vista general, una historia de la ciencia argentina, que combine lo especifico de la ciencia con los aspectos sociales, económicos y políticos que la determinan. Nuestra intención es señalar el método con que esa historia debe ser estudiada: reconociendo cuatro grandes períodos en que se puede dividir la historia reciente del país y, consecuentemente, el desarrollo científico. Lo que sigue no es más que un primer intento de abordarla. Primera etapa: oligárquico-elitista La primera etapa, puede denominarse de la ciencia oligárquico-elitista, abarca desde la Organización Nacional hasta le Revolución del 43. Si bien en la Universidad hubo cambios notables —la Reforma del 18 (donde irrumpe la clase media y surge el profesionalismo), la intervención de Uriburu, etc.— ellos no se reflejaron en la actividad científica. En todo el período,_ ésta reflejó, por un lado, las necesidades de la ciencia básica de los países metropolitanos, y por el otro, las de los distintos sectores de la oligarquía agropecuaria e industria local. Este primer período se caracteriza por la extremada pobreza del desarrollo científico, limitada en el campo de la ciencia básica a las academias e institutos ultracerrados y en el terreno de las ciencias aplicadas a las necesidades de un desarrollo agrario e industrial totalmente controlado desde el exterior. En consecuencia la pobreza estuvo dada por las limitaciones estructurales del país y produjo un tipo de científico oligárquico, cuyo ejemplo más conocido es Houssay, quien a pesar de importantes hallazgos individuales, fue una traba para el avance de la ciencia en el país.

Nacional de Investigaciones Tecnológicas; en 1951 la Dirección Nacional de Investigaciones Científicas y Técnicas- en el mismo año, el Instituto Antartico Argentino''en 1954 CITEFA. Por otra parte, se hicieron intentos de investigaciones especiales en los campos de la enema atómica y la aeronáutica. Despojándolos de su utilización propagandística, estos reflejaron el intento de desarrollo autónomo nacional y sus limitaciones fueron dadas por la debilidad de la burguesía argentina. Por último, la transformación universitaria, también fue contradictoria. El inmenso hecho positivo estuvo dado por la masificación de la misma, a través de la supresión de las trabas para el ingreso y la irrupción masiva de una enorme población estudiantil surgida de estratos más populares. Pero se hizo sin modificar la vieja orientación profesionalista. En el gobierno universitario estaba el sector peronista (luego lonardista) más reaccionario. La masificación no alcanzó a repercutir en el terreno científico, justamente, por la orientación profesionalista: no se formaron científicos (no hubo diferencia importante en este plano con la etapa anterior). La etapa peronista, con sus contradicciones, con sus avances a medias, con su férreo control estatal —burocrático— de la actividad científica, significó el fracaso del intento de crear una ciencia nacional. Este_ fracaso obedeció a una causa externa, el cerco y boicot imperialista, y a una causa interna, la incapacidad de la burguesía nacional, para lograr un desarrollo independiente en todos los terrenos. El fracaso de esta experiencia constituye una lección de enorme actualidad, cuando las corrientes peronistas vuelven a replantear la necesidad de "una ciencia nacional" basada en los mismos sectores que ya han fracasado.

Segunda etapa: durante el peronismo La segunda etapa del desarrollo científico, es la del peronismo. Este período se caracterizó por tres elementos contradictorios: 1) el enorme retraso del nivel científico del país comparado con el de los países avanzados; 2) Por la continuación de la ciencia aplicada al servicio de la oligarquía agraria e industrial del período anterior, al que se agregaron las de la burguesía surgida en el peronismo con la sustitución de importaciones. Esto provocó el nacimiento de nuevos organismos dirigidos y controlados por el estado; 3) Por una profunda transformación social de la Universidad, con su masificación, que no alcanzó a repercutir en la ciencia, pero sentó las bases para ello. El abismo y el atraso científico del país comparado con los más avanzados, se debió a que en las metrópolis imperialistas comenzó en la post guerra la revolución científico-técnica del neocapitalismo. Argentina quedó al margen, aislada por el cerco económico y político que Estados Unidos tendió alrededor de nuestras fronteras (comparable al que ahora ejerce sobre Cuba) en su plan de colonización sobre el país, resistido por el gobierno peronista. En ese marco del atraso relativo, se fundó la Universidad Obrera (dependiente del Ministerio de Trabajo) que luego pasaría a ser la UTN; en 1950 la Dirección

50

Tercera etapa: desde la revolución de 1 9 5 5 hasta el gobierno de Onganía La tercera etapa del desarrollo científico, implica una modificación profunda. Esta comienza a partir de 1955 y se prolonga hasta la "noche de los bastones largos" en julio de 1966. El país todo, vivió una transformación provocada por el aluvión de capitales norteamericanos, que tuvo dos efectos: aseguró el control económico y político del país por el imperialismo yanqui y desarrolló las más modernas ramas de producción (neocapitalistas). Este proceso comenzó bajo la conducción de los gobiernos de Aramburu y Frondizi. El desarrollo económico provocado por el ingreso masivo de los capitales extranjeros, orientados a determinadas ramas productivas, causó una gran deformación en la economía nacional. Junto al enriquecimiento de los inversores norteamericanos y sus socios nativos, aumentó la explotación y empobrecimiento del pueblo trabajador (la distribución de la renta interna se desplazó brutalmente en su contra). Una de las consecuencias del control imperialista y del desarrollo neocapitalista, fue un enorme requerimiento de ciencia y tecnología. Fundamentalmente, el gobierno de Frondizi encaró esta nueva necesidad, mediante la transformación de la universidad argentina, en dos sentidos: orientándola hacia la investigación científica y formando un nuevo tipo de científicos especializados. Esta transformación que se vivió en todas las facultades del país y tuvo su reducto en la Facultad de Ciencias Exactas y Naturales de Buenos Aires, recibió


el nombre de "cientificismo". En este período, que es el que los jóvenes conocen más de cerca, se produjo la clasificación de los científicos. Fuera de la Universidad, que fue el pivote de la política en ciencia, se crearon o reestructuraron organismos estatales semiautónomos: el Instituto Balseiro, INTA, la Comisión de Investigaciones Científicas de la Provincia de Buenos Aires, el INTI, la actual CNEA, el CONICET, la Comisión Nacional de Investigaciones Espaciales, el IBM de Mar del Plata, el IRA. En el sector privado surge el Instituto Di Telia ampliamente subsidiado por la Fundación Ford. La característica general de los trabajos de investigación científica desarrollados en estos institutos, y del que se realizó en la Universidad, fue, salvo excepciones, su supeditación a los intereses del imperialismo norteamericano. Esto es válido, tanto para el caso del viejo sector oligárquico, cuyos trabajos en ciencia básica son aprovechados en la nueva metrópoli, como para el nuevo sector cientificista, que le reprocha su desvinculación con el país, aunque en el mejor de los casos trabaja en función de las necesidades de los grandes monopolios afincados en Argentina. Esta nueva estructura de la ciencia, al servicio del imperialismo y los requerimientos neocapitalistas, basada especialmente en la universidad, comienza a entrar en crisis: la producción de investigadores y ciencia es mucho mayor que los requerimientos y posibilidades de nuestro débil y relativo desarrollo neocapitalísta. Un ejemplo demostrativo es el ele los graduados en Física de la Facultad de Ciencias Exactas de la UNBA. Esa desigualdad provocó los primeros intentos restrictivos de la conducción universitaria, lo que lo llevó al rompimiento de hecho del frente común que el profesorado cientificista había logrado establecer con el movimiento estudiantil, para enfrentar a las viejas trenzas profesionales y oligárquicas. La crisis de la universidad cientificista y la anemia de los institutos semiautónomos, la imposibilidad de aplicación de los descubrimientos y la utilización de la ciencia básica argentina por Estados Unidos configuran el cuadro del fracaso rotundo del intento de desarrollo científico bajo la tutela y guía del imperialismo. Cuarta etapa t en la actualidad Por fin, el gobierno de Onganía, inaugura, en 1966, la etapa actual de la ciencia argentina. En ella se viven varios cambios y procesos de significación. El primero, es la quiebra del bastión cientificista de la Universidad, por medio de la brutal intervención a la misma, que liquidó, con el éxodo de profesores y científicos, su aparato de investigación. El segundo, es la semiparálisis por ahogo económico de varios institutos desarrollados en etapas anteriores: el CONICET, el INTA, el INTI, recientemente la CNEA. El tercero es la realización de "Investigación y Desarrollo" por Fate, el afianzamiento de la Fundación Bariloche. Además, la creación, portel Estado, de la Comisión Nacional de Estudios Geo-Heliofísicos y del CONACYT, para el planeamiento del desarrollo científico-tecnológico. Estos nuevos organismos, privados y estatales se caracterizan por impulsar activamente la teoría de la "transferencia'. Pero tampoco estos últimos sectores escapan a la crisis general, por eso es posible la disolución de la

CNEGH, el CONACYT es absorbido en otro organismo. La Universidad La intervención a la Universidad por el onganiato, se debió a su necesidad de aplastar las luchas reivindicativas a todos los niveles, para poder consolidar su régimen militar. No estuvo en sus planes modificar la orientación universitaria sobre formación de científicos, pero de hecho destruyó el trabajo de investigación que se desarrollaba en la Universidad, al imponer el autoritarismo y prohibir hasta el vestigio de una ficción democrática en ella. Si bien en estos momentos la Universidad vive el retroceso de esta política su situación crítica no ha cambiado, y por el contrario se sobrevive a sí misma. Como vimos anteriormente, la Universidad argentina no es una isla separada de la realidad nacional, sino que está sumergida en un país capitalista y dependiente. La Universidad tiene una doble función como institución: por una parte abastece de profesionales e investigadores y por otro encara los problemas del desarrollo cultural, científico y técnico. En especial debido a la crisis económica nacional no puede cumplir esos roles adecuadamente. Los distintos sectores de las clases dominantes se disputan permanentemente su dirección en función de sus necesidades. Este es el marco en que docentes, investigadores y estudiantes viven cada uno desde su sector problemas de origen común. Las graves deficiencias pedagógicas, la exclusión de importantes corrientes de pensamiento, la limitación, la imposibilidad de acceder a sus aulas son problemas de todos los días. La discriminación ideológica y política, los planes de investigación anárquicos y divorciados de las necesidades de la población; la falta de becas y remuneraciones adecuadas, la desprofesionalización y reestructuración de las carreras, se añaden a los anteriores. Esta simple enumeración nos muestra el grado de deterioro de la investigación científica y la docencia universitaria. La política universitaria de la "Revolución Argentina" fue, en líneas generales, un producto de su objetivo esencial: garantizar el orden y la paz social, para reactivar la economía al servicio de todos los sectores privilegiados. Conseguido durante tres años este propósito, se volvió a producir en el país una irrupción de capitales extranjeros, que agudizaron nuestra dependencia y provocaron un mayor desarrollo de las ramas neocapitalistas, aumentando la distorsión y las desigualdades de nuestra economía. La transferencia Esta no es otra cosa que el aumento del control utilitario de las principales ramas de la industria moderna sobre el desarrollo de la ciencia y la técnica. La tan mentada "transferencia" es una necesidad de los países metropolitanos, en especial EE.UU., de aumentar la efectividad del aparato productor de ciencia y tecnología, en función directa del Estado y las empresas monopolistas. El gobierno, las Fuerzas Armadas, las empresas privadas o sus fundaciones y, en gran medida, la Universidad de dichos países, encaran cómo optimizar la investigación y el desarrollo, cómo racionali-

51


zar el planeamiento y la organización de la producción gados a hacerlo en las condiciones arbitrarias q U e fij a S u científico-tecnológica. Con claridad surge que "transfe- empleador, al mismo tiempo que su salario se deteriora rencia" significa acoplar ciencia básica y aplicada con día a día junto al del resto de la población. Todos sabe mos, además, que los problemas no acaban en los sal " desarrollo y producción industrial neocapitalista. Esto significa, ni más ni menos, que la ciencia, la ríos. Prácticamente en todos los centros de trabajo s"£ tecnología, el conocimiento, deben producirse (con alta da la discriminación ideológica, la falta de democraci eficiencia) como una mercancía al servicio de las nece- inestabilidad, el verticalismo, la proliferación de tren sidades de los grandes monopolios, las empresas más zas, la digitación de los concursos. Un párrafo apart"6 concentradas, el estado neocapitalista, y no teniendo merecen los planes —o no-planes— de investigación como destino las necesidades de la población y el país. En general se trata de afiebradas elucubraciones des ' En nuestro país, el neocapitalismo •—que en el onga- rrollistas, muchas veces incoherentes y, como dijimrf" niato alcanzó un auge de relativa importancia —empe- al servicio de los privilegios de la gran burguesía Üí zó a plantear desde hace dos años la "transferencia" imperialismo. como solución a nuestros problemas de falta de desarrollo económico y de atraso científico de la misma forma que en la etapa anterior hablaba de "ciencia aplicada". La "salida individual", un privilegio Pero la situación actual es de aguda crisis, que no es El desquicio de la investigación científica, p o r falta sino parte de la gran crisis económica del país. Es en de planes coherentes, presupuesto, promoción es tan este marco de descalabro económico que se inscriben grande, que la "salida individual" de hacer ciencia a las permanentes pujas de los distintos sectores burguebuen nivel, por un bajo salario, y sin chistar, sólo está ses por el control de la ciencia. al alcance de unos pocos "privilegiados". El problema Del resultado de esta puja dependerá el impulso que es aún más agudo para los jóvenes. Faltan pu reciba la política transferencista o sus equivalentes. becas, quiénes formen y guien a los r e c i é n a r a d i ^ f 0 8 ' ios, y El neocapitalismo, al desarrollar desigualmente la muchos se ven obligados a aceptar trabajos que tienen economía, aumenta las contradicciones y las luchas inpoco que ver con sus intereses, y aun con su profesión11 ternas. El imperialismo no fue ni es una solución para Algunos optan por viajar al exterior a formarse Enton" el país: la "transferencia" no lo será para la ciencia ees, por contraste, las dificultades se hacen más' eviden" argentina. tes, y muchas veces no se encuentran posibilidades La visión de estas etapas históricas del desarrollo utilizar lo aprendido en el exterior. La falta de cio 0D científico argentino nos trae hasta su crisis actual. En nes locales mantiene a los _ viajeros permanentemente ninguna etapa se solucionó el problema básico de tener unidos a los centros extranjeros, desarrollando t una política científica al servicio del pueblo y del desa- tando de desarrollar, algo de los "grandes temas" ^ rrollo independiente y armónico del país. Ni la etapa allí se investigan. que hemos llamado oligárquico-elitista, ni el peronismo, ni el cientificismo, ni la "transferencia", han intentado encarar y solucionar los problemas del país desde el El surgimiento de las primeras agremiaciones ángulo de las mayorías necesitadas, sino desde el de distintas minorías de privilegiados. Todos estos problemas impulsaron, también en núes Este fracaso, que agota lo que no se puede volver a tro medio, el surgimiento de luchas reivindicativas repetir en el país debe ser la antesala de lo nuevo. Los . La historia reciente de la defensa de los trabajadores científicos debemos empezar a tomar parte activa en la científicos se inicia en 1969, cuando, en el marco d 1 formulación de una verdadera política científica nacional, obrera y popular, impulsándola conjuntamente con ¿ í „ . í . i 1 . , 5 ! 1 ' ! ' „ ! e . . í 0 d g . r a n . a v ance d e k s los organismos representativos de los sectores explo- luchas populares, que a su vez se revirtió sobre la crisis acelerándola. Junto a otros sectores medios de la tados. blación comenzaron a tomar conciencia de su condicFón "Veamos ahora, la situación de los investigadores cienH p explotados. PYnlntciHns T lphlHn o n f » la l o mayoría de 1 < de Debido a nque los orsank " tíficos v los docentes universitarios en la actualidad. mos de investigación y docencia, carecían de una mí nima organización gremial, éste fue el p r i m e r objetivo que comenzo a desarrollarse. Como resultado d proceso tenemos, entre otras, el surgimiento de I a f T guientes agremiaciones: u

IV. LOS INVESTIGADORES Y DOCENTES EN ARGENTINA

Hemos visto cómo el desarrollo del neocapitalismo fue despojando a los científicos de sus privilegios y transformándolos en un sector asalariado más. Hemos visto también cómo este proceso se da con distorsiones y retraso en nuestro país. A continuación intentaremos analizar nuestra situación y las soluciones que podemos encarar. '""i'.Pj Vimos cómo la actividad de docentes, científicos y técnicos está puesta al servicio de las clases dominantes y el imperialismo. Al trabajar por su salario, se ven obli-

52

u

Asociación del Personal Docente de l a F i r n l t ^ \ i Ciencias Exactas y Naturales (UNBA)- Asnr-i T Docentes Auxiliares de la Facultad de k r S ? 0 n• química (UNBA); Asociación de Docentes e Tn Y dores del Museo (La Plata); en C d S b ? tades y el IMAF tienen sus asociaciones prcminL. T ya tiene personena gremial mientras que la Asociación de Profesion les ha decidido solicitarla La Asociación , de Miembros de la Carrera de Investigador Científico del CONICFT La Asociación de Investigadores de l a CNEGH y la del' Personal Técnico del mismo instituto La agremiación del personal no profesional del INTA Castelar en la Asociación de Trabajadores del Fst 1


mientras que los profesionales lo hacían en la Asociación del Personal del INTA. Todas estas asociaciones, de desigual dinamismo, representatividad y combatividad, son el resultado del mismo proceso: el deterioro creciente de la situación de quienes trabajan en las respectivas instituciones y la situación general del país. El surgimiento de las tendencias políticas Paralelamente al surgimiento de organizaciones gremiales y como producto de los mismos fenómenos generales del aumento de las tensiones sociales se da el despertar político creciente de amplios sectores de trabajadores científicos. Esta politización adopta distintas expresiones, que van desde las charlas individuales a la hora del café, hasta la adopción de medidas de conjunto (como en el caso del IAR), pasando por las expresiones individuales (como la de Varsavsky en "Ciencia, Política y Cientificismo") y el surgimiento de distintas tendencias políticas que se proponen actuar en nuestro medio. Aparecen entonces el TRACEN, FATRAC, Avanzada de Córdoba, y el grupo que redactó este documentos, entre otros. A ello se suma el interés que despertó la Mesa Redonda y las conferencias organizadas por Ciencia Nueva sobre las posibilidades de desarrollo científico en Argentina; los cursos, charlas y mesas redondas realizadas en varios centros de investigación. No debemos olvidar también, que en otros sectores de la intelectualidad se dan procesos de discusión y cambio (las discusiones en la APA y las elecciones en el CAI, etc.). En los distintos centros de trabajo la actividad política y sindical tienen distinta importancia, se combina, se alternan, dependiendo de la coyuntura concreta. Toda esta discusión sacude la antigua quietud de los laboratorios, y aún de las reuniones científicas como ocurrió en la última reunión de la Asociación Física Argentina, en la que todo el mundo se embarcó en la discusión del significado de la actividad científica en nuestro país y sus implicaciones políticas. En suma, en todas las actividades científicas del país se dan los siguientes problemas generales, y éstas son nuestras propuestas para superarlos: 1) Acentuado deterioro de los salarios, combinado con la falta de presupuesto, becas y promoción. Debemos exigir, organizados, un aumento sustancial del presupuesto nacional de ciencia y técnica sobre la base de impuestos a las grandes empresas y reducción del_ presupuesto militar; que el monto de las becas equipare el nivel correspondiente al escalafón y se liquiden los sistemas de contratos, escalafonando a los actuales contratados. 2) Irracionalidad de los planes y contraplanes y su orientación al servicio del imperialismo y las clases dominantes, todo lo cual se traduce en inestabilidad, desocupación, frustración e incapacidad absoluta de determinar a quién beneficia nuestro trabajo. Por ello debemos luchar por nuestra participación en el planeamiento de la ciencia y la técnica y oponer a los planes oficiales un plan al servicio del pueblo trabajador y el desarrollo independiente del país.

3) Clara tendencia a la discriminación política e ideológica, con ingerencia de los "organismos de seguridad". Proliferación de trenzas y digitación o falta de concursos. Las organizaciones gremiales deben luchar contra todas estas expresiones de la represión y por su control de la incorporación del personal, a la vez que deben denunciar las trenzas y digitaciones. 4) Gran restricción de la libre expresión política individual y grupal y del accionar gremial de los investigadores. Debemos exigir la más amplia libertad de expresión y organización gremial y política de todos los centros de producción científica. Hay que tener muy claro que todos estos problemas no son un capricho de la historia, sino un reflejo de la política de quienes hoy detentan el poder, y que sólo podrán ser definitivamente resueltos, Y muchos (en realidad sólo en este marco algunas de nuestras propuestas no son peligrosas fantasías) cuando el pueblo, guiado por la clase trabajadora se adueñe del poder y conduzca al país por la vía del socialismo. Cómo incorporar a los trabajadores científicos a ese proceso debe ser nuestra preocupación permanente, y nuestro objetivo general fundamental.

V. DE LAS RECLAMACIONES AISLADAS A UNA LUCHA GREMIAL Y POLITICA Quiénes impulsan la actual sindicalización y actividad política El motor de los movimientos gremiales y políticos actuales es un grupo heterogéneo de jóvenes técnicos, profesionales, becarios, contratados o escalafonados, que reaccionan ante la crisis general de la ciencia argentina. Algunos de ellos tienen un pasado de actividad gremial o política en el movimiento estudiantil, pero muchos despiertan por primera vez a la necesidad de afrontar esa responsabilidad. Lo común a todos —y en esto nos incluimos— es que surgimos de la defensa de nuestras reivindicaciones y lo hacemos en forma aislada. Por lo tanto, creemos que no hay tarea más urgente que nuclearnos para discutir en común la forma de lograrla, superando nuestra dispersión, cambiando experiencias y tomando conciencia de que, objetivamente, formamos parte de un proceso general que se da no sólo en la esfera de la ciencia, sino en el plano económico, social y político del país. Las tareas inmediatas Al nuclearnos debemos empezar por dar respuesta a los problemas de nuestros lugares de trabajo, que tienen un común denominador: el deterioro constante de la actividad científica y de las condiciones de trabajo; al mismo tiempo nuestro organismo gremial suele ser incipiente, débil; en otros casos no nos representa democráticamente, o aún no existe. Esta situación, unida a las conocidas persecuciones, nos obliga muchas veces

53


a desarrollar una actividad gremial sumamente cuidadosa, a veces no pública. Debemos discutir entonces, cómo, a pesar de los peligros, impulsamos la agremiación a través de actividades diversas: la firma de un petitorio, la difusión de propaganda, encuestas, la realización de asambleas, la elección de delegados, etc.; cómo encarar multitud de dudas: si conviene adherirnos a organismos existentes o promover nuevos; la forma de actuar conjuntamente con otros sectores frente a cuestiones concretas (los estudiantes y los no docentes de la Universidad, o al personal de maestranza de algún instituto). Este nucleamiento conducirá, probablemente, a la fusión y masificación de los últimos embriones gremiales actuales. Igualmente urgente es impulsar y dar coherencia a la creciente actividad política que se desarrolla en distintos centros de investigación. Debemos promover la discusión de los problemas políticos del país, del significado de nuestra actividad, del papel que nos cabe como aliados de la clase obrera. Contra la sindicalización de los científicos distintas objeciones

se levantan

Entre las más importantes encontramos la de los que consideran que los científicos como sector organizado, no pueden hacer nada, y se deben limitar a una actuación individual o de pequeños grupos, restringida al apoyo de tal o cual solución que vendrá, exclusivamente, desde fuera del campo de los científicos y docentes. Quienes así opinan, responden a concepciones dispares, pero a todos los caracteriza el hecho de no comprender —o no tomar en cuenta— el nuevo fenómeno de la transformación social de los científicos en una capa de trabajadores que, como tal, debe hacerse oír. Al no ver el tremendo valor de una agremiación masiva, no dan respuesta adecuada al desarrollo de la sindicalización que se está dando, Una duda que pueden formularse quienes están dispuestos a trabajar por un organismo sindical, es si éste no caerá en la misma deformación a que han llegado otras asociaciones de trabajadores. Concretamente, si la combinación de la política estatal con la existencia de sectores privilegiados no provocará el surgimiento de una capa burocrática, que maneje a su antojo nuestros intereses, negociándolos con los gobiernos de turno. Frente al peligro de una deformación burocrática que impida al organismo gremial cumplir su cometido debemos desde ahora agruparnos todos los que queremos que la democracia y la lucha conjunta con el resto de los trabajadores convierta al sindicato de científicos en una herramienta al servicio de una perspectiva socialista.

Bases programáticas para los científicos, técnicos y docentes universitarios El agrupamiento de los científicos que promueven los movimientos reivindicativos, debe hacerse sobre sólidas bases programáticas, surgidas de un intercambio de experiencias, ideas y aspiraciones. Los siguientes puntos deben ser tomados como una primera aproximación y no como un modelo acabado. Consideramos que sólo un adecuado intercambio podrá establecer con mayor certeza cuáles son nuestras prioridades y el camino para obtenerlas.

54

1) Contra el verticalismo, la digitación y la discriminación ideológica. Por un régimen democrático de promociones y becas en base a concursos por capacidad y antecedentes, controlados por los organismos gremiales de los trabajadores científicos y docentes. Por un salario y una previsión social adecuados. Por la superación del régimen de contrato, asegurando el escalafonamiento de los actuales contratados. Por la equiparación del monto de las becas a los niveles correspondientes del escalafón. Contra la desocupación y el éxodo. 2) Por el desarrollo del actual proceso de agremiación de los científicos, profesionales, técnicos y docentes del país hacia un sindicato único y masivo que defienda sistemáticamente los intereses profesionales y garantice nuestra participación en todo lo que tenga que ver con la ciencia a sus distintos niveles (planificación, ejecución, etc.) y que establezca vías de comunicación y acciones comunes con los sectores sociales y organismos afines (movimiento obrero, estudiantil y popular). Por el funcionamiento plenamente democrático del sindicato de científicos. 3) por la formulación de un plan científico nacional al servicio del pueblo y del desarrollo independiente del país, comenzando desde la Universidad con el establecimiento de la democracia universitaria. Que el plan sea discutido e impulsado en luchas conjuntas con el movimiento estudiantil y el movimiento obrero y su aplicación sea controlada por ellos y las organizaciones de científicos. Este es un punto indicativo de enorme importancia. No podemos formularlo más explícitamente porque ni el movimiento obrero, ni el estudiantil, ni los científicos, poseemos aún los organismos idóneos —por reptesentatividad, democracia interna, capaces de discutir e imponer un plan de esta naturaleza que requiere, en realidad, una profunda transformación del país. 4) Por el agrupamiento en tendencias de los sectores que actualmente encabezan las luchas reivindicativas, para impulsar los tres puntos anteriores y para defender dentro de los organismos gremiales de investigadores científicos, técnicos y docentes universitarios, los intereses de la liberación nacional y social del país. Estas tendencias deberán combinar la actividad sindical con la propagandística, dando así cauce a la preocupación política creciente. La experiencia actual es que la actividad sindical y la actividad o inquietud política general se combinan y alternan en los distintos centros de investigación, dependiendo de la situación concreta de trabajo, de la situación política del país, de la mayor o menor combatividad de la clase obrera. La actividad política en los centros de investigación puede ir de la propagandización de cualquier problema concreto, la lucha activa contra la represión y las torturas, la discusión de los grandes problemas políticos del país y de Latinoamérica, la solidaridad concreta con distintos sectores obreros y populares en lucha, etc. En toda la actividad política o sindical que llevamos adelante debemos tener siempre presente que nuestra meta es incorporar a sectores crecientes de técnicos, investigadores y demás personal como aliados de la clase obrera en la lucha por la liberación nacional y social. O


LO M A S NUEVO EN ELECTRONICA La línea VISOLUX de control es para la in dustria... • • • •

Controles fotoeléctricos, inductivos, ultrasónicos Contadores fotoeléctricos con preselección Microdetectores Equipos que permiten: control de cintas transportadoras, inspección de calidad, distribución de clase, detección de fallas... /

Contador fotoelectrónxco con proseleccioiiaclor PEZ 1-5

ilHH

1


Libros nuevos

Teoría y problemas de circuitos electrónicos Edwin C. Lowenberg, Pli. D. Traducción (leí original inglés: Carlos Martínez Mejía Editorial McGraw Hill Colombia, 1971, 2 7 1 páginas

Sumario: 1. Introducción. 2. Dispositivos electrónicos de control de dos terminales. 3. Aplicaciones del diodo. 4. Redes generales con cuatro terminales. 5. Dispositivos de cuatro terminales, I. 6. Dispositivos de cuatro t rminales, II. 7. Amplificadores lineales. 8. Otros aspectos de los amplificadores e l e c t r ó n i c o s . Apéndice A. Notación y símbolos de los tubos de vacío. Apéndice B. Notación y símbolos para transistores. Respuestas a los problemas propuestos. Indice.

Sobre la historia las ciencias

de

Michel Fichan t - Michel Pécheux Siglo XXI Argentina Editores S. A. Traducción del original francés: Delia Karsz Esquibel. Buenos Aires, 1971, 157 páginas.

Sumario: Advertencia. Definiciones. Michel Pécheux, Ideología e historia de las ciencias. Los efectos de la ruptura galileana. Anexo. Michel Fichant, Idea de una historia de las ciencias. 1. El problema de la historia de las ciencias. Nota de Galileo a Duhem, 2, Idea de una historia de las ciencias. El concepto de recutrencia. 3. Empleo del concepto de recurrencia. Análisis de un ejemplo. Apéndices. A. Bailly, Historia de la astronomía antigua. Prefacio (frag-

56

mentó). B. Comte, Historia de las ciencias y orden histórico. C. Bachelard, Actualidad de la historia de las ciencias (fragmento). D. Bachelard, La ilusión del continuismo. E. Cavaillés, Sobre la historia de las matemáticas. F. Dedekind, Cartas a Lipschitz (fragmento).

Psicología social y educación Cari W. Backman, Paul F. Secord Traducción del original inglés: Inés Pardal Editorial Paidós Buenos Aires, 1971, 237 páginas

Sumario: Introducción. El sistema social. Cultura. Personalidad. 1. El proceso de socialización del preescolar. Educación y clase social. La familia y el rendimiento educacional. Corolarios para el aula. 2. Aptitudes y personalidad del alumno. Inteligencia, capacidad y rendimiento educacional. Hábitos de estudio, actitudes e intereses. La motivación de rendimiento. Ansiedad. Otros rasgos de la personalidad. El concepto de sí mismo y el rendimiento educacional. Corolarios para el aula. 3. El ambiente escolar. El ambiente de aprendizaje en las escuelas secundarias y en la universidad. Un "college" privado en Nueva Inglaterra para jóvenes de sexo femenino. Una universidad mixta de un Estado del sur de E.U.A. Consecuencias de los diversos climas institucionales. Origen de las diferencias entre los climas del "campus". Efectos de la estructura social de la institución. Pro-

cesos de influencia sobre la interacción. Corolarios para el aula. 4. Pautas de rendimiento divergentes. El estudiante considerado individualmente. Características de la escuela y rendimiento educacional. Agrupamientos por capacidad y agrupamientos homogéneos. Rumbos divergentes. Expectativas de empleo inmediato o de mayor formación universitaria. Corolarios para el aula. 5. Los efectos de la interacción en el aula. La estructura subinstitucional. Los procesos que se desarrollan en el aula. Corolarios para el aula. 6. El rol del maestro. Variables del sistema social y tensión de rol. Variables culturales y tensión de rol. Personalidad y tensión de rol. Procesos que conducen la tensión de rol. Desempeño del rol y resolución de la tensión de rol. Corolarios para él aula. Bibliografía en castellano.

Evolución y modificación de la conducta Konrad Lorenz Traducción del original inglés: Carlos Techard Siglo XXI Editores S. A. México, 1971, 1A páginas

Sumario: 1. Introducción. 2. Actitudes teóricas frente al concepto de lo "innato". 3. Crítica del primer argumento conductista. 4. Crítica del segundo argumento conductista. 5. Crítica de la actitud de los etólogos modernos. 6, Crítica de la actitud de los antiguos etólogos. 7. El valor y las limitaciones del experimento de privación, 8. Resumen. Referencias. Tndice analítico.


Comentarios de libros

Therapeia. La medicina popular en el mundo clásico Luí» Gil Ediciones Guadarrama. Madrid, 1970, 5 5 8 páginas, 63 ilustraciones.

La frase inicial de esta obra: "El tema que vamos a tratar es una especie de tierra de nadie entre la historia de la medicina y la filosofía clásica", muestra un claro signo de modernidad al poner de relieve su carácter interdisciplinario. Hace unos decenios tal combinación interdisciplinaria no hubiera sido posible si se piensa en la rivalidad, a veces hasta hostilidad, existente entonces en el mundo académico entre los filólogos y los médicos y naturalistas. Por suerte, tal estado de cosas se va superando en favor de una concepción más unitaria del saber y de sus conexiones, más allá de arbitrarias distinciones y rutinarias clasificaciones. En cierto sentido, este libro rompe también con otra noción rutinaria o tradicional: la idealización del mundo griego al no ver en él sino sus figuras de alta jerarquía intelectual o artística; ya que el análisis de su medicina popular revela en ese pueblo notas comunes con las de todos los pueblos primitivos. Claro es que, occidentales como somos, no podemos olvidar la deuda griega y repetimos con el profesor Laín Entralgo en su elogiosa Presentación: "Bien. Todo esto era necesario, porque de otro modo no podríamos comprender en su integridad el mundo helénico, pero no menos necesario es pensar que Homero, Píndaro, Fidias, Esquilo, Pe-

ricles, Sócrates, Platón y Aristóteles fueron griegos antiguos, y no tasmanios, bosquimanos o yakutos". Y aunque esta obra es esencialmente el fruto de una investigación histórico-filológica o, si se quiere, de historia social, no deja de ser un aporte original el de haber puesto al desnudo caracteres del mundo clásico o en especial del griego, que el deslumbrante brillo de la cultura helénica oscurecían o dejaban en la penumbra. Algo semejante ocurrió cuando se advirtió que, en buena medida, los frutos de aquella cultura provenían de una rígida división de clases de una sociedad esclavista. El profesor de filología clásica de la Universidad de Madrid, Luis Gil, ha engarzado en este libro su saber filológico con los elementos que le proporcionaron la historia de la medicina, la etnografía y la antropología, para ofrecer un exhaustivo análisis de lo que denomina "medicina popular" en el mundo clásico. En ese análisis la medicina se concibe como una ineludible institución social que incluye la medicina técnica o científica, nuestra medicina, que precisamente verá su nacimiento en ese mundo hacia los siglos V y IV a.C.; mas también esa otra medicina, la medicina popular, que precedió a aquélla, coexistió con ella y aún vive, en la cual el enfermo, la enfermedad y el médico componen un curioso contexto de ritos, mitos, creencias y supersticiones con intervención de dioses y astros, y donde actúa una variada mezcla de magos y adivinos, exorcistas y astrólogos, manos santas y curadores de toda clase.

los textos el profesor Gil expone el desarrollo de esa medicina mágica, ya en lo concerniente a la índole de la enfermedad: tipo de contacto o de contagio, mancillas o transferencias; o a la naturaleza de sus causas: posesión demoníaca, culpa o castigo; ya en lo relativo a las distintas terapéuticas empleadas: ritos purificatorios o expulsatorios, pociones mágicas, curación por la palabra o por la música, la típica curación del mundo griego en los templos de Asclepio (el Esculapio de los latinos) con su característico sueño sagrado. Un capítulo final está dedicado a la medicina astrológica en sus variados aspectos: la asignación de las partes del cuerpo humano y por tanto de sus afecciones, a los distintos astros; el empleo de los horóscopos para el diagnóstico de las enfermedades; y otros ya que, como termina Gil: "En el amplio cauce de la astrología confluyeron todas las vertientes de la medicina popular, todas las supersticiones y extravagancias del espíritu humano". El centenar de páginas finale comprende las numerosas notas v cinco índices: de autores antiguos, de autores modernos, onomástico, analítico y de ilustraciones. Para terminar creemos interesante señalar una coincidencia editorial: con igual lugar y fecha de edición (Madrid, 1970) la Revista de Occidente ha publicado un excelente libro del profesor Laín Entralgo, también de la Universidad de Madrid, con el título La medicina hipocrática, que sin ser el reverso del libro del profesor Gil, analiza los numerosos y nada fáciles problemas que plantean los escritos médicos de los Mediante un detenido análisis de siglos V y IV a.C., que señalan el

57


nacimiento de la medicina científica: sus orígenes y conexiones, el papel que le tocó desempeñar, si es que hubo alguno, al célebre médico Hipócrates de Cos o a su escuela; en qué sentido puede hablarse de un hipocratismo con respecto a la medicina griega o a la actual, etc. En cierto modo ambos libros se complementan, al ofrecer una completa y equilibrada noción del significado que el mundo helénico atribuyó al médico, al enfermo y a la enfermedad. Por otra parte, ambos libros proporcionan un buen ejemplo del grado de madurez de la historia de Ja medicina, o mejor de la historia de la ciencia, de hoy que, lejos de ser una mera aplicación o apéndice de las ciencias particulares, constituye una rama específica dei saber humano con rasgos interdisciplinarios, como lo comprueba el libro que comentamos, y finalidad y métodos propios. J. B.

Biología Revista trimestral Dirección: Emilio Villarino Editorial Seientia S. C. Calle 39, N" 9 4 1 , La Plata

Una nueva revista acaba de aparecer en La Plata, provincia de Buenos Aires, para sumarse al reducido grupo de publicaciones nacionales dedicadas sin concesiones al quehacer científico, en este caso específicamente dirigida al área biológica. Buena presentación y buen nivel hay en este primer número que ofrece, preferentemente, trabajos de profesionales de la Universidad de La Plata. El sumario —una equilibrada selección— ilustra acerca de los objetivos que se propusieron sus editores: Sumario: Raúl A. Ringuelet, La conservación de la fauna-, Silvia Morales Gorleri de Tribiño, Joseph de Acosta: Primer antropólogo de América; Néstor O. Bianchi, Genética-, C. Ponnamperuma y H . P. Klein, La búsqueda de vida en Marte-, J. M. Echave Llanos, El Instituto de embriología, biología e histología de la U.N. de La Plata-, Entrevista a Gabriel Favelukes; Entrevista a Luis M. Aristizábal, La Estación de Cría de Animales Salvajes-, Novedades en la ciencia, Reuniones científicas, Libros.

58

Ciencia y política en América latina Amílcar O. Herrera Siglo Veintiuno Editores S>. A. México, 1971, 206 páginas

El enfoque que se realiza en este libro de los distintos aspectos que están involucrados en la existencia real de la actividad científica de nuestro continente es relativamente completo. Y el mismo tiene un mérito fundamental: el autor se mueve con forma casi permanente a nivel de los problemas de la estructura y la planificación científica, subrayando y categorizando el sistema de producción científica como algo totalmente distinto que la suma de las voluntades de los agentes de esa producción. / Con ello evita deslizarse en lo que es tan frecuente en los análisis sobre la actividad científica que se escuchan en vastos sectores de los círculos científicos y tecnocráticos de nuestro país, análisis que en el momento de las proposiciones caen en los llamamientos personalizantes, dirigidos a cada uno de los trabajadores del campo de la ciencia, a quienes muchas veces se insta a dar su aporte a la solución del estancamiento económico y científico a través de la cuidadosa elección de los temas de investigación. Esos anáfisis, justamente por ese tipo de 11amamentos, aparentan entroncarse en concepciones individualistas vigentes en los medios universitarios en particular en la fase 1955-1966, concepciones que tratan de actualizarse agregando a sus proposiciones esenciales el reconocimiento de la necesidad de un cambio de estructuras para que todo mejore, o sino adhieren con una mirada hacia el pasado inmediato anterior para convalidar cualquier decisión a través de una justificación mesiánica que no tiene en cuenta intereses de sectores en total contraposición. Herrera se diferencia con una conceptualización de un tipo técnico que nos hace desear que los editores dieran alguna información curricular para el entendimiento del proceso genético de su pensamiento. Herrera traza una radiografía bastante concreta de la realidad latinoamericana a nivel de la producción científico-técnica actual, sus problemas, el proceso de su desarrollo, etc., si bien hay algunos elementos de fondo, que no son profundiza-

dos lo suficiente, como por ejemplo la diferenciación que se plantea entre empresariado industrial y clases oligárquicas tradicionales. La figura retórica utilizada más arriba, "radiografía", adquiere en relación con su libro un empleo más preciso. El libro nos muestra con trazos quizás demasiado simples, dicha realidad. El relleno o el resto del organismo analizado, América latina, se ve como sombras con contornos difusos y generales agregados a un esqueleto numérico que se extiende en un cierto número de conceptos no suficientemente explícitos o fundados. Sin embargo la descripción en cifras es impactante si sabemos llenar con un poco de visión general el cuadro total radiografiado. Por ejemplo: el personal científico y técnico de América latina es de un orden de 1/6-1/3 del de los países eufemísticamente designados como desarrollados, absolutizadas las cantidades de estos agentes en relación con las respectivas poblaciones activas (cuadro 7, pág. 34). Por otra parte, la inversión de Producto Bruto Nacional en la actividad científico-técnica es de 1/15-1/5 (cuadro 1, pág. 26). La comparación de esos datos sugiere quizás la conclusión que América latina tiene más trabajadores en este área que los fondos disponibles justifica. O, cómo plantea el autor en la pág. 182, sorprendentemente, que lo que debe pasar es que la productividad por persona ocupada es muy baja. Y por el contrario, la mejor aproximación sería si se plantea la primer conclusión al revés, es decir, que América latina tiene personal científico-técnico al que no se le dan los medios necesarios para trabajar. Y esto Herrera lo plantea en otros partes de su libro, pues conoce seguramente las movilizaciones de científicos y técnicos, por lo pronto de nuestro país en pro de un mayor presupuesto, pero en la cita mencionada todo esto desaparece bajo la esquelética palabra productividad. Otra reflexión que nos suscita estos datos es que la producción científica juega un rol secundario en cuanto a la importancia de sus resultados para las necesidades del aparato económico pues si no fuera así probablemente se darían mejores posibilidades materiales de trabajo, y que es por razones de imagen publicitaria que se multiplican los organismos como Conicet, Conacyt, Conade, cuando no se dan esos me-


dxos q u e s o n p u e s t o s e n áreas d e e l u d o su importancia.

• H e r r e r a es conciente de ese carácter radiográfico de su libro. En el prólogo llama la atención sobre el hecho que el caso cubano no es tratado por falta de datos completos, a pesar de lo excepcional que resulta la situación de ese país que gasta, e n la actividad científico-técnica u n porcentaje seis veces mayor de s u P r o d u c t o Bruto Nacional que países nías "desarrollados" de América L a t i n a tales como Argentina, M é x i c o y Brasil. Pero queda poco claro c u á l es el grado de esa conciencia cuando plantea que "algunos países pueden dar prioridad absoluta a los sectores de salud y educación por razones sociales en el s e n t i d o a m p l i o . . . " mientras que para " o t r o s , el problema principal p u e d e ser el estrangulamiento.. . provocado por una balanza de pagos desfavorable...". Si llenamos esta alternativa con ejemplos concretos, utilizando esa visión general que es necesaria para leer el libro, nos encontramos que el primer caso es muy p r o b a b l e m e n t e el de los países que i n i c i a n u n proceso socialista, privileg i a n d o la finalidad social de distrib u c i ó n de la riqueza en la estructur a c i ó n d e la actividad del país, mientras que en los otros casos se trata d e estructuras que preconizan consideraciones mercantilistas en sus diversas variedades. Y esta diferencia n o es secundaria, ni mucho menos.

Estas sobresimplificaciones son la debilidad sustancial del libro, que se nota, fundamentalmente, cuando entra en el terreno de las proposiciones. Estas son hechas considerando que los Estados son Estados, los Gobiernos sencillamente Gobiernos, los investigadores y el personal técnico simplemente eso. Casi títulos de recopilación de datos e informaciones. Y allí estamos ante una superficialidad seria, a pesar de los condicionamientos que se reconocen para los distintos países o grupos de países. Pues si bien es cierto que Japón y China son países que pueden ser confrontados, esta es una consideración transversal que no tiene en cuenta longitudinalmente los procesos históricos distintos y las estrategias casi opuestas que ciertos países se fijan, por ejemplo sociales vs. mercantiles (véase Investigación y desarrollo en China, CIENCIA NUEVA N? 11). En resumen, no aparecen al hacerse proposiciones que se consideran válidas para la América Latina de los próximos 20 años, ciertas ideas fundamentales que Herrera incluso cree necesario poner en bastardilla: "La revolución científica y tecnológica ba sido siempre una consecuencia y no la causa de las profundas transformaciones estructurales que genera el proceso de desarrollo aunque luego contribuya en forma decisiva a acelerar esos cambios. La capacidad de una sociedad para incorporar la ciencia y la tecnología corno factores

los libros

dinámicos para su progreso depende de condiciones políticas, económicas y sociales que la ciencia misma no puede crear." Hagamos la salvedad que esto último es válido excluidas las ciencias de los procesos políticos. Esta reflexión de Herrera no vuelve a aparecer hacia el final de libro, habiéndose perdido peligrosamente a lo largo de cuadros, análisis y consideraciones. Concretamente, si recordamos un artículo aparecido en 1967 en una revista de la editorial McGraw-Hill, donde un radioastrónomo australiano luego de una estadía en China relataba entre otras observaciones que en los equipos de investigación habían desaparecido las diferencias entre investigadores y técnicos dentro de un real trabajo en equipo en el que se sabe que lo que cada uno de los integrantes del equipo puede hacer es lo que la presencia de los demás le permite en cuanto a tiempo, apoyo logístico, etc., o si recordamos lo leído en el artículo de CIENCIA NUEVA citado más arriba sobre la forma en que se implementa la vinculación de las investigaciones básicas con las necesidades reales de producción, entonces una serie de formulaciones que nos hace el autor sobre equipos ideales de tantos investigadores, tantos técnicos, tantos estudiantes de postgrado y sobre organigramas sobre la interrelación de niveles resultan cuando menos algo apresurados. R. E.

N? 19: Bolivia N? 20: Cuba: Cultura/Revolución N? 21: Por qué Córdoba N? 22: Perú en la encrucijada N? 23: La lucha de clases en l a Universidad

Suscripción anual (12 números) $ 36. Tucumán 1427, 2? piso - O f . 207 Tel. 45-9640 - Buenos Aires

59


Acerca de los Congresos científicos Con motivo del XII Congreso Internacional de Historia de las Ciencias José Babini

En agosto de 1971 se celebró en Moscú un nuevo Congreso internacional de historia de las ciencias, el X I I I de la serie que en 1929 inició el flamante Comité internacional de historia de las ciencias, nacido el año anterior por iniciativa de Aldo Mieli, que fue su secretario perpetuo hasta su muerte, acaecida en Argentina en 1950, Ese Comité, qtie «e constituyó sobre el modelo de las Academias científicas, en definitiva adoptó en 1935 el nombre actual de Academia internacional de historia de las ciencias, asociándose más tarde, al crearse las Uniones científicas, a la División de historia de las ciencias de la Unión internacional de historia y filosofía de las ciencias, división que cuenta actualmente con 28 Grupos nacionales afiliados. Después del primer Congreso de 1929 realizado en París, y a partir de 1931, esas reuniones se celebraron periódicamente cada tres años, con la excepción de un decenio en blanco (1937-1947) debido a la segunda guerra mundial. Uno de los primeros informes acerca del Congreso de Moscú es el que publica el historiador de la ciencia francés Frangís Russo en el número de noviembre de "La Recherche", bajo el título no muy reconfortante Histoirc des Sciences, ün Contris décemnt. Es posible que en este calificativo hayan influido circunstancias particulares de ese Conmv.so, aunque

60

no es menos cierto que en buena medida pueda decirse lo mismo de gran parte de los congresos científicos de hoy. Por lo pronto, numerosos congresos científicos, y en especial sí son internacionales, están afectados de una de las plagas de hoy: el gigantismo, reflejado en el excesivo número de participantes y de comunicaciones. En el primer Congreso de historia de las ciencias (París, 1929) asistieron unos 25 miembros de los 41 que componían el flamante Comité y se presentaron 11 comunicaciones: en el Congreso XII, también reunido en París en 1968, se inscribieron 800 personas y se presentaron 400 comunicaciones; en el Congreso de Moscú los participantes fueron 2.000 y las comunicaciones 750. Con este ritmo ¿habrá que pensar que en el próximo Congreso, a celebrarse en Tokio en 1974, asistirán unos 5.000 inscriptos y se presentará un par de miles de comunicaciones? Parece natural modificar el actual régimen antes de llegar a tales extremos. Por otra parte, en el caso especial de la historia de la ciencia, existe otro factor que conspira contra la eficacia de tales reuniones, de mantener el sistema actual: la gran diversidad de temas que en esas reuniones se debaten. Mientras que en los demás congresos esos temas se refieren a un determinado y único '-ectnr científico en su etapa contemporánea, en los congresos de histo-

ria de la ciencia se habla de rodas las ciencias y de todas Lis épocas. No solo, sino que en los momentos actuales la diversidad tiende a aumentar. En efecto, hasta hace unos decenios los historiadores J e Ja ciencia se ocupaban con preferencia de las ciencias exactas y natura U-s, pero ahora se ocupan, además, de ciencias del hombre, de la tecnología, de la filosofía, amén de las cuestiones vinculadas con los fundamentos y la_ organización científica de la propia disciplina, cuando no otros temas que la actual tendencia Ínterdisciplinaria trae a colación y que antes se consideraban desvinculados de la historia de la ciencia. A estos factores de orden general han de agregarse, en el caso del Congreso de Moscú, circunstancias particulares que explican la "decepción" del profesor Russo. Iil Congreso comportó 5 conferencias magistrales, 14 coloquios y 12 secciones para tratar las comunicaciones orales; además dos reuniones de carácter administrativo: de la Academia y de la División, y, como Apéndice, un viaje a Leningrado donde se celebró el 4? centenario del nacimiento de Kepler. Según Russo la organización del Congreso fue deficiente en el sentido que consagraron nrny poco tiempo, un 10 % , a los coloquio-; y comunicaciones orales; que en general éstas no correspondieron a la índole del Congreso, y además, según se expresa, que en Leningrado "se


"TI

n o s infligió diez horas de exposicion e s "sin mayor interés; aunque el cargo más grave se refiere a la carencia de una buena organización d e l sistema de traducciones, en idiom a s accesibles, de los resúmenes o disertaciones. Por ejemplo, los resúmenes de los soviéticos estaban solamente en ruso, ni los títulos estab a n traducidos. Sin duda, muchas de estas fallas pudieron haberse subsanado, pero e n realidad es el sistema actual de los congresos científicos el que debe modificarse si no se quiere que sigan siendo algo "décevant". Por suerte ya se han dado los primeros pasos en este sentido como puede verse por las modificaciones introducidas por los matemáticos (Ver "Ciencia nueva", N<-' 1, 1970, pág. 2 5 : Congreso de matemáticas, sin

3 de P

dilogía, «¡tío¡utos Isla otro itiicr-

«til * del

indas • ¡ÍCC¡>-

MIO-

:Í»ís le caldean-

comunicaciones orales). Aunque cada especialidad puede exigir modalidades diferentes, parecería aconsejable, según el modelo de los matemáticos: 1) eliminación de las comunicaciones orales y adecuada selección previa de los temas a tratarse en el Congreso en las reuniones generales o especiales. 2) En las reuniones generales se expondrían conferencias magistrales, a cargo de personalidades, sobre temas de interés general, previa distribución del texto de las mismas en idioma accesible, para ulteriores conversaciones sobre el tema. Estas reuniones facilitarían el encuentro de todos los miembros del Congreso. 3) Se pueden realizar también coloquios, aunque su organización no es fácil, tratándose de congresos internacionales.

Cursos y reuniones científicas Curso ele especialización e n psicología clínica de niños y adolescentes El próximo año lectivo se iniciará nuevamente en el CEAM, bajo la dirección de la doctora Telma Reca, el curso de especialización en Psicología Clínica de Niños y Adolescentes, destinado a la formación y capacitación de psicólogos en esta especialidad. El curso tiene carácter teóricopráctico, dedicándose particular interés al trabajo de campo y a la investigación. P l a n del curso Primer

seatitiefflycoseneja íncejún o-»

4) La tarea más útil de los congresos queda reservada a las reuniones especiales, para lo cual habría que invertir el sistema actual: en lugar de pocas secciones con gran número de participantes en cada una de ellas, habría que organizar muchas secciones en cada una de las cuales intervinieran pocas personas. Por ejemplo: seleccionados los trabajos personales, con preferencia los que se refieren a descubrimientos o procesos en marcha, se distribuyen los resúmenes de los mismos, en idiomas accesibles, a todos los concurrentes y se organiza el mayor número posible de reuniones donde los interesados, con el autor del trabajo discuten y conversan a sus anchas, ya que si alguna finalidad tienen los congresos es precisamente el intercambio de ideas y su discusión. O

Año

Asignaturas

anualess

— Psicopatología Infanto-Juvenil. — Psicología Clínica de la Niñez y Adolescencia (estudio psicológico).

— Rorschach I. Seminarios: — Trastornos de aprendizaje. — Juego. — Dibujo de la figura humana. — Aspectos parciales de Psicología Evolutiva. — Evaluación crítica de teorías psicoanalíticas y de motivación. — Psicología social del niño. Segundo

Año

Asignaturas anualess — Orientación Psicológica Individual y en Grupos de Niños y Adolescentes I. — Orientación de madres. — Rorschach II. Seminarios: — Investigación en Psicología Clínica. _ Evaluación psicológica de grupos

especiales: esquizofrenias, DCM, etcétera. — Delincuencia Infanto-Juvenil. Tercer

Año

Asignaturas anualess — Orientación Psicológica Individual y en Grupos de Niños y Adolescentes II. — Orientación de madres y del grupo familiar. — Rorschach I I I . Seminarios: -—Consejo y Organización de Servicios Psicológicos en las Instituciones. — Higiene Mental en la Comunidad. Para este curso se requiere ser graduado universitario en psicología. Para informes e inscripción dirigirse al Centro de Estudios y Asistencia Médico-psicológica de la Niñez y Adolescencia, Arcos 1757, Tel. 783-9393.

61


Seminario electroenergético El Tercer Seminario Electroenergético Nacional tendrá lugar en el mes de abril próximo, durante los días 12, 13, 14 y 15, en la ciudad de Mendoza. Entre los objetivos básicos de este Seminario figura el de facilitar un intercambio de ideas, experiencias y conceptos acerca de la política electroenergética nacional y el desarrollo de las industrias electrometalúrgicas y electroquímicas. Este intercambio y acercamiento de los especialistas en energía eléctrica se inició hace ya unos años, habiéndose realizado dos Seminarios similares de carácter nacional, el último de ellos en la ciudad de Córdoba, en el año 1969. Los organizadores —Centro de Ingenieros, Arquitectos y Agrimensores de Mendoza— bajo el auspicio del Gobierno de la Provincia de Mendoza, se proponen el logro de fructíferos debates, discusiones y análisis del terna y de las diversas ponencias de los participantes, quienes podrán integrar distintas comisiones y presentar trabajos. Se espera que este esfuerzo por promover una política energética que responda a las necesidades reales de nuestro país cuente con el apoyo de funcionarios de organismos públicos y privados, empresas, instituciones y organizaciones varias que han sido invitadas a participar y qué concite, además, el interés de la opinión pública sobre el problema de la energía eléctrica y sus implicancias en el progreso socioeconómico y en el bienestar de la comunidad.

Las inscripciones se realizan en Rondeau 337, Mendoza; Dirección Provincial de Energía: Palacio de Gobierno, Cuerpo Central o Casilla de Correo N» 574, Correo Central, Mendoza.

El IPSE ofrece, además, un sitio de discusión, información y preparación a las personas interesadas en ampliar, completar o profundizar su formación. Temas de investigación Rolando García: Dialéctica y conocimiento.

C. I. E. "El Centro de Investigaciones Espaciales (C.I.E.), Miembro Nacional de la Federación Internacional de Astronáutica, abre la inscripción del 1? al 30 de enero de 1972 para todo técnico o ingeniero con inquietudes que hacen a la tecnología espacial para los siguientes departamentos: Comunicaciones, Electrónica, Propulsión, Química, Construcciones, Tornería, Fotografía, Biología y Física de la Alta Atmósfera. Concurrir de lunes a viernes de 17 a 21 hs., en Venezuela 4383, Capital Federal.

Gregorio Klimovsky: Problemas semánticos de las teorías científicas. Emilia Ferreiro y Celia Jakubowicz: Adquisición de las estructuras sintácticas de los lenguajes naturales y su relación con las estructuras de pensamiento. Cursos (primer semestre) Emilia Ferreiro: Génesis del pensamiento y adquisición del lenguaje. Celia Jakubowicz: Los problemas de la psicolingüística.

Instituto de investigaciones IPSE Epistemología y Psicología Es objetivo fundamental de esta institución realizar investigaciones sobre una problemática epistemológica y psicológica, con la necesaria apertura hacia las disciplinas con las cuales se vinculen los proyectos de investigación. Este objetivo se instrumentará a través de la formación de investigadores y la constitución de equipos de trabajo.

Rolando García: Teoría del conocimiento y epistemología genética. Gregorio Klimovsky: Diversas concepciones acerca de las teorías científicas. Seminario interno (por invitación) Secretaría: Inscripción a los cursos e informaciones a partir del 6 de marzo, de lunes a viernes, de 16 a 20 horas. Sede: Conde 3041 - Tel.: 70-5540 - Buenos Aires.

ANCOM LTD. La línea más completa en amplificadores operacionales

£1 b

c

electrónica s.ir. I. Reconquista 491 - 69 p / of. 607 Tel. 32-9504 - Bs. As. - Argentina

62


Correo del lector Ajedrez pasional Como aficionados al ajedrez de fantasía hemos constituido una Peña que nos reúne todos los sábados, después de las 17 horas, en los salones del Club Argentino de Ajedrez, Paraguay 1858, con el objeto de pasar irnos momentos de ocio convocados alrededor del tablero, estrechando vínculos amistosos y tratando de desentrañar los misterios que encierran las composiciones de este milenario juego. Para ello contamos con abundante material, ya que disponemos de importantes publicaciones especializadas, la mayoría extranjeras, como "British Chess", "Feenschach", etc. y algunas nacionales, como "Ajedrez Mágico" y "Ajedrez Artístico". Además, procedemos al análissi de los problemas compuestos por los miembros de la Peña, con el propósito de verificar su correcta formulación, con vistas a su ulterior publicación o intervención en concursos. Nos anima, por añadidura, la intención de deleitarnos ante la contemplación de algunas producciones que no vacilamos en reputar de artísticas, ya que el placer estético que proporciona esta rama del ajedrez entraña una serie de experiencias fascinantes, de la que participa la imaginación creadora del hombre, cúyo ingenio se materializa en la concreción de pequeñas obras maestras en su género y en las que es dable apreciar una serie de factores que se conjugan para hacer del conjunto una totalidad, en que pueden descubrirse ciertos valores inherentes a toda obra de arte: concepción, belleza, armonía, equilibrio, simetría, pureza, economía, dificultad, dinamismo, complejidad.. . Día a día tomamos contacto con nuevas formas ideadas para extender el campo de las posibilidades, siempre cambiantes y en perpetua evolución, en este enfoque del juego de ajedrez. Tal cosa acontece con la galería de nuevas piezas creadas a dichos fines ,que parecieran extraídas de un nuevo Olimpo y que con-

forman una especie de constelación mitológica de los trebejos: saltamonte, jirafa, zebra, tritón, nereida, prisma, tutor, etc., así como la ampliación del campo de operaciones merced a la aparición de tableros cilindricos y otras rarezas por el estilo. Para nuestra satisfacción, han llegado a nuestra mesa de trabajo, en este caso la cuadrícula de 64 escaques, varios números de la revista CIENCIA NUEVA, en los que hemos encontrado artículos relativos a nuestra devoción por la diosa Caissa. A pesar de nuestra condición de expertos en la materia, debemos confesar que alguna de sus modalidades nos era totalmente desconocida y concitaron nuestra atención, como en el caso del tipo de mate con demolición, que nos pareció de una extraña originalidad y que hasta el presente era ignorado en nuestra Peña. Como nos interesó, nos propusimos interiorizarnos acerca de sus particularidades, pero, por su dificultad, no pudimos concretar su resolución en el transcurso de la sesión en que lo abordamos. Continuó la búsqueda particular de los miembros y uno de ellos, precisamente el presidente de la Peña, maestro Virgilio Fenoglio, dio con lo que estimamos es la solución propuesta por el autor. Otro de nuestros aclherentes, el señor Eduardo D. Kelly, tratando de resolver el problema, acertó con un procedimiento distinto del enunciado, en menor número de jugadas y que no guarda la exacta secuencia a que debe estar sujeto todo problema ejadrecístico para tener validez; es lo que en la jerga que usamos se denomina un "dual" y que constituye, lamentablemente, una demolición del problema. Sólo a título de simple curiosidad, porque entendemos que no corresponde su publicación, dada la naturaleza de los artículos aparecidos en vuestra revista, que son de estricta divulgación científica y referidos a la estrecha connotación matemática que guardan los ejemplos vistos, es que nos permitimos hacerle llegar tanto la solución correcta como la

falla de que adolece, no descartando desde ya, la existencia de otro u otros procedimientos que invaliden la composición, pues en este caso del problema de ajedrez, como acontece en todos los órdenes de la vida, tras la aperente exactitud de los procesos, encubierta bajo la fría lógica del razonamiento más puro, aparece repentinamente otra solución o variante inesperada que da por tierra con los cálculos más precisos o con las previsiones más estudiadas, destruyendo las hipótesis del autor en que se sustentaba todo el armazón del elaborado teorema. Solución 1. 2. 3. 4. 5. 6. 7. 8. 9. 10: 11.

Dd5 Th5 Ag6 Ce7 Pe8 Rf5 R& Rh5

— T = A = C = P — D

Rgí Rf6 Dh8 = T+

Rf8 Rg8 Rh7 Rh6 Rh7 Rh6 Rh7 Rg7 Rh7 Rh6 +.

Demolición 1. 2. 3. 4. 5. 6. 7. 8.

Dd6 — T Td7 — A Ae6 = C Rg5 Rh6 Rg6 Cc7 = P Pc8 = D

Rf8 Rg8 Rh7 Rh8 Rg8 Rh8 Rg8 ++

Por fin, en nombre de la Peña, cumplimos en invitar a usted, si es de su agrado, a acercarse a nuestras sesiones sabatinas para compartir nuestras inquietudes esteticistas, derivadas del estudio y resolución de los enigmas que propone el ajedrez de fantasía. Horacio Amil Meylán Buenos Aires

63


Con relación al mate con demolición, debo reconocerle que la solución en 8 jugadas que encontró el señor Kelly es evidentemente correcta. No creo, sin embargo, que pueda calificarse de "dual", ya que un dual es una solución en el mismo número de jugadas. En este caso bastará, al repetir el problema, decir "mate con demolición en 8 jugadas" para que la única solución sea la del señor Kelly. En cuanto a la solución del maestro Fenoglio, es exactamente la dada por el autor del problema. Debo mencionar también que este autor escribió en su artículo original ("Games Digest", de diciembre de 1938, pág. 25) " I can do it in 11 moves, but perhaps there is a shorter way", El anunciar el problema como mate con demolición en 11 jugadas fue una decisión mía, justificada por la naturaleza de los artículos que aparecen en CIENCIA NUEVA. M. R.

Metegol N" 1 0

Solución del Metegol N

o

9

Para evitar que la letra O se confunda con la cifra cero, escribimos esta última así: ti CLOU + LUDO ~ ZERCTde donde U = 0 (1) 0 + D = R + 20 (2) Porque si fuera 0 + D = 11, debería ser L = E, lo cual es imposible, dado que letras diferentes representan cifras diferentes. L + 1 = E (3) C + L = Z (4) CLO0 I^E ZDD L'/DO (5) de donde D = n . 16 — —E.O, resulta un entero, como máximo, igual a 7. (6) O + m .16 — (E.D. + • f u ) = D.n, resulta un entero, c o m o máximo, igual a 9. (7) L + 10 — m = Z ó L — — m = Z. (8) EL + 1 =CEL = C. La opción L — m = desemboca en una imposibilidad (dejamos librada al lector la tarea de demostrarlo). (3) y ( 8 ) dan: L ( L + 1) + -f 1 = C y entonces de (4) : L ( L + 1 ) + 1 + L = , = L 2 + 2L + 1 = (L + l f = Z.

Dados dos segmentos entre paralelas, cuyas medidas son 3 y 4, encontrar el valor de X con cuatro decimales exactos. A. Pérez y O.

Mattiusi

M !

TARIFA REDUCIDA Concesión N? 9145

u ? ü <

FRANQUEO PAGADO Concesión N9 3689

0

h o e S

64

Dos opciones posibles: L = 1 y entonces será Z = 4. L = 2 y entonces será Z = 9. Se demuestra que la primera opción es imposible. Por lo tanto L = 2 Z = 9 E = 3 C = 7. ( 7 ) resulta 2 + 16 + m — — 9, de donde m — 3. ( 6 ) y ( 5 ) dan: 136 + 36 = = 41 n., siendo por lo menos igual a 2, n deberá ser igual a 2, y O = = 4-, D — 8. ( 2 ) da: R = 2 . Z E R O representa el número 9324 = 7.36.37. Clodomiro tiene 37 años, su mujer 36 y su hija 7.

Por provenir de fuente respetable CIENCIA NUEVA obvió un análisis profundo de la solución antes de publicar este problema. Y la solución —la que aquí publicamos— es errónea porque hasta explicita la exigencia lógica de que cifras diferentes correspondan a dígitos diferentes y sin embargo satisface el problema con la solución R = L = 2 . Pedimos disculpas y atribuimos este error a un exceso de imaginación por parte de Cloudomiro. Conferencia Con el objeto de compensar el vacío de la actividad cultural científico-humanística de la urbe por teña en el verano, el Centro Mundial de Estudios Superiores ha organizado un importante ciclo de 33 conferencias, que se desarrollará a partir del martes 11 de enero, a las 20.30, en Sarmiento 1876, Capital, y que se iniciará con el tema "Juventud: Esperanza, potencia y ansias de integración", a cargo del profesor Sabomir Sawicki, director del Centro. La entidad nuclea a prestigiosas personalidades del quehacer científico-cultural, estableciendo intercambio de conocimientos con criterio de síntesis. No se cobrará entrada. Sarmiento 1876, martes y jueves, a las 20.30 hs. Asamblea de investigadores y técnicos Un grupo de investigadores y técnicos de distintos laboratorios e institutos del área de Buenos Aires y La Plata (CNEGH, CNEA, Facultades de Ciencias Exactas, Farmacia y Bioquímica y Medicina de Buenos Aires; Ciencias e Ingeniería de La Plata, INTA, INTI, SMN, Investigadores y Becarios del CNICT y CIMAE) realizó una asamblea en la Saciedad Central de Arquitectos para tratar la sitúa- : ción actual de la investigación científica y tecnológica en el país y en particular, la intervención de la CNEGH. En el próximo número CIENCIA NUEVA informará más ampliamente acerca de lo resuelto en esa asamblea.


un acondicionador de

confianza. /bgh

• C o n m u r a l l a de s i l e n c i o . Descongelador automático frío-calor. • Filtro g e r m i c i d a i m p o r t a d o . • Controles de calidad exclusivos. • S e r v i c e de r e s p u e s t a i n s t a n t a n e a .

CALOR-FRIO

Aproveche

el m o m e n t o

mayor experiencia Comprarlo •

ahora

Planes Solicite sin

bgh • Bmé. Milre 1824 • Buenos Aires

y compre aire

con

a

cargo.

mejor!

su

pagos

asesoramiento

la

acondicionado!

es c o m p r a r

adecuados

presupuesto •

en

diferidos. técnico


En el próximo número se complementará la nota de Max Perutz sobre Hemoglobina. A. Aráoz, M. Diamant, M. Kaplán, Santos Mayo y E. Oteiza analizarán problemas de la ciencia aplicada en la Argentina. Nuevos problemas de Go.

Revista de ciencia y tecnología Diagonal Roque S. Peña 825 P. 9 o - Of. 93 - Buenos A i r e s


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.