Ciencianueva9

Page 1

=t

Revista de Ciencia y Tecnología. N° 9 / 1971 / $ 3.50 ($ 350 m/n.)

¿CONOCEMOS BIEN EL AGUA?

Los hipersonidos y sus aplicaciones

Restauración del fresco toscano

AUTOMOVILES ELECTRICOS

'

\

i

~


Elegir un acondicionador es un problema de confianza. Fedders resolvió 8.000.000 de problemas de confianza en todo el mundo.

Aquí se llama Fedders/bgh y es el acondicionador de más venta en todo el mundo. Sólo

la

marca

de

un

B G H p u e d e c i l a r 8.000.000 de g a r a n t í a s en e l mundo

entero!

Su exclusivo sistema d e calculado en

le

otorga

condicionen

el

extremas

sub-enlriarnienlo

mejor de

(río/calor... la

FEDDERS/BGH!

Fácil instalación Frontal!

por

menor

superficie

Evita roturas excesivas y su chasis deslizante

permite

el más

rápido

acceso

un p l a n d e

c o m o un m o d e l e

ventas

para

para cada

Usted,

Lo hace BGH

asi

De a c u e r d o - a estric tas normas de í e d d u r s

necesidad.

Sólo F e d d e r s / B G H le d a su prestigio internacional!

rendimiento

Esta es una r a z ó n más p a r a c o n f i a r en marca

Hoy

acondicionador

p u e d e g a r a n t i z a r c o n l i a n z a l Y s ó l o FEDDERS/

A n t e s de c o m p r a r , piense on los 8.000.000 d e a p a r a t o s v e n d i d o s en l o d o el mundo . . .

C o r p . d e L s l u d o s Unido r . C o n la misma notable calidad.

tomas de BGH

tínez,

S u b - e n f r i a m i e n l o científicamente) c a l c u l a d o

Descongelador modelos

para

automático

Filtro

M A S MODELOS... Y UD. PUEDE LLEGAR A U N O DE ELLOS!

Controles

Service de

germicida

respuesta

Clima

de

Km. bgh

importado

de c a l i d a d

en sus m o d e r n a s de

1.299, rulo

Buenos

MotoSis-

Motorola/

p l a n t o s de Aires

y

Mar-

Tucumán,

9.

- Biné, M i t r e

1824 - Buenos

^ Marco ícyislruda de M d e i s

exclusivos

feliz

a q u í y en t o d o Consulte

Radio C o m u n i c a c i o n e s

Pao.

instantánea

vida

Televisores

Stereo

en los

(río-calor

Service.

también

Combinados

y Heladeras, BGH.

Todo

silencio

produce

r o l a / B G H , Auto-Radios M o t o r o l u / B G H ,

Q u i é n p u e d o d e c i r lo mismo? C o n muralla d o

BGH

M o t o r o l u , BGH,

a su a g e n t e

el

mundo! FEDDERS/BGH

Corp.

Aires


Revista de ciencia y tecnología

m

¿CONOCEMOS ' BIEN EL AGUA?

Loa hioersonldos •y. sus aplicaciones

Restauración del fresco toscano

AUTOMOVILES ELECTRICOS

El arma química puede ser tan devastadora como la nuclear, A esta conclusión llega Nguyen Bang Tam, al analizar los efectos de la utilización de productos tóxicos con fines militares.

Nguyen Dang Tam Julio Moreno Roberto Fernández Prini Misclia Collar

3 5

18

19

26

31

Lucía Bonadeo Jorge Sábalo Horacio Speratti

Frangois de Closets Hilario Fernández Long

32 39 40 45

51 58

62

63 64 64

Misterio en Castelar La guerra química Humor nuevo El agua líquida Responsabilidad ética y social del científico Inauguración del Centro de Cómputo de la Fundación Bariloche Restauración del fresco toscano SEGBA: Programa de investigación y desarrollo El automóvil eléctrico aún no tiene pilas Novedades de Ciencia y Tecnología 1. 2. 3. 4. 5. 6. 7. 8. 9.

La fecundación de la reina Los inductores de interferón El reactor de neutrones rápidos Microcirugía ocular Generador solar El puente sumergido El motor Wankel se complica Los microorganismos que transforman las piedras Desequilibrio entre materia y antimateria

La ciencia de los hipersonidos El juego del GO Libros nuevos Correo del lector Respuesta a Metegol N9 4 Metegol N9 5

De las opiniones expresadas en los artículos firmados son responsables exclusivos sus autores.


Es una publicación de Editorial Ciencia Nueva S.R.L., Av. R. Sáenz Peña 825 4? P, of. 43, Buenos Aires. República Ar' gentina, Tel.: 45-8935. Distribuidores- en la República Argentina Ryela S.A.I.C I F y A., Paraguay 340, Capital Federal.' f e í 32-6010 al 29; en Capital Federal, Vaccaro Hnos., S.R.L., Solís 585, Capital Federal Impreso en Talleres Gráficos DIDOT S C. A., Luca 2223, Buenos Aires. Precio del ejemplar: ley 18.188 $ 3,50 (m$n 350) Suscripciones: Argentina, ley 18.188 $ 40 (rn$n. 4.000) por uño; exterior, por vía ordinaria, u$s. 15 anual. Registro de h propiedad intelectual n? 1049414. Hecho el depósito de ley. Circula por el Correo Argentino con Tarifa Reducida, concesión n- 9165, y Franqueo Pagado, concesión n* 3689. Derechos reservados en castellano y cualquier otro idioma para los trabajos originales, y en castellano para colaboraciones traducidas.

Año I / N* 9 / Abril 1971 / Buenos Aires Av. Roque Sáenz Peña 825, 4» piso, Of. 43 Buenos Aires — Tel.: 45-8935

Ricardo A. Ferraro Eduardo A. Mari Héctor Abrales Daniel Goldstein Ricardo Schwarcz Lina Mari Horacio Speratti Isabel Carballo Femando Díaz Julio Moreno María Susana Abrales Caracas: Pascual Llórente Florencia: Hernán Bonadeo Frankfurt: Jan ICovarik Londres: Eduardo Ortiz Nueva York: Roberto Lugo París: Jorge Schvarzer Praga: Jan Rehacek San Pablo: Ricardo Albizuri Santiago de Chile: J. Pablo Schifiní

_ C

New Scientist; Sciences; Science et Avenir; Science-Progrés-Découverte; Science et Vie; Science Journal; Scientific World; Sapere;

°°K!10"LeínÍqUe; ' 1ASS' CTK;

ScÍence ADN;

^ Associated Press; Agencia DAN; ICA press. Sen,ic

Directores

Asesores de dirección

Secretarios de Redacción

Diseño gráfico Dibujo Humor Secretaria Corresponsales

Servicios del exterior


lluj¡KPipv»M'i i «/!' ' • t

' . .'

' "-'h " :í " r_

'••"..: '«i

"...

i£. .-«•» -

Misterio en Castelar

Una de las funciones de una revista como CIENCIA NUEVA es exaltar y alentar el desarrollo de las actividades científicas y tecnológicas del país y en cumplimiento de esa función ejerció reiteradamente su crítica contra la falta de elementos y presupuesto, contra el mal üso o aplicación de recursos dedicados a la investigación. Por ello no resulta paradójico preguntarse acerca del verdadero sentido de un monumental proyecto que se ha puesto en marcha en nombre, de la investigación científica, conocido casi esotéricamente entre los investigadores argentinos directamente afectados con la denominación de "proyecto Castelar". En grandes trazos, el "proyecto Castelar" implica la realización y puesta en marcha de un enorme centro de investigaciones biomédicas en edificios a construirse sobre un terreno de 25 hectáreas que posee actualmente el INTA en Castelar. El centro estaría básicamente integrado por varios institutos, entre otros: Neurobiología, Biofísica, Biología y Medicina Experimental, Bioquímica, Farmacología y Medicina del Trabajo. Coxnpletado en siete años, daría ocupación a unos mil investigadores. El costo total del proyecto ascendería a 25 millones de dólares, 60 por ciento de los cuales dedicados a la construcción, 25 por ciento a la integración de equipo científico complementario y 15 por ciento a la formación de personal. No se sabe que haya previsión presupuestaria para cubrir los gastos operativos. Cuarenta por ciento del dinero necesario será prestado por el Banco Interamericano de Desarrollo y el 60 por ciento restante provisto por el Consejo Nacional de Investigaciones Científicas y Técnicas. Es precisamente en el CNICT donde ha surgido este piramidal proyecto que habría nacido contra la opinión de los doctores Houssay y Leloir y a instancias de funcionarios administrativos. El proyecto entró en la primera etapa de realización en abril de 1970, cuando sin concurso y en un costo que se estima en ocho millones de pesos viejos, se encargó el anteproyecto de arquitectura a una firma que ya habría realizado su trabajo, incluyendo una maqueta que circuló por las oficinas del CNICT.

Un proyecto de tal magnitud merecería, por nuestra parte, un análisis detallado, más allá de los límites que impone un comentario editorial, pero aquí surge la principal irregularidad: fuera del estrecho círculo de personas involucradas directamente en el proyecto, nadie conoce la realidad del mismo, nadie ha visto textos, descripciones ni cifras, algunos de los investigadores nominados en carpeta apenas han llegado a tener entrevistas verbales con personas que conocen parcialmente el proyecto; otros ni siquiera han sido informados de la tarea que les ha sido asignada en el "proyecto Castelar". Tampoco en la Universidad, en el CONACYT o en el Ministerio de Educación parecen estar suficientemente informados en este proyecto que de alguna manera los involucra y que debió necesariamente, en alguna etapa, transitar los ministerios de Economía, Educación y Relaciones Exteriores. Esta irrealidad aparente del "proyecto Castelar" es lo único concreto. Todo lo demás son suposiciones, informaciones que se filtran fuera del cerrado grupo que maneja el proyecto, indefiniciones. Es por ello que debemos dar a toda aquella información el precario carácter de postulado, para poder apoyar un juicio crítico tentativo. No escapa a nadie la magnitud económica del proyecto que requeriría la inversión total de los recursos actuales del CNICT durante cuatro años, más la posterior devolución del préstamo del BID y de sus intereses —que no son magros— más los costos operativos. Además toda esta inversión estará destinada predominantemente a la biología y bioquímica, ignorando las eventuales necesidades de otras ciencias puras y de todas las aplicadas que, en muchos casos, pueden tener mayor urgencia y mayor mérito económico frente a las necesidades reales del país. La distribución de gastos también llama la atención: 60 por ciento de 25 millones de dólares es mucho dinero invertido solamente en instalaciones inmuebles. Y algunas versiones afirman que el 25 por ciento correspondiente a equipo complementario presupone el traslado de los investigadores de sus actuales lugares de trabajo hacia Castelar, junto con los equipos actualmente en servicio. Esta pretensión implicaría el desmantelamiento de algunos laboratorios y especialmente de los laboratorios universitarios. De cualquier manera es obvio que el proyecto separará inevitablemente la investigación de la labor docente, lo que puede, implicar

3


un peligroso e irrecuperable cercenamiento de la actividad universitaria. Es esencialmente esta característica del "proyecto Castelar", el alejamiento de los investigadores de la función docente hacia laboratorios de ciencia pura, culturalmente esterilizada, la que marca una de sus mayores contradicciones. El proyecto pretende tener, en un plazo de siete años, alrededor de 1 000 investigadores trabajando en el lugar. Pero se da el caso de que el CNICT tiene, en la actualidad, 410 investigadores (más 260 becarios) y el total de investigadores que trabajan en la actualidad en laboratorios y universidades de todo el país y en todas las áreas, rio supera en mucho esa cifra. ¿Cómo podrán formarse e integrarse en siete años los 600 ó 700 investigadores adicionales que requerirá el "proyecto Castelar"? ¿Es lógico tener muchos más investigadores trabajando en bioquímica y medicina que en todo el resto de las áreas sumadas, en todo el país? ¿Tiene acaso sentido la enorme inversión que requiere la puesta en marcha de este gigante y los ingentes gastos que exigirá su funcionamiento, cuando una simple generosidad presupuestaria y una partida de refuerzo para renovar equipos e instalaciones bastarían para brindar lo necesario a este sector de la investigación científica argentina? ¿No es paradójica la realización de este proyecto hipertrofiado frente a las carencias de todo tipo que sufren los institutos de investigación y las universidades? El alejamiento de los investigadores científicos de las tareas docentes, ¿no compromete acaso desde su mis-

L

4

ma iniciación el futuro de este proyecto que necesitará una adecuada realimentación de profesionales de alto nivel proveniente de las universidades? Todos estos interrogantes surgen de los trascendidos de un proyecto que no ha tomado estado público, que no ha sido discutido abiertamente frente a los interesados que ni siquiera han tenido acceso a ^información necesaria y cuyos objetivos políticos y económicos a corto y a largo plazo sólo pueden conjeturarse. Se puede conjeturar sobre las intenciones discriminatorias de los sostenedores de este proyecto, sobre las ambiciones personales en juego; acerca de un progresivo debilitamiento de las universidades ante la incapacidad de los gobiernos militares para congeniar el fantasma revolucionario que le atribuyen con la adecuada capacidad de formación de técnicos y dirigentes que le quitaron. Se puede aún conjeturar sobre la posibilidad que significa impulsar la producción científica en un área estrecha de un grupo ele gente que ya tiene nivel internacional, para contrapesar los efectos de la intervención universiraria, ele la discriminación ideológica, de la censura y de otras agresiones contra la cultura del país. Pero todas estas conjeturas no serán más que un juego dialéctico que puede generarse, precisamente, en la falta de información concreta. Quizá ante todo —y a colación de este proyecto— correspondería preguntarse otra vez la razón de ser del CNICT y del CONACYT como organismos independientes y, a su vez, independientes ambos de las universidades y del Ministerio de Educación.


La guerra química Nguyen Dang Tam

En su mayoría, los armamentos modernos basan en las propiedades explosivas de ciertas sustancias y, en definitiva, toda arma es "química". Sin embargo, se ha reservado el nombre de g u e r r a química a la utilización directa de productos tóxicos contra el hombre u otras formas de vida. Revelada por la guerra de 1914-1918, considerablemente perfeccionada después y producida en cantidad industrial, el arma química es motivo de preocupación tanto para la opinión pública mundial como para los expertos militares. La Conferencia de Ginebra de 1970 debió concluir con la prohibición absoluta de las armas químicas y biológicas. Nguyen Dang Tam expuso en la revista francesa "La Recherche" los problemas que plantea su empleo.

Nguyen Dang Tam nació en los alrededores de Hanoi; estudió agronomía en Parts y química en Tübingen. Ex asistente del Instituto Max Planck de Munich y en la actualidad j e f e de investigaciones del CNRS, el autor se ha dedicado particularmente al estudio de la utilización militar de cierto¿ productos tóxicos y a los problemas éticos que deben encarar los. científicos.

Durante el mes de mayo de 1969, cierto número de parlamentarios liberales norteamericanos lanzaron una campaña contra la producción y la experimentación de armas químicas y bacteriológicas en los EE. UU. De esta manera ellos continuaron con la obra ele más de cinco mil investigadores de su país (entre los cuales hay 17 premios Nobel y 127 miembros de la Academia de Ciencias de Nueva York) quienes, desde 1966, vienen cuestionando el empleo de productos fitotóxicos sobre los bosques y campos de Vietnam. A pesar del secreto en que se los mantuvo, los numerosos accidentes acaecidos en centros de investigación y sobre terrenos de ensayos militares llegaron a ser de dominio público; el más espectacular fue la muerte de 6.000 corderos, el 14 de marzo de 1968, en Dugway (Utah), sobre los cuales el viento hizo derivar una nube artificial de un producto neurotóxico. La oposición a este estado de cosas también está cobrando importancia fuera de los Estados Unidos. En Inglaterra, el Parlamento obligó al Gobierno a intervenir, mediante una comisión investigadora, un centro de investigaciones sobre la guerra química y biológica, el de Porton. Una conferencia nacional reunió en Edimburgo, ^ comienzos de 1969, a un apreciable número de científicos. En julio de 1969 algunos soldados norteamericanos se intoxicaron con gases almacenados en Okinawa. Sólo entonces el pueblo japonés pudo enterarse de que el ejército norteamericano los había depositado allí ante el desconocimiento del mismo Gobierno de Tokio. En mayo de 1970, por segunda vez en doce meses, la Asamblea legislativa de Okinawa reclamó la evacuación total de tan peligroso "stock". La ONU realizó una encuesta cuyos resultados fueron publicados en 1969 y en 1970. Las protestas de los países extranjeros reforzaron la oposición a la guerra química desatada en Estados Unidos. Fueron enviadas misiones investigadoras a Vietnam y después a Camboya para estudiar las consecuencias de la defoliación de vastas extensiones de bosques, plantaciones y cultivos (ver CIENCIA NUEVA N? 5, N. de la R.). En Francia se realizó .una reunión en la Facultad de Ciencias de Orsay el 21 de febrero de 1970: investigadores del CNRS y médicos presentaron una apreciable cantidad de informaciones tanto sobre los agentes químicos como sobre los desastres ecológicos y los efectos teratógenos provocados por las defoliaciones en Vietnam.


Estos movimientos de protesta demuestran que un número creciente de científicos y de políticos han tomado y toman conciencia de los peligros de la guerra química, cuya inquietante intensidad nos revela el conflicto vietnamita.

De la guerra de trincheras a la guerra química Sin embargo, hace ya más de medio siglo que se pone en práctica este tipo de guerra. El enorme desarrollo de la química orgánica hacia fines de siglo y la posibilidad de obtener en cantidades industriales los productos más tóxicos no podía dejar de tentar a los expertos militares. En 1899, en la Conferencia de la Paz mantenida en - La Haya, se prohibió el uso de las armas químicas. En realidad, la Primera Guerra Mundial fue la ocasión ideal para utilizarlas. En agosto de 1914 las tropas francesas se sirvieron de ellas empleando bromoacetato de etilo, gas lacrimógeno. Más tarde —y no fue por a z a r hizo su aparición el cloro, materia industrial importante, el 22 de abril de 1915. Ese día, por consejo del profesor Fritz Haber, autor de la síntesis del amoníaco y director del departamento de guerra química, el comandante alemán hizo derramar sobre las líneas francesas 168 toneladas de cloro contenido en cilindros be produjeron 5.000 muertes entre los 15.000 soldados afectados. Esta fecha tiene el triste honor de marcar el comienzo de a guerra química. Se instalaron plantas para mejorar la eficacia del gas, idea que volveremos a encontrar cincuenta años más tarde en el Vietnam Se hizo necesario inventar medios de protección. Fue de esta manera como se desencadenó la carrera de los armamentos químicos, carrera que ya no se detendría más. En ambos campos, los laboratorios se encargaron de esta investigación aplicada". Hacia fines de 1915 el fosgeno otro producto industrial importante, más fácil de manipular que el cloro, comentó a reemplazarlo! U n , e s f 1 I e n a " * municiones de artillería y granadas empleancbse alrededor de 150.000 toneladas&en tres anos El fosgeno fue responsable del 80 % de los casos mortales debidos a las armas químicas. También se utüid W f n ° 7 d 0 r ° P l c r i n a - D u r a n t e la ofensiva sobre ü Somme, en marzo de 1918, la artillería alemana arroP , en 10 días, 500.000 obuses de iperita sobre las tro-

1. El ejército utilizó diferentes formas de protección contra los gases. La fotografía muestra algunos artilleros franceses munidos de cogullas antepasado de las famosas "máscaras de gas". (Foto Roger-Viollet).

En busca de nuevas armas En el período comprendido entre las dos guerras, las investigaciones y la producción de productos tóxicos no cesaron y la Alemania del III Reich realizó notables progresos en este campo. Se sabe que gran parte de la producción alimentaria mundial es destruida por los insectos: actualmente se calcula en 30 millones de to-

™ tooonCeSas- L f soIdados a"ectados I » ' d m o b s t ó t e 7 , ? ? P e m S ° ] o f P r °dujeron 7 muertes. No W n retírST^ * k **?*> l ° S d e p ó s i t 0 s n o r eron_ retirados. Se puso en evidencia una gran preocupacion por la prohibición de este tipo de armas £ S e t d T í : MUnÍda Cn G Í n e b f a e n ^ P°" la Soun p l t ^ í r 1 ^ r e C ° g í Ó d 1 7 d e í - i o mediante Protocolo redactado en ese sentido la a d h e r í p é n H Z ^ f 3 ' ^ ^ l 0 S Atados U n t o ° y j í de k Se8unda G u e " a S ' se señ il

a Q °'i 0 3 i n s e / c t o s P l a g a n también muchas enfermedades peligrosas (malaria, fiebre amarilla, etc.). La preparación de insecticidas constituye una de las acS S r V i " * 3 h ° n o r a b I e , s y también más lucrativas que S í n l R GS s o f P r e " d e n t ? e n t onces que los establecimientos Bayer, que formaban parte de la célebre IG

sSdeMír^ f ^ - ^ ^ S í

L i o í m V Y a í r e r e S a d ° ? n f 1Jos > más que d e d i v i s a s extranjeras no Derrmi S , ' permitía importar insecticidas como el polvo de piretro

d e , loS , C u e r p o s m á s A l a n t e s de ejército dp IV e S o s t o t t o r ^ T d e S a f o i r a d ™ t e Carecía en octubre de i9¿u'. oportunidad se dio en los obuses J ' ^ ? P a c t o s mortales c h i n a s > es " pecialmente sobre lT'viíl Í V f ^ del río Yang sé ^ SÍtUada aI s u r

SSn A

C n l0S pMásÍt0S' redbÍÓ de la 1 °^ ,

3 1 f 1S1Ófl d e s i n t e t i 2 a r a l a n o s produZ Z t V ductos activos. Particularmente se interesó en el flúor Í¿Tlo?:oPmOCr°'C0110CÍd0u HÍZ° fluomros de ro TraL o i l T ? p m e b a s biológicas. Estos primeros trabajos le permitieron comprobar que tanto en la se-


Figura 2, Un ejercicio

de defensa contra los gases, en Parts, durante la guerra 1914-1918. (Foto

ríe de los fluoruros de metansulfonilo como en la del íluoretanol había numerosos insecticidas en potencia. Desgraciadamente ellos eran demasiado tóxicos para los animales de sangre caliente. Estos fracasos, aunque interesantes desde el punto de vista científico, obligaron a Schracler a volverse provisoriamente hacia los plastificantes y otros productos destinados a la industria del caucho sintético, campo tradicional de Bayer. Por casualidad hizo algunas pruebas, con los ésteres y amidas del ácido fosfórico; los ensayos de estos derivados fosfóricos revelaron una propiedad hasta entonces poco conocida: su extraordinaria toxicidad. Schrader logró preparar el paraoxón o E 600, preparación que después permitió determinar las condiciones estructurales de dicha toxicidad, o sea las de la inactivación de la colinesterasa. Pero desafortunadamente los animales y los hombres no escapaban a ella. Todos los esfuerzos se concentraron en el problema de la preparación de un producto que fuera tóxico para los insectos peto inofensivo para el hombre y, las bestias. Hubo que esperar la finalización de la guerra y nuevas investigaciones para encontrar una vía acertada. Los organofdsforados se impusieron en todo el mundo como venenos sistémicos. Si bien la antimita amitón es todavía sumamente peligrosa para el hombre, el menazón y el diclorvos no lo son en absoluto. El haloxón, antihelmíntico, utilizado en medicina veterinaria, hasta puede ser suministrado por vía oral al ganado. Hasta este punto, nada fuera de lo común. Sin em-

Harlingue-Viollet).

bargo, los estudios de Schrader adquirieron una siniestra reputación, quizá a causa de un decreto del gobierno hitleriano del año 1935, que ordenaba a todos los laboratorios a someter a consideración del Ministerio de Guerra los descubrimientos susceptibles de adquirir una importancia militar. La historia no nos informa de cómo el Estado Mayor tomó conocimiento de los resultados de Schrader: las versiones son muchas y. contradictorias. ,Arribismo, jactancia, control político de la investigación científica, espíritu de disciplina, patriotismo, o quizá simple exceso de celo o temor a sanciones severas? Todos y cada uno de estos factores pudieron jugar su papel. Lo cierto es que la paciente espera de los militares fue al fin recompensada. Los laboratorios de Schrader en Elberfeld lograron preparar un producto que podía ser utilizado como insecticida y enviaron un kilogramo al Ministerio. Era el tabún. Schrader estaba vinculado con el profesor "Wirth, director del Instituto de Farmacología y Toxicología Militar, de la Academia de Medicina Militar. Se examinaron las cualidades bélicas del tabún: eran excelentes. Hay que señalar que ese mismo año los establecimientos Bayer depositaron las patentes para las fórmulas de los insecticidas organofosforados. Una vez revelada su importancia, las fórmulas pasaron a ser secreto militar y así quedarían hasta el final de la guerra. Las máscaras antigás habían sido distribuidas entre la población a partir de las primeras amenazas de guerra. Tanto para los estados mayores como para el gran pú-


blico el término tabún se convirtió en un motivo de angustia. Mientras tanto, Schrader continuaba sus trabajos; en 1938 concluyó con la síntesis del sarín. Varios institutos universitarios importantes participaron en el desarrollo de la nueva "arma secreta". En Dyhetnfurtham-Oder se construyó una fábrica en dos años con el trabajo forzado de 120 prisioneros de guerra. En total colaboraron 3.000 trabajadores. La producción del tabún (en código: Trilón, jabón en polvo) comenzó en el verano de 1941. Totalizó 11.980 toneladas en lugar de las 58.000 solicitadas por el ejército. La producción del sarín, más estable que el tabún, no pudo ser realizada: el Reich sería vencido antes de la terminación de la fábrica subterránea de Falkenhagen, cerca de Berlín. En 1944 Schrader, siempre diligente, logró el compuesto más peligroso de la serie, el soman. Pero ya era demasiado tarde. . . En realidad, lio se empleó el "gas de la muerte" sobre el campo de batalla o contra poblaciones enemigas. Pero, en cambio, se sabe bien cuál fue el uso de ciertos gases tóxicos que fueron destinados a los campos de concentración. . .

Armas mortales Tabún (1937) Sarín (1938) DFP (1942) Somán (1944) Ester de Tammelin VX (1955)

(1955)

Las sustancias modernas y sus posibilidades No cabe ninguna duda de que los aliados conocían el tabún. Hoy se sabe que desde 1940 algunos investigadores ingleses trabajaron también en los esteres de los ácidos fluorcarboxílicos, después en los organofosfatos y por fin en los esteres orgánicos del ácido fluorfosfórico. Apuntaron a un arma sumamente tóxica, el DFP, del cual prepararon grandes cantidades. Pero sólo después de la guerra, sin duda después de haber descubierto los documentos de Schrader y de haber capturado los depósitos de tabún y de sarin, las investigaciones planificadas sobre los tóxicos bélicos tuvieron su verdadero comienzo. Los trabajos de Schrader servirían de modelo a todo el mundo (figura 3). El que busca encuentra. No es menos cierto que la máquina de la investigación militar, lejos de carecer de aliento, continuó exigiendo su contingente de créditos y de talentos y que los laboratorios, norteamericanos, esta vez, y también suecos, pudieron anunciar a las autoridades respectivas el descubrimiento de productos extraordinarios, los llamados agentes V. Se estaba muy lejos de la investigación de nuevos insecticidas o de nuevos herbicidas, motivación inicial de tan inquietantes estudios. Actualmente, las grandes potencias están dotadas de un arsenal químico tan terrible como su panoplia atómica o biológica. Ahora bien, ¿de cuáles armas químicas dispone actualmente un estado mayor? Antes de responder esta pregunta sería interesante conocer los elementos de reflexión que guiaron la elaboración de esas armas. En los laboratorios y fábricas se puede encontrar con facilidad una cantidad de sustancias interesantes; un lacrimógeno, o los cloruros de acetilo, o el benzilo podrían ser candidatos aceptables. Pero la utilización impone exigencias frecuentemente contradictorias. Como hemos señalado antes, deben tomarse en consideración, simultáneamente, varios criterios técnicos (ver figura 4 ) . Entre las sustancias consideradas, se comprueba la existencia de un gran número de productos que con-

8

Insecticidas Paraoxón o E 600 (1944) Amitón (1955) Malatión (1950) Menazón Figura 3. Fórmula fundamental

de

Schrader,

tienen halógenos, arsénico, el grupo cianógeno ( C N ) , una amina cuaternaria, un resto fosfónico o tiofosfónico. Los glicolatos sustituidos se encuentran entre l o s alucinógenos anticolinérgicos. Los venenos naturales, como la estricnina, el curare, la aconitina y los venenos de serpientes, no tuvieron ninguna utilización m i l i t a r . En cambio, las investigaciones modernas en q u í m i c a estructural y en farmacología revelaron que en los v e getales _ (ricino), los hongos (psilocibo, amanita), l o s microbios ( C l o s t r i d i u m botulinum y Clostridmm tetani), algunos peces y algunos gastrópodos marinos (Thais flor ¿diana) existe una cantidad apreciable d e sustancias extremadamente tóxicas, por las que los e s pecialistas manifestaron un vivo interés. Algunas h a n sido^ sintetizadas y se puede afirmar que el estudio s i s temático de las correlaciones entre la estructura y l a actividad fisiológica benefició enormemente a algunas investigaciones. Según la Organización Mundial de la Salud, la l i s t a de los productos "operativos" comprende once sustancias. Pero no cabe ninguna duda de que en caso d e conflicto las potencias utilizarían todas las sustancias a su disposición y las que podrían probar después, a u n cuando no todas se revelasen "eficaces". Como se puede comprobar observando el cuadro de las páginas 10 y 11 el arsenal de las armas químicas, clásicas o modernas, es lo suficientemente grande como para permitir todas las combinaciones.


Vietnam, campo de experimentación de la guerra química Dosis sola facit venenum, dijo una vez Paracelso. A baja concentración, el paraoxón del Schrader y el DPF de los ingleses se utilizan en oftalmología como mióticos y antiglaucómicos. A la inversa, sin embargo, el empleo de los defoliantes en Vietnam es una demostración por el absurdo de esa proposición. Los países ricos se sirven de los productos fitotóxicos para eliminar las hierbas malas de los cultivos y jardines. La dosis normal para el 2,4 D, por ejemplo, es de 0,75 a 1,5 kg por hectárea. En Vietnam, las dosis empleadas no tienen nada en común con el uso agrícola. Estos herbicidas y defoliantes se convirtieron, en las manos de los expertos militares norteamericanos, en armas devastadoras que no

Figura 4. Relaciones entre los criterios que intervienen en la selección o investigación de las armas químicas.

sólo destruyen hoy las fuentes vegetales alimenticias e industriales, sino también comprometen seriamente el porvenir del país esterilizando el suelo — q u e es el efecto del monurón y del bromadlo—, transformando el medio, provocando la erosión o la transformación de las plantaciones y de los campos en regiones desérticas carentes de toda vida animal. Es necesario recordar que estos efectos se suman a los de los bombardeos masivos (figuras 8 y 9 ) . Efectivamente, se ha podido comprobar la acción de dichos defoliantes en los tejidos animales. La posibilidad de accidentes graves, como abortos o malformaciones fetales, en ratas y ratones, ha sido demostrada por investigadores norteamericanos. El herbicida 2, 4, 5 T (contenido en el producto "naranja") administrado oralmente o por vía subcutánea provoca un aumento en la frecuencia de ríñones poliquísticos y de

(K'l'i '.'rcanosi afecir-i'ieX clase de productos

Él

alucino'genos

(BZ)

lacrimógenos

(CS,CN)

^sistema nervioso" central .ly. i.t't!i t t t t l t t M H /t'yVt :2*Ipojos garganta i-* it é nariz, * > «+ 4. •* »«O.<%v *C*. pulmones

X—....—v-a- —s—IT—t—* ,.

irritantes pulmonares (fosgeno) hemotoxicos (cianuro)

anoxemia

agentes letales neurotoxicos (Sarin, VX)

W inflamación, necrosis v : vi'. •V/

-*'*( ^

!•:•:.•.•'

i < i t .. . " .

músculos ;

piel

jl^ m •* • •

Jy.

— — . . ...—<" **

- x ^ ' i ^ i í ÍV'3 veneno de los reflejos (adamsita)

inhibición de las enzimas celulares

SV ,-,VcvniM«0.; V»!J •;*t 1'jgw-m. ibioq«i'micor>) • * / /

«C^if""

• »

objetivos hombres y animales domésticos

condiciones técnicas y eco-l ndmicas de producción y J de utilización m i l i t a r ^ /

9


Código Nombre vulgar, nombre US A r m y y fórmulas químicos

Modo de expansión (y forma (le protección)

Acción bioquímica

Síntomas

Agentes letales Francia utilizó el cloruro de cianógeno en 1914-1918. Por su parte, Alemania empleó el fosgeno en 1915 y la iperita en 1917. Tos, cianosis; asfixia Gas Fosgeno CG por edema pulmonar. (máscara antigás) ci\ c—0

Cl/

AC

Gas (máscara antigás)

Acido prúsico H—C=N

ácido cianídrico

Cloruro de cianógeno

Líquido o gas (máscara antigás, vestimentas especiales de protección)

Iperita o

gas mostaza /CH—CHjCI s. ^-CH,—CHSCI

HN-3

Inhibición de las peptidasas y lipasas; estimulación de la respiración celular; acción sobre el ADN.

Líquido, gas o aerosol (máscara antigás, vestimentas especiales de protección)

Mostaza al nitrógeno yCHa—CHjCI R-N ^CH,—CHaCI

Convulsiones, angustia, pérdida de la conciencia, asfixia.

Lacrimógeno tóxico (dosis letal: 400 mg/nv1 en 10 tn.)

Líquido o gas (máscara antigás)

Cl —C=N

HD

Transformación del hierro de la citocromooxidasa en un derivado desprovisto de poder catalítico.

Inflamaciones y ulceraciones en los ojos, enrojecimiento de la piel; necrosis, asfixia, neumonía; necrosis epitelial pulmonar; perturbación de las funciones de la corteza cerebral.

Agentes de "hostigamiento" e incapacitantes La cloroacetofenona se utiliza en todo el mundo para la represión de los motines y en Victnam desde 1963. En Estados Unidos, la adamsita fue propuesta como arma bélica en 1914-1918. El OCRM se utiliza para la represión de manifestaciones y en Vietnam desde 1963. CN

CAP

o-

co—CH,CI

Aerqsol (máscara antigás)

co-cloroacetofenona DM

Adamsita

OCBM

ci

\

Fatiga, henticranta, tos, náuseas, vómitos, psicosis de angustia, ataca las mucosas (nariz, garganta).

Polvo (máscara especial)

Sensación de ardor en la piel. Fatiga, secreción lagrimal abundante, náuseas, tos violenta.

Aerosol

Disminución de la actividad física y mental. Pérdida de la orientación, alucinaciones. Trastornos de comportamiento.

/

o-clorobenzol malononitrilo BZ

10

Sensación de ardor en la piel húmeda, secreción lagrimal abundante. En dosis altas puede ser mortal.

Aerosol (máscara antigás y vestimentas especiales)

Cloruro de fenarsacina CS

Reacciona con los grupos SH de las cisteínas en las proteínas: inhibición ele enzimas (papaína, ureasa, exoquinasa)


"Agentes neurotóxicos

Fitocidas y esterilizantes del suelo

Acción bioquímica: Inhibición de la colinesterasa e inhibición de numerosas enzimas importantes (peptidasas, oxidasas, lipasa, amilasa...) Síntomas: Trastornos de la visión y respiración. Náuseas. Vómitos, calambres, trastornos de comportamiento, coma, convulsiones, asfixia. Los VX pueden permanecer activos sobre el terreno hasta 16 semanas. Código Nombre vulgar, nombre US Army y fórmula químicos

Defoliantes 2-4-D O —CHa — CO — O — (CHS-CH, C1 2-4-5-T

O — CHj — CO— 0— (CH2)3— CH3 Cl n-butil ester del ácido 2,4,5-triclorofenoxiacético

Mpdo de expanVon & ™ , a

de

n-butil ester del ácido 2,4-diclorofenoxiacético

Ci

protección).

Picloram GA

Tabún o trilón

iCH^—U^

X

Líquido, gas o aerosol. (escafandra autónoma).

CN

©

endotal

Líquido o gas (escafandra autónoma).

3 x

.-CH —O

O

CH 3 / \

Ó

NOj

Esterilizantes del suelo

^O

Líquido, gas o aerosol. (escafandra autónoma).

DNOC

OH -OH,

4,6-dinitro-2-metilfenol NO2

N- (cloro-4,feníl) N',N'dimetilurea

VX CH./

"COONa

' OH

2,4-dinitrofenol

Monurón (CMU)

C,HS— O

,COONa

NOj

Somán CH3 I • CH,— C — CH — O. I I CH3 CH3 CH.

2-4-DNP

F

metil-fluorofosfato de isopropilo.

GD

<CR,}2AS—-0 —ONa

3,6-endoxo-hexahidroftalato de sodio

Sarín c h

"-COOH cacodilato de sodio

dimetilaminociano-fosfato de etilo. GB

ácido 4-amino 3,5,6-tricloro picolínico

o=c Ir ffi

\

^ S —CH2 —CHS N(CH3)3

Metil-S (2-dietilaminoetil) Líquido o aerotiolfosfato de etilo sol. (bromhidrato)

>

Bromacilo bromo-5,butil-3,metil-6, uracilo

CH. I' CH,—CH,—CH—N"

11


Establecimientos militares y actividades

Arsenal de Edgewood (Maryland) Centro de investigación de las armas químicas. Salarios de 1965: 46 millones de dólares. Arsenal de Pine Bluff (Arkansas) Centro de producción de armas biológicas, de CS y BZ. En 1969: 2.720 toneladas. Arsenal de Denver (Colorado) Producción de sarín: 10.900 toneladas en depósito. Fábrica de Newport (Indiana) Producción de VX. Polígono de ensayos de Dugway (Utah) Ensayos de armas químicas y biológicas. Figura 5. El precio de la guerra química. Contrariamente a lo que se supone, las armas químicas y bacteriológicas son sumamente costosas. La necesidad^ de rigurosas medidas de seguridad, la automatización de un gran mímero de operaciones y un personal altamente especializado que percibe salarios elevados, aumenta su precio en forma considerable. El cuadro proporciona algunas

fisura palatina en el ratón, una elevación de la relación del peso del hígado con respecto al peso del cuerpo en los fetos de ratones y hemorragias gastrointestinales en fetos de ratas. Se están realizando investigaciones para determinar si estos efectos se deben a una impureza contenida en el producto comercial "naranja" o "púrpura", el 2,3,7,8-tetraclorodibenzo-p-dioxina 1 . _ Otro ejemplo del efecto de un aumento en la dosis aplicada lo proporciona la utilización del CS, cuyo usó se expandió en Vietnam a partir de 1964. En 1969 el ejército norteamericano compró para sus tropas 2.800 toneladas de CS en 23 tipos de municiones diferentes, desde las granadas de mano hasta las bombas para aviones pasando por los obuses de 155 mm y las granadas de acción retardada. Ha sido puesta a punto una bomba especial para insuflar el polvo CS en los refugios subterráneos (figura 6). De este modo la dosis letal, de 25 a 150 g/mn/m3, es fácil y ampliamente superada. Por otra parte las víctimas son, con bastante frecuencia^ débiles y subalimentadas: ancianos, niños y mujeres encintas encerrados en los tormentos de una guerra que dura desde hace treinta años. Mientras que en los países de Europa y América las granadas con CS utilizadas en motines y demostraciones callejeras, al aire libre, por lo general no provocan intoxicaciones mortales (figura 10). Se puede deducir que las sustancias aún relativamente poco tóxicas se vuelven mortales si se las administra en gran cantidad y repetidamente. Si se ha hecho, .no ha sido justamente por azar, sino porque ello formaba parte de un plan minuciosamente preparado por los expertos, y la decisión de ejecutarlo no se debió a un cambio de humor de alguna autoridad. Este sistema se 1

12

K. D. Courtney et al, Science, 168, 864, (1970).

Instalaciones (en millones de dólares)

Presupuesto de funcionamiento (en millones de dólares)

Personal

300

228

(1968)

4.500 (1965)

175

19

(1965)

1.800

200

13,5

3,5 (1962) 15

1.600

cifras para los Estados Unidos: el presupuesto de la guerra química sería, según la SIPRI Yearbook, 1968-69 "muy superior a los 550 millones de dólares". A simple título de comparación, digamos que la ayuda piiblica total de los países ricos al tercer mundo, para el año 1968, se aproxima a los 6.300 millones de dólares. (Informe del Comité de ayuda al desarrollo de la OCDE, 1969)

inspira, en efecto, en la teoría de la guerra total de Ludendorff, según la cual "los mejores medios a emplear para quebrar la voluntad anímica de resistencia del pueblo enemigo, son la destrucción de la economía y de la población adversaria". Con el correr de los años y a medida que la guerra se agravaba, los cerebros del ejército norteamericano, ayudados por investigadores de la industria y hasta por algunas universidades importantes, prepararon y ensayaron armas^ y equipos cada vez más mortíferos. La tecnología bélica realizó enormes progresos gracias, por una parte, a los colosales créditos a su disposición, y por otra a las condiciones muy variadas y reales ("live"!) en las que fueron realizadas las experiencias. Nadie duda que los investigadores militares norteamericanos han extraído de las informaciones recogidas en Vietnam, a costa de la tierra y de toda la población, "preciosas enseñanzas que conducirán seguramente a otros "estudios interesantes" y a otras experiencias. El escenario de un ataque químico En Vietnam no se ha utilizado la totalidad de las armas y las reservas disponibles; sin embargo, los expertos y científicos consultados por la Organización Mundial de la Salud previeron el caso de que dos potencias en guerra utilicen sus armas químicas. Ellos imaginaron diversas situaciones provocadas por un ataque químico (figura 12). Por otra parte, se pudo evaluar el número de personas expuestas al VX si la línea de ataque está situada a 1 km del centro de una ciudad de 5.000 000 de u n p a í s industrialmente desarrollado: son 150.000. 80.000 morirán antes de que se los pueda


DIRT PILEO ON EDGE OF PONCHO

TUNNEL ENTRANCE UNOER PONCHO

TO INSURE A GOOD SEAL

Figura 6. La "migbty-mite" es una bomba muy potente que permite insuflar en los refugios subterráneos, grutas o túneles, un chorro de aire cargado de polvo de CS a una velocidad de aproximadamente 300 kilómetros por hora. Las dosis masivas utilizadas, así como la extrema velocidad

Agente naranja

púrpura

Composición ester de n-butilo de 2,4D (50) ester de n-butilo de 2,4,5D (50) ester de n-butilo de 2,4D (50) ester de n-butilo de 2,4,5T (30) ester de isobutilo de 2,4,5T (20)

blanco

sal de triisopropilamonio de 2,4D picloram

azul

cacodilato de sodio (27,7) ácido cacodílico libre (4,8) cloruro de sodio agua

de dispersión del polvo, hacen que esta arma sea casi siempre mortal para las mujeres, niños y ancianos ocultos en los refugios y también para los_ guerrilleros desprovistos de máscaras. (Dibujo extraído del Manual antiguerrilla del ejército norteamericano. Documento RDV).

Concentración en equivalente de ácido (g/1)

Tasa de aplicación (kg/lia) Vietnam

USA Defoliación general de bosques, matorrales y plantas de cultivo de hojas anchas.

478,8 421,8

Efectos deseados

30,25

2,24 Defoliación general como la precedente. Producto intercambiable con el agente naranja.

478,8 250,8 171,0 228,0 61,5

6,72

0,56-2,24

Defoliación de los bosques a largo plazo. Defoliación rápida a corto plazo, destrucción de pastizales y arrozales.

353,4

Figura 7. Composición química, tasa de aplicación y efectos de los herbicidas. Datos proporcionados

10,42

5,6-8,4

por los Ministerios de Defensa y Agricultura ae tos Estados Unidos. (Según G. H. Orians y E. W. P f e i f f e r ) .

13


Figura 8. Defoliación en la selva vietnamita. Los herbicidas y defoliantes se convirtieron, en manos de los expertos militares, en armas devastadoras que transforman ios campos en regiones desérticas.

Figura 9. Superficie de selvas defaliadas y cosechas destruidas en Vietnam, según los cálculos de la fuerza aérea norteamericana, citados por Orians y P f e i f f e r (Science, 168, 545, 1970) y por Meselson (Scientific American, mayo de 1970, 22). En Vietnam del Sur, la superficie total de las selvas es de aproximadamente 5,6 millones de hectáreas y la de las tierras cultivadas alrededor de 3,2 millones de hectáreas.

14

SUPERFICIE ( 1 0 0 0 HA)

1962

1963

1964

1965

1966

1967

1968


Figura 10. El gas CS no sólo se utiliza en los socorrer y 35.000 tal vez puedan salvarse si se les campos de batalla; como agente de hostigamiento, se suministra rápidamente atropina y un e n é r g i c o trata- ha convertido en una de las armas principales para Muchos biólogos miento de recuperación. Los restantes 35.000 quiza_ lo- la represión de manifestaciones. gren salvarse gracias a los medicamentos y a tratamien- y médicos han cuestionado su empleo, en razón de sus conocidos efectos secundarios y de los riesgos tos eficaces" (informe del OMS). que puede presentar si se lo utiliza en dosis En un caso semejante, ¿podemos imaginar que se elevadas. Su empleo por parte de la policía parece tener pueda intervenir a tiempo (es decir en p o c o s minutos) efectos más bien contrarios a los esperados, entre decenas de miles de personas inmovilizadas en provocando la exasperación de los manifestantes los embotellamientos provocados con toda segundad y la reprobación general de los testigos. Bureau-Gamma) por el pánico v la muerte de los conductores alcanza- (Foto líenri dos en plena marcha? Los mismos hospitales serian contaminados, los médicos y el personal muertos, ¿be contaría con suficientes salvadores bien equipados? Estos necesitarían, en efecto, escafandras especiales, herméticas, con las que los movimientos y el tamo de En consecuencia, no sería exagerado afirmar que el acción se ven necesariamente limitados. ¿Adonde se- arma química puede ser tan devastadora como la nurían transportadas las personas afectadas y por b tan- clear. ¿Quién la posee? En primer lugar los Estados to portadoras del veneno? La zona afectada serw mor- Unidos y la Unión Soviética, después Gran Bretaña, tal durante un período de 1 a 16 semanas, según las Suecia y probablemente otros países provistos de una condiciones climáticas. Finalmente, el número de muer- industria química y fábricas de armamentos importantos superaría el mencionado en el informe de la ÜMjs. tes, tales como Francia e Italia. Tanto las dos Alema¿Qué hacer entonces con un número tan elevado de nias como Japón podrían, si lo juzgasen necesario, adcadáveres? En realidad, los efectos de un ataque de quirirla rápidamente. Y nadie duda que ciertos países este tipo, lanzado sin embargo con tan pocos medios harían lo posible para fabricarlas de inmediato o por —un solo bombardero, 20 toneladas de bombas— se- lo menos para adquirir la tecnología, aun cuando ello rían verdaderamente aterradores y cabe preguntarse si les signifique la imposición de nuevas privaciones, ya habría realmente sobrevivientes después de una guerra que si bien no se puede comparar con el arma atóreal, en la que no se escatimarían toneladas. El Gobier- mica, su costo es aún relativamente caro. no del país y los órganos superiores de la organización Desde el momento que las armas nucleares, biológiadministrativa podrían contarse entre las primeras viccas y químicas existen y son operativas, debemos retimas y así, de golpe, el país entero se vería sumergido signarnos a analizar los riesgos a los que estamos exen el caos más profundo,

15


dirección

»

| I l

,

Sarín

Sr: 2 KrnJ

VX

del

viento

i

= 6 Km 2

i

¡gfljf

Toxina botúlica

= 12 Km 2 S = 40 Km 2

VX en aerosol 0 distancia S = superficie

5 10 15 de propagación de la niebla mortal

cubierta por

20

vientos de 2,5 m/s

Figura 11. Efectos de un ataque efectuado en un frente de 2 km utilizando hasta 4 toneladas de agentes químicos cuyo lanzamiento exige de 15 a 20 toneladas de proyectiles. Estos se colocan en un frente perpendicular a la dirección media del viento y explotan a nivel del suelo. El aerosol de VX es supuestamente monodisperso y estaría compuesto por partículas de 5 micrones de diámetro. (OMS, 1970.)

puestos, mediante una especie de Kriegspiel, de simulación analógica o de escenario. Del examen de la lista de la OMS y sobre todo de la clasificación militar, se desprende que dominan los agentes letales, seguidos por los agentes de hostigamiento o neutralizantes y un solo incapacitante psicotrópico. Supongamos que dos potencias industrializadas quisieran enfrentarse. La fifura 12 presenta las situaciones posibles. Se puede comprobar que el arma química letal (VX) si bien no es un "arma de papel", no podría servir para mucho en el caso de dos países muy poderosos pero situados a unos 8.000 km uno del otro y de fuerza equivalente. En el mejor de los casos, podría intervenir en una operación de represalia —en el caso de que ninguno de los adversarios posea armas nucleares— para sembrar el terror en el campo enemigo. La situación podría cambiar si A y B fuesen vecinos inmediatos. A podría utilizar neutralizantes y agentes letales, si no sobre las ciudades, por lo menos contra las concentraciones de tropas en el frente. Pero, en realidad, en el mundo actual, habiendo armas atómicas tácticas, el agredido tal vez no quiera perder tiempo en preparar con esmero su respuesta. Lanzará un kilo tón nuclear, tanto más que la opinión pública así lo exigirá por conocer las terribles consecuencias de un ataque químico. Estamos así en el caso de la guerra nuclear. Si B no posee armas nucleares, tendrá un protector que se las proporcionará o ejercerá él mismo las represalias sobre A, rápidamente. De este modo volvemos al caso precedente. Si con el arma química se ha pensado poder permanecer en un grado de violencia aceptable para el adversario y evitar la agravación del conflicto, se ha caído en el error de acunar peligrosas ilusiones. El arma química o biológica servirá más bien como detonador

16

para la gran conflagración final. Nadie duda que en ese caso la humanidad asistirá a su propio fin. En efecto, es necesario recordarlo ya que la opinión pública lo olvida con demasiada facilidad, los Estados Unidos y la Unión Soviética disponen actualmente de 3.854 y 2.155 ojivas operativas, respectivamente y si no interviene ningún acuerdo de limitación ellos habilitarán la red de los MIRV (Múltiple independently targeted reentry vehicle), cohetes cuyas ojivas múltiples pueden dirigirse sobre objetivos diferentes, independientemente unas de otras. Hacia 1975 estas dos potencias poseerán en conjunto 16.559 ojivas, que permitirá destruir un país 66,2 veces más grande que cualquiera de ellas. De esta manera, el arma química y bacteriológica es, por la ley de simetría que rige la carrera armamentista y las respuestas en caso de agresión, tan utilizable como el arma nuclear entre grandes potencias o alianzas equivalentes. Esto es exactamente lo que piensa un gran número de científicos y políticos norteamericanos. Ante la Academia de las Ciencias de Nueva York, reunida el 13 de octubre bajo la presidencia del profesor Meselson, de la Universidad de Harvard, H. Swyter, alto funcionario del Ministerio de Guerra, declaró que una guerra en Europa es sumamente improbable. El concluyó que aparte de las armas letales, que en rigor se podrían conservar como medio de disuasión o de represalias, los Estados Unidos no necesitan ni armas químicas ni bacteriológicas. En la última conferencia de Ginebra, Estados Unidos y Gran Bretaña no desearon suscribirse a la abolición ni a la prohibición del arma química en todas sus formas, aconsejadas por los mismos científicos norteamericanos. Estas dos potencias desean guardarse el derecho de utilizar a voluntad, tanto en sus países como en el extranjero, los lacrimógenos (CS, DM) y los herbicidas. Hay que señalar que son estos justamente los productos utilizados en Vietnam, en condiciones que los hacen mortales. En consecuencia, si los estados mayores así lo consideran y si su oposición en la conferencia de Ginebra fue tan grande, es que en realidad el arma química constituye un elemento importante, si no esencial, de una estrategia moderna sobre la cual el estudio de la historia de los últimos cuarenta años nos proporciona valiosas enseñanzas. Las armas químicas fueron utilizadas, lo hemos visto, en Etiopía y en China. ¿Pía sido casual que en ambos casos los agresores —asociados en una alianza que comprendió la Alemania de Hitler, la Italia mussoliniana y el Japón militarista—• fueran poderosos, mientras que sus víctimas eran países agrícolas atrasados desde el punto de vista industrial? Si consideramos objetivamente la actual guerra de Indochina, nos vemos obligados a reconocer que el arma química está manejada bajo un camuflage semántico por la mayor potencia del mundo contra países también esta vez subdesarrollados, desprovistos de industrias. La "diseminación química" puede ser muy peligrosa para la humanidad; tenemos motivos para creerla aún más peligrosa que la diseminación nuclear. ¿Qué hacer? ¿Qué pueden hacer los científicos del mundo ante el peligro que representan las armas químicas y bacterio-


Ataques de A

Armas disponibles en cada campo AN AN4- AC AC + ICBM AC sin ICBM

» o "O tn ra <u 3 a «cu

AN

AN + AC Ataque por AC (ICBM)

AC y (*'•• ) ICBM

AC sin ICBM (***)

AN

AN (*)

AN (*)

AN

AN

AN (*)

AN (*)

AC (ICBM) o AN

AC?

AC?

AC

AC

O

O

AC (***)

AC (***)

AN = arma nuclear AC = arma química ICBM = cohete intercontinental. (••') El sistema de alerta de B no le permite distinguir si un proyectil es químico o nuclear. (**) Históricamente este caso no tiene sentido, ya que las potencias que poseen los ICBM (cohetes intercontinentales) también tienen armas nucleares. {***) Ataque aéreo o por submarinos, a lo largo de las costas, mediante cohetes de doble alcance. lógicas? ¿Habría que renunciar a toda investigación sobre los productos tóxicos? ¿Habría que denunciarlos? ¿Quién lo hará? Hemos mostrado toda la ambigüedad de la noción de toxicidad en los casos relacionados con el tema. Hemos mostrado también que los productos tóxicos no se convierten en armas bélicas si no es por una decisión no solamente técnica sino esencialmente política. De todo lo dicho se desprende la necesidad de que los investigadores se informen sobre los peligros señalados, que tomen conciencia de su gran responsabilidad ante todos los hombres y que no den como pretexto de su debilidad la necesidad de refugiarse en sus trabajos. La comunidad científica norteamericana, que merece un sincero homenaje, demostró que una acción informativa, determinada y paciente, puede conducir a progresos importantes. El Presidente de los Estados Unidos, después de señalar que ella ayudó al Gobierno a formarse una opinión al respecto, anunció el 25 de noviembre de 1969: 1?) que los Estados Unidos reafirman su renuncia, repetida con frecuencia, al uso de armas químicas letales; 2?) que extienden esta renuncia al uso de los incapacitantes químicos; 3°) que su administración someterá a consideración del Senado la ratificación del Protocolo de Ginebra de 1925, que condena el uso de gases asfixiantes, tóxicos u otros y los métodos de guerra bacteriológica; 4°) que ha decidido que los Estados Unidos renunciará a todas las formas de guerra biológica, letales o no; 5°) que limitarán sus investigaciones a medidas defensivas tales como la inmunización y la seguridad; 6?) que pidió al Ministerio de Guerra proponer la destrucción de las reservas existentes de armas bacteriológicas. Debemos congratularnos por tales intenciones y adherirnos a otra proposición del Gobierno norteamericano, del año 1952, que dice que "las principales garantías contra las armas biológicas —nosotros agregamos las armas químicas— se lograrían mediante un sistema continuo y efectivo de divulgación y verificación de todas las fuerzas armadas y de todos los armamentos", nosotros incluiríamos los centros y programas de investigaciones y los campos de ensayo. La ONU, que ya ha trabajado en este sentido, debería encargarse de dichas verificaciones, ella debería también centralizar la

Figura 12. Situaciones hipotéticas de una guerra química. "A" ataca con las armas de que dispone (arriba); las posibles respuestas de "B" están indicadas en las casillas inferiores. Se supone que la distancia del centro de A al centro de B es de 8.000 km.

documentación y publicarla. Y una de las medidas más útiles, una de las demostraciones más convincentes del retorno a la razón, sería la detención definitiva —y no la simple suspensión— del uso de productos fitocidas y del empleo de los incapacitantes en Indochina, Además, nos gratificaría enormemente presenciar el día en que todas las naciones prohiban, sin ninguna reserva, la fabricación, el almacenamiento y la utilización de armas químicas y biológicas. En este mundo armado hasta el exceso de artefactos de muerte y de destrucción masiva, la paz depende, es necesario repetirlo, del esfuerzo de cada uno. La comunidad científica no debe avergonzarse de experimentar un sentimiento de solidaridad humana, sólo porque sea irracional. Debemos reafirmar, con el profesor Monod que "lo más valioso y grande de la ciencia reside en la ética que es su fundamento. ( . . . ) La ciencia es ante todo una actitud moral".O Lecturas sugeridas Nigel Calder, Les armements modernes, Flammarion, 1970. General Ludendorf, La guerre totale, Flammarion, 1936. Naciones Unidas, Las armas químicas y bacteriológicas (biológicas) y los efectos de su eventual utilización, N? A 7575/Rev. 1, Nueva York, 1969. M. S. Meselson, Scientific American, 222, 22, 1970. S. Franke, Lehrbuch der Militarchemie, Deutscher Militarverlag, Berlín, 1967. A. Albert, Selective íoxiáty, cuarta edición, Methuen, Londres, 1968. G. H. Orians y E. W. Pfeiffer, Science, 168, 545, 1970. M. S. Meselson, G. Bunn, H. Swyter y E. L. Bennett Jr., "A symposium on chemícal and biological warfare", Proc. Nat. Acad. ScL, 65, 250-279, 1969. J. Cookson y J, Nottingham, A survey of chemical and biological ivarfare, Sheed y Ward, Londres, 1969.


Humor

la

Julio Moreno


ÜKÍ'"

El agua líquida. Roberto Fernández Prini

1 /

¡ •j

¿Conocemos bien el agua? Esta pregunta puede parecer sorprendente. Sin embargo, el gran número de investigaciones realiza' das y en curso de realigación sobre su estructura y sus propiedades, indica que aún tenemos mucho que aprender sobre esta sustancia fundamental para la vida sobre la Tierra.

3

Roberto Fernández Prini es Doctor en Química de la Facultad de"Ciencias Exactas de la UBA y recientemente realizó investigaciones sobre soluciones acuosas en el Departamento de Química de la Universidad de Maryland, EE.UU.

Debido al papel fundamental que el que muchas de las propiedades que agua desempeña en los procesos bio- manifiesta el líquido agua no son lógicos y en muchos procesos tecno- comunes a otros líquidos que se delógicos, se ha dedicado un esfuerzo nominan simples o normales. El agua mayor a su estudio que al de ninguna es Ja única sustancia en estado líquiotra sustancia. Los alquimistas acep- do con que estamos familiarizados a taron el concepto aristotélico de los través de la experiencia diaria. Esto cuatro elementos que forman la ma- seguramente contribuye a dificultar teria y explican sus transformacio- la comparación de sus propiedades nes: uno de estos elementos era el con las de otros líquidos. agua, Podría parecer que el agua es La más conocida propiedad anóuna sustancia que no concita interés mala del HaO es que el sólido (hiecientífico en un siglo como éste, ca- lo) tienen a la temperatura de fusión racterizado por tan vertiginoso ade- (0°C) una densidad menor que la lanto científico y tecnológico. Sin del H « 0 líquida ( a g u a ) . La figura 1 embargo, este líquido tan común ilustra la variación ele densidad del muestra características muy peculia- hielo y del agua líquida con la temres. Recién en 1933 se propuso el peratura. Que el hielo flote en el primer modelo del agua líquida y agua y que al congelar agua dentro ello significó un gran avance en nues- de un recipiente cerrado muchas vetro conocimiento de tan importante ces éste reviente, son dos obvias consecuencias del anormal aumento de compuesto. volumen que sufre el agua al congeEn nuestros días el elevado nú- lar (a 0°C el volumen molar del mero de trabajos científicos que se hielo es 19,6 cm3 y 18,0 cm 3 el del publica anualmente y que trata sobre agua). Aunque menos obvia, tampropiedades del agua o de soluciones bién ésta es la causa de la facilidad acuosas, es un claro índice del inte- con que se puede patinar sobre el rés que el tema despierta hoy en los hielo así como del fenómeno conocientíficos y del ñúmero apreciable cido como resolidificación del hielo. de problemas que no están aún com- Si apretamos fuertemente dos trozos de hielo uno contra el otro y luego pletamente dilucidados. dejamos de presionar, ambos trozos En esta nota sólo nos referiremos permanecerán unidos. Lo que ocurre al agua pura dejando de lado el im- es que al ejercer presión sobre el hieportante capítulo de las soluciones lo (con el filo de ios patines o con acuosas. La reciente descripción del otro trozo de hielo), la fase menos agua anómala o poiiagua, no convie- voluminosa (agua líquida) se estabine incluirla en un mismo contexto liza respecto de la más voluminosa. con el agua común, debido a sus cu- En consecuencia, la temperatura de riosas propiedades y a su controver- fusión del hielo disminuye y el sótida existencia. lido comienza a fundir. Al quitar la presión, la temperatura de fusión vuelve a ser 0°C y el líquido for¿Es un líquido normal? mado se congela. Este hecho está cuantitativamente expresado por la En general se afirma lo contrario. relación termodinámica de ClapeyEl agua es "anormal" en el sentido

19


Figura 1. Variación de la densidad del hielo y del agua liquida con la temperatura. Figura 2. Variación de la viscosidad del agua con la presión, a la temperatura de 10°C.

Temperatura ( S C)

ron que para el equilibrio de fusión se puede escribir: d (presión) d (temp. fusión)

._

df

_

Unión hidrógeno En la molécula de agua, el ángulo

AH/

dTf ~ TfÁVf

donde AH/ es el calor latente de fusión del H 2 0 y AV/ el cambio de volumen que acompaña este proceso. Como en este caso AH/ es positivo y AV/ negativo, un aumento de presión produce una disminución en la temperatura de fusión del H2O. En general los líquidos simples son más viscosos cuanto mayor es la presión que soportan. El agua, sin embargo, a temperaturas menores de 30 °C disminuye de viscosidad al aumentar la presión (figura 2). La compresibilidad del agua también es anómala pues presenta un mínimo a 45°C, y sólo después de alcanzar esta temperatura la compresibilidad aumenta en el agua líquida al ser calentada, como ocurre en los líquidos simples. También se observan anomalías en las propiedades térmicas del agua. Su punto de ebullición y su calor latente de vaporización (9,7kcal. por mol.) son mucho mayores que lo esperado. Al fundir el hielo la capacidad calorífica del HaO prácticamente se duplica.

20

Px10" 3 Atm.

O

/

H es de 105° en el vapor y 109°

\ H

(el ángulo tetraédrico) en el sólido. Debido a la electronegatividad del átomo de O, los electrones involu-

V K /

1

5+ '•..'-. \ 5 + O

Oxígeno

#

Hidrogeno

Figura 3. Estructura de la molécula Hs0.

erados en las uniones O—H están desplazados hacia el oxígeno. Por otra parte, el oxigenó tiene dos pares de electrones solitarios (que no intervienen en las uniones químicas), fundamentalmente localizados en un plano perpendicular al plano H O

/

\

(figura 3). La molécula de

H HaO tiene por lo tanto un momento dipolar permanente de 1,84 X 10"1S ues. cm. Cuando la concentración de moléculas de HaO aumenta, aún en fase gaseosa, la interacción entre los dipolos de moléculas vecinas contribuye significativamente al valor experimental del segundo coeficiente de virial del vapor de agua; este coeficiente manifiesta las primeras desviaciones de los gases de la idealidad. En el líquido y en el sólido la gran proximidad entre las moléculas produce una interacción intermolecular mucho más fuerte que en el vapor. Esta ya no puede explicarse por interacciones entre los dipolos moleculares; en la orientación más favorable de los dipolos (un caso poco real pero que sirve para


•i•"ísk-SP;/-

5SSÍBÍ

4

O £

ra o

c

'O o ra "CZ

H,0

to

o a

ra >

o "D O ra O

-T-

i o Of -o 'o

2

—— j

3

—r

Período

4

100 TeH2

0-

SbH 3

IH

XI

SnH 4

a>

| -100 £ "i

2

Figura 4. Comparación entre las temperaturas de ebullición y los calores de vaporización de bidruros de elementos pertenecientes a distintos grupos de la tabla periódica.

r

3

Período

fijar una cota máxima a la energía dipolar) las interacciones dipolares harían esperar un calor latente de sublimación de 2 kcal. por mol. Este valor es mucho menor que el experimental de 12 kcal. por mol. Esta diferencia energética se atribuye a la presencia de uniones hidrógeno entre las moléculas de HaO. La existencia de uniones hidrógeno fue postulada en 1920. Bragg, en 1922, infirió de diagramas de rayos X que en el hielo debía haber uniones hidrógeno del tipo -O-H . . . O(el trazo lleno representa uniones covalentes, el punteado uniones hidrógeno ). Para que se formen uniones hidrógeno del tipo -X-H.. .Yes necesario que X e Y sean átomos muy electronegativos. Las uniones • hidrógeno típicas son aquellas en que X e Y son átomos de flúor, oxígeno o nitrógeno. En términos elec-

^-í'^is-f-i»,!^

trostáticos puede decirse que la unión hidrógeno se forma porque hay un déficit de electrones sobre el átomo de hidrógeno unido covalentemente al átomo electronegativo X. Es decir, la unión X-H está polarizada, Al acercarse otra molécula con el átomo electronegativo Y, el H es atraído hacia Y; cuando ambos átomos están suficientemente cerca se forma la unión hidrógeno. En el agua la unión - H . . . O- es tal que el H está más cerca del oxígeno al que está unido covalentemente. Cada unión hidrógeno involucra una energía de entre 2 y 6 kcal. por mol. de uniones hidrógeno rotas. Por lo tanto son bastante más débiles que las uniones típicamente químicas, pero más fuertes que las interacciones electrostáticas entre dipolos. El efecto de la formación de uniones hidrógeno sobre las propiedades físicas de las sustancias se manifiesta claramente al comparar una serie de sustancias con átomos de un mismo grupo de la tabla periódica (Figura 4). Las temperaturas de fusión y ebullición, y los calores latentes de vaporización de los hidruros, disminuyen en general al disminuir el peso del átomo central dentro de un grupo dado. Sin embargo, los hidruros de los primeros miembros de cada serie, excepto el metano, tienen valores mucho mayores de estas propiedades que las que cabría esperar en base a sus pesos moleculares, Justamente son los elementos que encabezan cada grupo los que cumplen con las condiciones de electronegatividad requeridas para la formación de uniones hidrógeno. El C que encabeza el grupo IV no presenta anomalías porque este átomo no es lo suficientemente electronegativo. La estructura del hielo Como ilustra esquemáticamente la Figura 3, el oxígeno del HaO puede considerarse en el centro de un tetraedro con los H en dos de sus vértices y los dos pares de electrones no compartidos dirigidos hacia los otros dos vértices del tetraedro. Esta configuración permite que cada molécula de H2O participe de cuatro uniones hidrógeno: donando sus dos hidrógenos a otras tantas moléculas y aceptando dos hidrógenos de moléculas vecinas.

21


n p f , P f o c e s o d e formación de uniones hidrogeno entre un número ca-

tn-rde

moiécuias de

üata l u g a i a una estructura tridimensional donde cada H>0 está en el centro de un tetraedro'cuyos vértices están ocupados por moléculas a e agua que forman uniones hidrógeno con la central. La Figura 5 ilustra la estructura cristalina del hielo. Debido a que dos uniones hidrogeno deben romperse por molécula para sublimar el hielo, la existencia de uniones hidrógeno en el hielo explica el gran calor de sublimación del H2O. Como muestra la Figura 5, la estructura cristalina del hielo es muy "abierta". Cada molécula tiene sólo cuatro vecinos inmediatos (o primeros vecinos), mientras que en una estructura cristalina con máximo empaquetamiento, cada molécula tiene 12 primeros vecinos. Para una red cristalina con máximo empaquetamiento, las partículas (consideradas esféricas) acupan el 75 % del volumen total de la estructura. Por otra parte, sólo el 50 % del volumen de una red cristalina tetraédrica está ocupada por sus partículas. Una importante característica de la estructura cristalina del hielo es la existencia de cavidades que forman canales a lo largo de la red cristalina. Las cavidades están comunicadas a través de anillos hexagonales como el a, b, c, d, e, f en la Figura 5, y tienen un radio de 3 . 5 A ( l A = 10-° metro). La distancia entre dos HjO vecinas en el hielo es de 2 . 7 8 A . La estructura cristalina abierta del hielo ( q u e corresponde a la variedad cristalina del SiOa conocida como t r i d i m i t a ) , explica su baja densidad. La e s t r u c t u r a d e l agua ¿Cuál es la estructura del agua líquida? A pesar del enorme esfuerzo dedicado a esclarecer este problema, aún no está resuelto aunque mucho se ha avanzado hacia el establecimiento de la estructura del agua l í q u i d a . En 1 8 9 2 Rontgen propuso una explicación de las propiedades anómalas del agua. Para ello, supuso que el agua era en realidad una solución de moléculas con la estructura intermolecular presente en el hielo disueltas en agua líquida (moléculas de H a O sin a s o c i a r ) . Este modelo cualitativo lia sido reformulado de-

22

Figura 5. Estructura del hielo.

cristalina

talladamente por distintos autores y hoy forma la base de los modelos de mezcla para el agua líquida. El alto punto de ebullición del agua y su gran calor latente de vaporización permiten inferir que en el líquido todavía existe un gran numero de uniones hidrógeno entre las moléculas. Para vaporizar agua es necesario romper estas uniones intermoleculares. Debido a las evidencias que indican que en el agua líquida persisten en gran medida las uniones hidrógeno existentes en el hielo, es que muchos modelos suponen la presencia de estructuras cristaloides en el líquido, Esta especulación está fundamentalmente basada en los resultados obtenidos mediante experiencias de difracción de rayos X por el agua. •Esta técnica permite calcular la función de distribución radial g ( R ) de las moléculas de agua. Si R es la distancia en el líquido desde una molécula central dada, el número medio de moléculas, dn, en el casquete esférico de radio R y espesor dR es

¿« = 4nR 2^(R)

dR

£0 es la densidad de partículas en el seno del líquido y g ( R ) la función de distribución radial. Cuando las moléculas están distribuidas al azar g ( R ) = 1 y la densidad del líquido a cualquier distancia de la molécula central es %0: la distribución de las moléculas es homogénea. En general en un líquido es g ( R ) = 1 en los casquetes esféricos muy alejados de la molécula central. Las características de g ( R ) dependen del

tamaño y forma de las moléculas así como de las energías intermoleculares que están en juego. En un líquido, donde las moléculas tienen gran movilidad, es lógico que al alejarse de una molécula central, la influencia de ésta sea cada vez menor. Potes to g ( R ) se hace igual a la unidad para valores de R grandes. Sin embargo en las cercanías de la molécula central g ( R ) 1. Valores de g ( R ) mayores que la unidad indican una densidad local mayor que l 0 y lo opuesto es válido para g ( R ) < 1 En un sólido cristalino (como por ejemplo^ el hielo), las posiciones de las moléculas están relativamente fijas por el tipo de red cristalina que caracteriza al sólido. En un líquido, las moléculas tienen gran movilidad y esto hará que se pierda en gran medida el orden existente en el cristal. La Figura 6 muestra el valor calculado de g ( R ) en función de la distancia a una molécula central para H s O a 25°C. Como adelantáramos, a grandes distancias g ( R ) se aproxima a un valor unitario. En las regiones más cercanas a la molécula central, sin embargo, g ( R ) es distinta ele la unidad lo que demuestra que existe un cierto grado de orden (orden de corto alcance). El primer máximo de g ( R ) corresponde a la distancia donde se encuentran en promedio los primeros vecinos (2.8 A ) que es muy cercana a la distancia entre primeros vecinos en el hielo. El segundo máximo se encuentra a una distancia similar a la de los segundos vecinos en el hielo. En el líquido hay en promedio 4,4 primeros vecinos, lo que implica un 10 % de aumento respecto a los 4 vecinos en la estructura tetraédrica del hielo. Es por lo tanto evidente que el orden de corto alcance observado en el agua es reminiscente de la estructura cristalina del hielo. Una diferencia entre ambos se manifiesta en la existencia de un pequeño máximo a 3.5 A en el líquido que está ausente en el sólido. Los modelos de mezcla Bernal y Fowler (1933) basándose en experiencias de difracción de rayos X, elaboraron en detalle un modelo de mezcla para el agua. Imaginaron que el agua está constituida por un componente con estructura cristalina de simetría tetraédrica y un componente formado por mole-


La fluidez del líquido aumentará con la fracción de moléculas de HaO libres (especie B ) , pues la especie A por sus características cristalinas debe ser muy rígida. Resulta lógico entonces, que un aumento de presión que estabiliza a la especie B, lleve a una disminución de la viscosidad del agua. Por último, el gran calor específico del agua se debe al hecho de que para elevar su temperatura 110 sólo hay que entregar energía para aumentar la agitación térmica de las moléculas, sino que además es necesario romper uniones hidrógeno debido a la existencia del equilibrio (I). Hasta aquí los modelos de mezcla parecen explicar satisfactoriamente la estructura y propiedades del agua. Sin embargo estos modelos son excesivamente rígidos para un líquido. Medidas de relajación dieléctrica y de relajación estructural (ultrasonido), indican que cualquier equilibrio que exista en el agua pura debe establecerse muy rápidamente (el tiempo de relajación del equilibrio ( I ) debería ser menor que ÍO"11 segundos a 2 5 ° C ) .

Figura 6. Valor de la función de distribución radial en el agua, g(R)¡ en función de la distancia R a una molécula H-¿0 central, a la temperatura de 25°C.

culas de HaO libres (que no participan en uniones hidrógeno). , Frank y Evans (1945) postularon un modelo de mezcla muy pictórico que describía al agua líquida como teniendo témpanos de hielo en el seno de un fluido formado por H 2 0 libre. Este modelo fue especialmente utilizado para explicar ciertas propiedades de las soluciones acuosas. Estos modelos de mezcla son capaces de explicar en parte las anomalías observadas en el agua. En esencia, los modelos de mezcla consideran que en el agua existe un equilibrio entre dos o más especies de moléculas de HaO que son estructuralmente distintas. El equilibrio puede representarse esquemáticamente por: A^B

(I)

A denota una estructura de tipo cristalino, voluminosa y en general similar a la del hielo, donde las moléculas participan extensamente de enlaces hidrógeno. B denota la especie densa o compacta representada por moléculas libres de H 2 0 sin uniones hidrógeno intermoleculares. Al proceder el equilibrio ( I ) , de izquierda a derecha, se produce una disminución en el volumen del sis-

tema y en el número de uniones hidrógeno presentes. El equilibrio ( I ) es sensible a variaciones de presión y/o temperatura (así como a la presencia de solutos). Estas variaciones perturban el equilibrio de acuerdo a las características del proceso según el principio de Le Chatelier. U11 aumento de presión desplazará el equilibrio ( I ) hacia la derecha, favoreciendo la especie menos voluminosa. En la misma dirección se desplaza el equilibrio al aumentar la temperatura: se rompen enlaces hidrógeno. _ Cerca de 0°C prepondera la especie A. Al calentar el líquido tienen lugar simultáneamente dos efectos: a ) la especie cristalina se dilata, b ) el equilibrio ( I ) se desplaza hacia la formación de B que por ser más densa produce una disminución del volumen del sistema. Hasta los 4°C predomina el segundo efecto v el resultado del incremento de temperatura será una reducción del volumen del líquido. A temperaturas mayores predomina el primer efecto, y el agua se dilata al ser calentada. Así se explica que el agua tenga máxima densidad a 4°C y que su comprensibilidad disminuya con la temperatura.

Frank y W e n ( 1 9 5 7 ) extendieron el modelo de los témpanos imaginando un proceso dinámico para el establecimiento del equilibrio ( I ) . El componente voluminoso fue designado con el nombre de cúmulo oscilante (flickering cluster). Las moléculas que forman parte de los cúmulos están unidas entre sí por uniones hidrógeno; la simetría de la especie es tetraédrica pero no tiene ya por qué parecerse a un trozo de hielo. La propiedad más novedosa asignada a estos cúmulos es su capacidad de formarse y romperse muy rápidamente de acuerdo con un mecanismo cooperativo. Debido a que la formación de una unión hidrógeno entre dos moléculas produce una delocalización de los electrones involucrados en la unión, la formación de una segunda unión hidrógeno se vería facilitada y así sucesivamente. La primera unión hidrógeno dispararía un proceso de formación de nuevas uniones hidrógeno alrededor de la primera y así se generarían los cúmulos. De manera análoga la ruptura de una unión hidrógeno-en el cúmulo desencadenaría la ruptura de todo el cúmulo. El esquema de formación y ruptura del cúmulo es el siguiente:

23


•„ O

H

„ H 4 - O -I I x o

H H H H ^ O — H . • • O — H + O—H ^

La existencia del efecto cooperativo en !a formación d e uniones hidróg e n o no esi.í ;iún totalmente establecida, pero recientes estudios teóricos í Pople y DelHene, .1970) parecen c o n f i r m a r l a , p o r lo menos en grupos d e hasta seis moléculas d e agua, El modelo d e los cúmulos oscilantes í a e tratado c u a n t i t a t i v a m e n t e p o r Nérnethy y Seheraga ( 1 9 6 2 - 6 4 ) y tuvo protunda influencia en las ideas q u e s e manejaron en q u í m i c a d e soluciones acuosas, especialmente en sus aspectos biológicos. E n Jos últimos años el e n o r m e r e f i n a m i e n t o d e las técnicas experim e n t a l e s (dispersión inelástica d e neutrones, espectroscopias infrarroja y Raman, rayos X ) ha p e r m i t i d o p o n e r en duela la existencia d e agreg a d o s moleculares discretos en e l •agua líquida. El agua no parece form a d a por distintas especies p u e s t o q u e e x p e r i m e n t a l m e n t e no se observ a n microrregiones heterogéneas e n el líquido,

26

El modelo intersticial Pople (1951) propuso un modelo continuo para el agua líquida. Al pasar de hielo a agua (o cuando ésta se calienta), las características estructurales del hielo se conservan, pero las uniones hidrógeno se deforman doblándose, lo que permite así a algunas moléculas ocupar parte de las cavidades vacías existentes en el hielo.

El último tipo de modelo propuesto para el agua que analizaremos es el modelo intersticial, formulado detalladamente por Samoilov ( 1957). Este modelo ha concitado mucha atención en los últimos años, especialmente por no tener características que estén en abierto conflicto con los resultados de las medidas experimentales más recientes . Samoilov observó que el hielo no es el único sólido que al fundir se contrae. Esto es común también a elementos que, como el galio, bismuto y germanio, tienen estructuras cristalinas abiertas con un número de primeros vecinos menor que 10. Según Samoilov la disminución de

H H H O - H . .. O - H . . . O - H

volumen que se produce al fundir el hielo sería una propiedad común a la fusión de otros sólidos, a condición que sus cristales correspondan a estructuras abiertas. Si se dispone una serie de esferas rígidas en una estructura que corresponda al máximo empaquetamiento y el volumen de la estructura es V», al agitar el sistema (equivalente mecánico de aumentar su temperatura) se desordenara la estructura y el volumen resultante V será necesariamente mayor que V„. En cambio si las esferas se ordenan en una estructura abierta (por ejemplo tetraédrica), al agitar el sistema algunas esferas irán a ocupar los huecos que quedaban en la estructura primitiva. Si la agitación no es excesivamente brusca, V > V 0 ; al aumentar la agitación V aumenta llegando eventualmente a sobrepasar V„. El modelo intersticial propuesto por Samoilov es capaz de explicar casi todas las anomalías del agua. En este modelo el agua se imagina como poseyendo la estructura del hielo aunque algo desdibujada debido a la agitación térmica y al gran movimiento de las moléculas en el líquido. La estructura tiene defectos, pues algunas moléculas pueden pasar de los sitios que ocupaban en la red cristalina a las cavidades que existen en el cristal. Esto explica el gran aumento de capacidad calorífica al fundir el hielo porque las moléculas intersticiales que aparecen al fundir pueden rotar libremente debido a que no tienen uniones hidrógeno con otras moléculas. Puede pensarse que en el modelo intersticial el componente más voluminoso de que hablan los modelos de mezcla es la red cristaloide que domina todo el líquido; las partículas intersticiales constituyen el componente más denso. Hay sin embargo una diferencia esencial entre el modelo intersticial y el de mezcla. En el primero no existen agregados moleculares que puedan caracterizarse como especies distintas. En realidad el modelo intersticial es más bien un caso extremo del-modelo de Pople: hay uniones hidrógeno tan deformadas que permiten a algunas moléculas penetrar totalmente en las

cavidades y debido a su gran deformación puede considerarse que la unión hidrógeno está rota. El modelo de Samoilov explica en forma muy natural el máximo observado a 3,5 A en Ja función de distribución radial que no existe en el hielo. A esta distancia se encuentran los centros de las cavidades existentes en el hielo, las que serían parcialmente ocupadas por HaO intersticial al fundir el sólido. A este fenómeno también se debe el hecho que al fundir el hielo, el número de primeros vecinos de una molécula de IdaO aumente un 10 %. Hacia un mejor conocimiento del agua Aún hoy tienen vigencia los dos tipos de modelos descritos: modelos de mezcla y continuos (incluyendo el intersticial). Los primeros representan un extremo que corresponde a un punto de vista químico, mientras que los modelos continuos representan el punto de vista físico; en buena medida esto se refleja (con excepciones) en la aceptación que entre químicos o físicos tienen los distintos modelos. Ambos puntos de vista están cada vez más cerca y en muchos casos las diferencias parecen fundamentalmente semánticas y son importantes en cuanto al detalle de las propiedades del líquido. La diferencia yace en la respuesta a la pregunta: ¿Cuándo pueden considerarse dos moléculas de una sustancia que están en distintos ambientes moleculares como dos especies distintas? De cualquier manera, hay dos características fundamentales que deberán estar presentes en todos los modelos que se propongan para el agua. Debido a la presencia de uniones hidrógeno la estructura del agua líquida debe tener básicamente una simetría tetraédrica, como fue señalado por Bernal y Fowler. Las uniones hidrógeno pueden deformarse (Pople) haciendo que los tres átomos que la forman puedan desviarse de la linealidad sin que ello implique necesariamente la ruptura de la unión hidrógeno. O


FATE presenta la primera calculadora electrónica creada en el país: CIFRA 311. ÍÉfllfB

^HHHpHMB

MiPiÉÍOTSiffi

Fate - División Electrónica presenta al pais CIFRA 311, la solución con que ingenieros y técnicos argentinos respondieron a las exigencias de precisión y caudal de cálculo de las empresas modernas. CIFRA 311: Mayor potencialidad operativa.

Manejo expeditivo, inspirado en el orden lógico de pensamiento del operador. Lógica de circuitos integrados de 3a generación. Memorias con circuitos Integrados de 4a- generación. Total prevención electrónica de errores.

25


Responsabilidad ética y social del científico Mischa Cotlar

La horrible matanza desatada durante las dos guerras mundiales a causa del uso de la ciencia y la tecnología para fines bélicos, ha producido un fuerte movimiento de opinión acerca de la responsabilidad social del científico. Así los acontecimientos de la Primera Guerra Mundial provocaron las declaraciones y estudios de A. Einstein, G. N i c o l a i B . Russell y la formación de importantes asociaciones de intelectuales y pacifistas, como la Internacional de los Resistentes a la Guerra, cuyos trabajos han traído mucha claridad sobre los horrores, mentiras e inmoralidades de las guerras y sus orígenes en los grandes intereses creados de naciones o grupos poderosos, en los particularismos refractarios de pequeñas naciones y en las pasiones de los individuos. La reacción a la Segunda Guerra Mundial fue más fuerte aún y desde 1948 se está propagando en forma ininterrumpida e intensa una corriente de inquietud por la responsabilidad ética y social de los científicos, propulsada por las declaraciones de

Mischa Cotlar fue profesor titular en la Facultad de Ciencias Exactas de la Universidad de Buenos Aires, de 1957 a 1966. Fue profesor visitante en las universidades de Niza, Chicago, Rutgers y Washington, y presidente de la Asociación por la Responsabilidad Social del Científico de Buenos Aires.

26

les perfilan justamente los científicos. En efecto, los científicos y los universitarios en general, tienen una responsabilidad especial pues son los depositarios de los incalculables tesoros de la cultura. Por lo tanto ellos deben ser los guardianes y divulgadores de ese patrimonio, o sea han de ser los maestros de los pueblos. Así, si los gremios obreros han sido capaces de paralizar más de una vez las actividades en algunas metrópolis para lograr aumentos de sueldos y mayores seguridades, también podrían por ese mismo medio impedir la construcción de bombas y de armas de todo tipo. Pero no podemos esperar tal actitud de parte de los obreros mientras los científicos no den primero el ejemplo en forma clara y terminante; del mismo modo que no podemos responsabilizar al peón por el derrumbe de un edificio sino al ingeniero, de cuya conducción depende la estabilidad del mismo. Por eso los científicos que no se manifiestan claramente contra el uso de la ciencia para fines bélicos, contra la carrera armamentista, contra todas las formas de agresión, irracionalidad, violencia, censura, control ideológico o represión contra estudiantes, intelectuales u obreros por parte de los grupos de poder, asumen frente a la colectividad una gran responsabilidad que no pueden esperar eludir. Como dijera Einstein, "el individuo no puede justificar sus actos por el hecho que ellos le fueron dictados por su Gobierno o la sociedad; en los juicios de Nuremberg se consideró como evidente la idea de que la presión externa puede tan sólo limitar, hasta cierto punto, pero nunca eliminar la responsabilidad individual" (Einstein, Science, 1 E. Relgis, George F. Nicolai, BueDec. 1950). nos Aires, 1965.

A. Einstein, B. Russell, L. Pauling y los 52 laureados Nobel, por los trabajos de la Conferencia de Pugwash, por asociaciones como la Federación de Trabajadores Científicos, la Society for Social Responsability in Sciencie o la Boston Area Faculty Group, por publicaciones como el Bulletin of the Atomic Scientists y New University Thought, por los esfuerzos de científicos e intelectuales como Max Born, Joliot-Curie, C. Powell, J. Bernal, L. Szilard, A. Szent Georgi, Laurent Schwartz, S. Smale, N. Wiener, C. Coulson, E. Fromm, N. Chomsky, J. P. Sartre y por un gran número de grupos universitarios. No será exagerado afirmar que si un número suficientemente grande de investigadores y profesores llegan a compenetrarse con los propósitos de esta corriente y a traducir su comprensión en actos adecuados, podría producirse uno de los cambios más importantes de la historia de la humanidad. Sin embargo, las dificultades que deben vencerse para que esto ocurra, son de una naturaleza totalmente diferente a las que suelen presentarse en la ciencia. El problema de la responsabilidad de los científicos es tan solo un caso particular del problema fundamental de la humanidad: la responsabilidad ética del hombre y la comprensión plena de las raíces de la violencia en el mismo. La ética, como la inteligencia, está latente en la naturaleza del hombre, pero su necesidad no puede demostrarse. Tan sólo se puede ayudar a despertarla señalando los catastróficos efectos de su ausencia que han producido un triste panorama, cuyas líneas principa-


Los males de la indiferencia Muchos males se hubieran evitado si no fuera por la indiferencia o polla autocensura de intelectuales y científicos. Quien pasó por la escuela y la universidad no puede decir que desconoce las causas reales de las guerras o los motivos que mueven a gobiernos para deformar las mentes o controlar el pensamiento. Un médico no puede desinteresarse por la salud mental del pueblo y quedar indiferente a manifestaciones brutales de represión o torturas de estudiantes, obreros y colegas universitarios. En esta época singular, todas las energías, todos los descubrimientos, todas'las capacidades son usadas, directa o indirectamente para la guerra y la existencia misma de la humanidad está seriamente amenazada a causa de tal uso. Por consiguiente ningún trabajador científico puede despreocuparse totalmente de estos problemas alegando que su trabajo particular no tiene que ver con organizaciones o fines bélicos. El desarrollo bélico moderno sólo puede ser conducido por físicos, químicos^ ingenieros que poseen el más alto nivel de conocimiento, mientras que la importancia para la guerra de la estrategia militar clásica, o de los militares profesionales, es ahora insignificante.

que sólo benefició a algunos sectores interesados en el lucro. En los años que siguieron, el enorme progreso de la ciencia ha devuelto la fe en la actividad científica. Es así que durante el período 1920-1945 el estudioso y el investigador sólo se pre- • ocupaban por la verdad científica "en sí", con plena fe en que las ¡ aplicaciones de la ciencia harían más feliz al mundo. Pero bien pronto ¡ quedó claro cuánto peligro puede ! presentar el uso de la ciencia por hombres que no lian profundizado los problemas éticos. Cuando el nazismo estaba en su : apogeo en Alemania y el resto del mundo vivía en el terror de ser sub- [ yugado por Hitler quien abiertamen- j te sostenía una ideología contraria a los principios humanitarios, una gran parte de los científicos alemanes, no ¡ sólo no se pronunciaban entonces en > contra del hitlerismo, sino que tra- 1 bajaban febrilmente para lograr su victoria, participaban en la persecu- j ción de científicos judíos o polacos ¡ y hasta usaron a sus colegas extran- | jeros para experimentos en sus labo- ; ra torios. ¡ Los científicos alemanes y europeos que se refugiaron en los Estados Unidos, convencieron a Einstein de escribir una carta al Presidente Roosevelt para advertirle sobre el Al servicio de la guerra peligro de que Alemania se adelanPor otra parte la ciencia confiere un tara en la construcción de la bomba poder extraordinario que puede usar- atómica. Se movilizaron entonces tose para solucionar los problemas del dos los recursos científicos y técnihambre, enfermedades e ignorancia, cos imaginables y se logró construir pero que también puede ser puesto el primer reactor nuclear antes que al servicio de las fuerzas degradantes Alemania. Szilard y un pequeño grude la irracionalidad y del crimen. po de científicos encabezados por 'El mal uso que se hizo de la ciencia J . Franck, advirtieron al Presidente en lo que va del siglo es realmente y al Secretario de Guerra sobre los deplorable y alarmante. Por penoso peligros de un mal uso de la bomba que sea es necesario recordar algu- recién construida. Pero un grupo nos hechos a este respecto, por su- mucho más numeroso de científicos, puesto no con intención de menos- técnicos, políticos y militares los precio o de hacer acusaciones por convencieron de que debían hacer faltas de las cuales somos todos res- explotar la bomba sobre ciudades ponsables, sino para una mejor com- japonesas. Esta decisión suele justificarse diciendo que ella aceleró la prensión del problema. terminación de la guerra salvando En 1914 se produjo la primera así la vida de centenares de miles gigantesca colaboración entre hom- de soldados de ambos bandos. Sin bres de ciencia y las fuerzas de la embargo se' ha sacrificado, en la fordestrucción. Paralelamente a los ejér- ma más espantosa, a otros tantos citos se han enfrentado, además, emi- centenares de miles de civiles y lo nentes intelectuales, científicos, es- peor es que no hubo ninguna nececritores, y hasta militantes socialistas, sidad de arrojar la bomba sobre ciuglorificando la matanza en nombre dades densamente pobladas, pues de un nacionalismo estrecho, mien- hubiera bastado con una demostratras que los sacerdotes bendecían ción en un área desierta. Si los cienlos cañones. Sin embargo bien pron- tíficos no hubieran estado de acuerto quedó claro que se trataba de la do con la decisión de los políticos guerra más estúpida e injustificada

o L. Pauling, nos han dado tantos hombres de valor. No se debe confundir la renuncia a la violencia, que es no dañar, con la indiferencia que puede ser causa de grandes daños y cómplice de la violencia. Y por supuesto no se debe confundir el verdadero sentido de palabras como violencia, paz, etc., con el sentido desfigurado que suele dárseles cuando se llama violencia a actos de protesta de universitarios que se organizan en manifestaciones o interrumpen el tránsito mientras no se considera violenta la matanza de millones de seres humanos con bombas de napalm o por el hambre, o las represiones de la policía o de la censura. Sin embargo, los errores acumulados a "través de los siglos, hacen que los gobiernos y sociedades presionen para que las universidades se limiten a producir en masa especialistas estrechos con enorme capacidad técnica para fabricar armas y artículos de consumo, y para que no cuestionen aquellos aspectos de la sociedad que contradicen a los preceptos culturales. Esta es tal vez una de las causas principales de la creciente hostilidad hacia los estudiantes y universitarios conscientes que se observa ahora en todo el mundo.

Por eso es inconcebible que en esta época haya profesores, intelectuales y científicos que no estén constantemente denunciando las aberraciones de las sociedades y gobiernos, que no se mantengan constantemente activos en los problemas de responsabilidad social. El progreso de la ciencia y la solución de los problemas importantes es realizado por un pequeño número de científicos excepcionales; el resto sólo hacemos una labor de formación cultural o de perfeccionamiento de detalles^ que muchas veces es desviada hacia temas superficiales o complicaciones artificiales, fomentados por intereses creados (ver a este respecto el libro de O. Varsavsky, Ciencia, política y cientificismo, donde se plantean cuestiones que considero de suma importancia, si bien no concuerdo del todo con el autor). Por lo tanto sería de gran provecho para la sociedad si el docente y científico común dedicara a los problemas éticosociales el mismo interés y número de horas que al trabajo estrictamente profesional, siguiendo el ejemplo que después de A. Einstein, B. Russell

27


Albert Einstein

iu^ri tl.if

p n i 'at dueños y manif 11 ik 11 bom i ! r t i ( I qu_ 1,0 !i» m i, t , i , ¡ l a I i , M!

I

exterminar toda vida del planeta. Jamás ha enfrentado la humanidad un peligro parecido de total aniquilamiento y de torturas inimaginables. Aun si tenemos fe en que tal aniquilamiento no llegará a producirse, es '' i Ir i t •' n it i - ' , í x i'1! enorme el daño ya ocasionado, apari t u i n . mi n u indi te del tremendo presupuesto invertii n ! i, ' u n ' M'imln i i i ">1 t 'UC »m p n do improductivamente, que alcanzó nore ' ' 1 » I ' ! llll>! 1 'c¡! a 200 mil millones de dólares en metí I I I i t ' I 1 i MI 1.11 ll 1 1969. nm ,i n di ! 1 I ^ «raí de un i 1 ! t' i t*' i J J il uniii nto iL La información deformada ¡ «. «ü i u i m t 11 h lu '1 umos ^ l ¡un J 'I Así, para poder continuar justificans ' d t q i ^ í 1 ujient il Ii' do este nuevo y mal uso de la ciend ! 1 l- t 1 ll t u > p'tUplt idocia, se ha desplegado una red de P » ti n. t' i i! i i ,i ( ü l fu * un propaganda sutil que pinta al público un enemigo monstruoso que amenaza Km n¡ i i i< . ni! i 11 ! i t ni i ^"i '"i i' < ai ü f t l i u n la civilización aún más que el nazisdi ti ' i i ih un iplicuon mo, de una degeneración tal que va' i ' k 1 i m f.n ** i ti i ú pues le más bien morir en un ataque I 11 lit tn i i d s- l fus mu m nuclear con todos sus horrores que dejarlo expandir o arriesgar la posiII i J 'l d 1 1 ll lliíl i ir < ' i ! i i i ni i 11 bilidad de que pueda conquistarnos. ll l. 1 ' 1 II t 1 ll Itt ' iw ¡ll 1 Se han desatado en esta forma odios fi 11 ii i ii i dtl tnun y difamaciones que han creado un ni' 1 > • i LI i ' i i clima moral insano. El público así u! 1 \ i K 11. sugestionado no se daba cuenta que n i 1 1 - 1 ii i !o >i.) al mismo tiempo se estaba imitando 1 'i i t | 11 1 >r if t \ di. lv al enemigo en sus adelantos cientí11 ' i > i \u mi t in ficos, métodos educacionales y otros aspectos que la sociedad valora, lo 1 " t ' ir J l u que naturalmente implica que tam1 i ' i m i! . !n.i bién el enemigo llevaba una vida ii' i ! ' i un int d 1 ! mu i digna y muy similar a la de sus dei<' ' nu ! 1 nK * ilt i tractores. i i i (.1 ni d i ! f ) 1 i i u i i in ' i i i ' i ti 'mi Hubo que dar a la población la i. di > i a i t Ljili. vi di K d 1 sensación de que recibía la más amít I w > ¡ni i n, 1 i i din ititL plia información mientras que en reall ' II 1 < t i > Mu 'i 1 n t 11 lidad la misma era intencionalmente itt ! i ti in i'i • i v i i i i i m fragmentada y distorsionada con el di 't < i n i i i tiuii i objeto de generar confusión cuando dit ni il nuil ta d i ntilico-, no falsas certidumbres respecto a la tu til thdk I i I V id t l i l i un situación real y concreta. tí'ií Iin di itu t 1 t • ll ttn t liH 1 Hubo que excitar por medios suti-

28

ir

Linus Paulina

les a la opinión pública en contra de los intelectuales responsables que cuestionaban toda esta situación. Entre los intelectuales de ambos bloques prosperó la autocensura, una subordinación contraproducente de gente capaz a otra inferior; sociólogos, psicólogos y periodistas se pusieron al servicio de los grandes intereses creados para elaborar técnicas de sugestión para fines comerciales o para la remodelación de la opinión pública con fines políticos. La necesidad de ir poniendo a prueba l a s armas ha llevado a guerras limitadas inmorales, al apoyo a dictadores y mercenarios, al aumento del espionaje, de vuelos de reconocimiento, satélites espías y satélites con cargas atómicas múltiples, a la expansión del sistema policíaco y del militarismo. Es necesario mencionar todavía el peligro d e una guerra nuclear por accidente, no provocado por la voluntad de los gobiernos. En efecto, ahora los ataques pueden efectuarse con tan enorme rapidez que unos minutos d e ventaja pueden resultar decisivos, y si llegara a producirse una guerra nuclear, la misma duraría apenas unas horas en las que el planeta quedaría destruido. Esto obliga a mantener incalculables fuerzas destructivas listas para entrar en acción a la menor señal. Pero la señal de un radar puede ser mal interpretada, sin que haya tiempo tal vez para verificaciones m á s precisas. Esta situación de tensión permanente hace que la guerra pueda desencadenarse por un e«or mecánico o humano. _ El hombre de la calle difícilmente tiene la oportunidad de compenetrarse con el real peligro que le amenaza; si bien los órganos de difusión

bras

pee»1'

ju'ii'ii» < ¡l,K l,h <

CM 3l i,

lito-

• piui ¡,w'n

menre • Mil-!

tai, . liltlf!

ib li ;

rJrrom! i«ii,- \'

iíthv': Vi ü-

uiílir

Cí'il

wn i. ÜSr Ciin.! •


hablan ya de los peligros atómicos, como toda noticia seria queda ahogada en un mar de superficialidades, y a causa de las técnicas sugestivas, el hombre de la calle continúa tranquilo en su desaprensión, orgulloso de que sus hermanos más inteligentes hayan logrado llegar a la Luna. Por otra parte los más responsables, los que están trabajando en la construcción de armas nucleares, parecen sentirse totalmente inocentes, ya que la ciencia es para ellos una herramienta al margen de consideraciones éticas. La prostitución de las palabras Por fortuna, algunos de los más grandes representantes de la cultura y un gran número de científicos e intelectuales se han movilizado para frenar esta locura y, como ya dijimos antes, esto ha producido un movimiento renovador cuyos efectos son aún difíciles de prever. Como lo indicaron los promotores de este movimiento, es esencial que el mismo descanse sobre bases éticas lo más estrictas posible. Las siguientes palabras de Max Born resumen los aspectos esenciales del problema: "No hemos de buscar lejos para hallar una base sólida para nuestras acciones; es el principio común a todas las grandes religiones y en el que concuerdan todos los filósofos morales, el que es enseñado por la doctrina cristiana; el que Gandhi realizó ante nuestros propios ojos: la renuncia al uso de la fuerza para fines políticos . . . Hace 50 años esta declaración hubiera sido considerada utópica y tonta; hoy puedo expresarla sin que me crean loco. Probablemente mañana serán considerados tontos los belicosos y no los pacifistas, pues los acontecimientos de los últimas años han dejado un impacto en la mente de la gente. . . ¿Qué podré agregar a las palabras de los grandes profetas de nuestros tiempos: Schweitzer, Einstein, Bertrand Russell y otros sabios?. . . Ahora sus voces ya no se extinguen sin ser escuchadas, pues el hombre de la calle y tal vez también alguno de los grandes del mundo les prestan atención. No cierro los ojos a las dificultades políticas, conflictos de intereses, ideologías, razas y religiones. Pero, ¿cuándo tales problemas fueron jamás resueltos por una guerra? Sistemáticamente cada guerra sólo condujo a otra guerra. ¿Existe acaso

algún objetivo político que justifique el riesgo de una guerra nuclear? Políticos y periodistas suelen contestar a las advertencias de los expertos diciendo que se trata de histeria atómica y derrotismo; esa gente es miope o fanática o representa a aquellos grupos que se benefician con la preparación para la guerra. . . ; estos son fabricantes de armas, militares, o físicos, químicos e ingenieros que inventan y construyen nuevas armas. Es imposible solucionar la presente crisis sin inspirar a esta clase de gente otros objetivos en la vida. . . Estoy convencido que la única forma de evitar la destrucción total es la renuncia general al uso de la fuerza, combinada con un desarme progresivo y una vigorosa difusión de esclarecimiento sobre la naturaleza de la guerra." 2 Creo que estas sabias y sencillas palabras son representativas de las intenciones que animan a dicho movimiento de responsabilidad social y señalan lo más importante del problema. Imagino que algunos lectores exclamarán desilusionados e impacientes: "¿Esto es todo lo que se propone? Estamos cansador de oír decir lindas palabras a todas las iglesias y a otros cómplices de los explotadores. Entonces, si un Hitler atacara al mundo, o si un tigre estuviera por lanzarse sobre mi familia, no deberíamos defendernos por la fuerza. Además, no vemos en esto esbozado ningún plan concreto de acción." Conviene examinar ahora estas preguntas que se oyen muy frecuentemente y que tal vez apuntan a las dificultades fundamentales. En primer lugar es necesario distinguir entre las verdades básicas de las religiones y las religiones organizadas con intereses creados que suelen ser la negación de aquéllas. Obviamente no estamos discutiendo aquí el rol de las religiones. Lo que pasa es que palabras como paz, amor, libertad, fraternidad y otras que están en la base de las religiones, han sido tan prostituidas que al sólo oírlas^ desconfiamos, y buscamos las soluciones en otras ideas cada vez más sofisticadas y artificiales que frecuentemente dan carta blanca a la violencia. Como dice Max Born, aquellas verdades permanecen esenciales y difícilmente podrán darse soluciones que las evadan. E. Fromtn dice a este 2 Max Born, Man and the Atom, Bu-

lletin of the Atomic

1967.

Scientists,

junio

respecto: "Los grandes guías espirituales como Buda, Jesús, Isaías y muchos otros, han expresado los más profundos anhelos del hombre con notable semejanza en sus ideas. Ellos penetraron el cascarón de la costumbre, la indiferencia y el temor mediante el cual la mayor parte de la gente se protege de la experiencia auténtica y encontraron adherentes que despertaron de su modorra para seguirlos en sus ideas. . . Pero después de un tiempo, esas ideas perdieron su fuerza, convertiéndose en actitudes cerebrales en vez de continuar siendo auténticas vivencias." 8 El sentido de la violencia El problema es que los intelectuales admitan estas verdades con la misma seriedad con que respetan sus axiomas, como el de la necesidad lógica y ciertos principios de la Física. Pues todo está ahora en manos de los científicos que potencialmente tienen el poder del mundo, ya que el manejo de las armas modernas requiere grandes conocimientos y es muy poco lo que puede influir el resto de la humanidad; los científicos pueden provocar la destrucción del planeta o por lo contrario ofrecer la máxima contribución para la construcción de un mundo mejor. En sus tareas específicas los científicos respetan cuidadosamente los aspectos morales, tales como la veracidad, honestidad, responsabilidad y conocen el valor que para la creación científica tiene la fe, entusiasmo, fervor y sentido de belleza. Todo depende de que los científicos se decidan a dar un paso más: cuidar celosamente del buen uso de la ciencia y , sobre todo, profundizar la comprensión del problema de la violencia traduciéndola en acciones tomadas voluntariamente. Es necesario observar que dos obstáculos fundamentales se interponen en la decisión de dicho paso. Él primero es el error generalizado, reforzado por la herencia de nuestro pasado oscurantista, según el cual es tal el cúmulo de violencia que siempre ha habido, que poco importa que una nueva dosis de la misma venga a agregarse, si es que puede contribuir a la solución de los problemas. Como en el pasado hubo contados casos de soluciones por medios pacíficos, se comete el error de afirmar que toda solución basada en la abs3

bre?,

E. Fromm, ¿Podrá sobrevivir el homPaidós, Buenos Aires.


tención de la violencia es ingenua y destinada a fracasos, como si nuestra condición biológica y nuestras experiencias primitivas fuesen inmutables y obstáculo insalvable para ensayar nuevas formas originales de pleno sentido humano. En realidad es tan solo aparente el hecho de que alguna vez se haya logrado un progreso por la violencia. Por ejemplo, en el caso de la revolución francesa, el progreso fue debido a la difusión de verdades iluminatorias por" los enciclopedistas y hombres como Rousseau y Voltaire, mientras que el desborde de violencia que siguió fue una negación de dicho progreso y un regreso al pasado. Lo que quedó como legado permanente es la comprensión y los anhelos despertados. El acto de matar es la máxima degradación a que puede llegar el ser humano y no hay ideal político que lo justifique; habría que ver si los ideales políticos que exigen tales actos no constituyen en parte una proyección inconsciente de la violencia que está profundamente arraigada en cada uno de nosotros. No tiene mucho sentido hablar de libertad y dignidad mientras uno es esclavo de la violencia que bulle dentro de uno mismo en forma de apetitos insaciables y deseos de sobresalir y dominar. Así como la gente desea la libertad y la no violencia, también las teme y trata de esquivarlas (con referencia a esto último ver los libros de E. Fromm, El miedo a la libertad, y ¿Podrá sobrevivir el hombre?). El hombre se ha mostrado capaz de superar los problemas más difíciles, pero no se anima a probar sus fuerzas en la empresa más importante que se le presenta: la de afrontar los problemas sin engendrar violencia y enemistad. Esto requiere una intensa y continua indagación individual en el problema de la violencia y un ferviente deseo de no dañar. El otro obstáculo es la resistencia natural a poner en duda la sensatez del ambiente, de la sociedad y de los hombres de capacidad y talento; a tal punto que más bien se toma como distorsión todo lo que se aparta de la actitud de aquéllos. Me refiero al hecho de que no nos animamos a cuestionar la cristalización, en la sociedad, de las violencias introyectadas en los individuos, que asume la forma de respetabilidad y de legalidad. Es así como la violencia y el cri-

30

men dejan de ser condenados cuando son organizados por la sociedad y ejercidas en nombre de Dios, de la libertad, del honor, de la familia, de la propiedad etc. Una madre quedaría horrorizada por vida si su hijo matara a un compañero; pero, no sería tal su sentimiento si lo viera recibir honores por haber destruido enemigos en la guerra. Se habla de la libertad individual pero no se objeta la existencia de la conscripción obligatoria que es la negación del primer derecho del individuo: vivir y disponer de la propia vida. Se protesta por crímenes cometidos por individuos; pero, se permite que en todos los países existan organizaciones legalizadas para el arte de matar. Una vez permitida la guerra, todos los otros crímenes serán derivaciones secundarias de este mal mayor. Creo que estas consideraciones contestan también la pregunta de si no se debe usar la fuerza contra un Hitler o un tigre que nos ataca: del resumen de los hechos ocurridos sigue claramente que el tigre no estaba tan sólo en Alemania; nos gusta hacer aparecer que el tigre está siempre en el país vecino, y no en el nuestro. Pero, la verdad es que el tigre está en todas partes del mundo y en cada uno de nosotros, y, si la solución se consigue eliminando al tigre, entonces habría que destruir sucesivamente a todos los países del mundo. Hitler no hubiera podido hacer nada si no hubiera estado apoyado por millones de seres; entre ellos, grandes artistas, pensadores y científicos que no tenían nada que envidiar a otra gente del mundo. Hitler ha sido, simplemente, una consecuencia natural e inevitable de nuestra civilización basada en la violencia, y de la indiferencia y negligencia de la masa de los intelectuales que durante los años 1918-1838 nacía hizo por la causa de la paz, teniendo en sus manos el enorme poder de la ciencia. No vale la pena entrar a discutir si en épocas pasadas la violencia era realmente inevitable y ofrecía una solución razonable para los conflictos entre naciones, en la cual los militares jugaron el papel de héroes. Lo que importa es que ahora nada puede solucionarse mediante la violencia; todo está en manos de los científicos y tecnólogos; los militares ya no tienen más importancia, pues son los tecnólogos los que crean ahora las nuevas estrategias bélicas, aunque si-

Antes de que surjan LOS INGENIEROS DE VARIAS PIERNAS. Antes de que surjan los mutantes que anuncien cambios genéticos imprevisibles, c o n v i e n e planificar la marcha de toda obra; simplificar sus caminos; impedir, en suma, que haya que dirigirse hacia v a r i o s o b j e t i v o s al mismo tiempo. Afortunadamente, los especialistas en organización industrial del país y del exterior han perfeccionado el Método de Camino Crítico: tenemos 15 profesionales y técnicos para asesorarlo sobre él. A v a l : 90 obras programadas, que cubren más de 300.000 m 2 , y 15 profesionales y técnicos a su servicio.

Estudio

ALSZ

Diagonal Norte 846, p l i o 39, Oficina 302 - Bueno» Aira» Tel. 40 - 6375 y 6294


te en lo que se refiere a las causas, desconfianza m u t u a que es acentuaorígenes y naturaleza de las guerras, da por la propaganda q u e crea sentila distorsión de información, lavados mientos de e n e m i s t a d , por la creade cerebro, pensamiento patológico, ción de nuevos focos bélicos, bases la miseria y sufrimientos en el mun- militares, vuelos de reconocimiento, El camino del compromiso do y las posibilidades que los pue- espionaje, por a c t i v i d a d e s contradicRealmente, mucho puede hacerse si blos tienen para cambiar el rumbo torias de los políticos, etc. La prese sigue la línea ética de la cual habla equivocado de los gobiernos. Para sión continua q u e ^ d i c h a unión ele inMax Born. Si, venciendo las divisio- tal fin se podría editar un diario, en telectuales ejercería sobre los gobiernes creadas por las creencias e ideo- todos los idiomas principales, con nos podría d e b i l i t a r , sino eliminar, logías a las que se aferran los indivi- propósitos de difusión y sin fines de todos estos factores q u e traban las duos, se comienza a analizar seria- lucro, redactado por los mejores re- negociaciones. Más aún, e l l a p o d r í a resolver el mente, en forma muy intensa y con- presentantes de la cultura, destinado problema más d i f í c i l , que es el de al gran público de todos los países. tinua, los aspectos ético-sociales arriba mencionados que comprometen la Se podrían crear extensiones univer- hacer factible la inspección y control vida humana, entonces se podría for- sitarias de carácter internacional pa- de armamentos, pues los miembros mar una unión internacional de inte- ra hacer efectiva la obra de difusión de la unión p o d r í a n , ellos mismos, efectuar tal control, cada uno en su lectuales para una tarea conjunta en y de instrucción. país, superando así la dificultad creaLos trabajos de una tal unión de beneficio de la humanidad la que se da por la desconfianza. Entonces se intelectuales podrían hacer más facpondría en marcha para realizar, por ejemplo, el programa siguiente: Con- tible, ante todo, la suspensión de la habrá dado el paso decisivo para el seguir que todas las Universidades se carrera armamentista, luego el desar- desarme. De l a m i s m a manera se haadhieran a esta unión, dirigiendo en me general. Ya en 1946 comenza- ría más factible la formación de un forma oficial sus programas; esto im- ron negociaciones sobre el desarme gobierno m u n d i a l q u e es imprescinplicaría la formación de una Univer- y hubo importantes propuestas en dible para una paz estable. Y no hay sidad internacional, lo que en par- 1 9 5 4 , 1 9 5 9 y 1961; pero, hasta aho- duda que el e j e m p l o de los intelecticular impediría la intervención de ra no se han logrado progresos sen- tuales despertará la conciencia de los las autonomías universitarias por go- sibles. En los diversos informes pu- pueblos, q u i e n e s le darían su apoyo biernos dictatoriales. Elevar la com- blicados se indica que la causa prin- para asegurar n u e v a s bases a nuestra prensión de los pueblos, especialmen- cipal de este estancamiento es la civilización.O

guen rindiendo pleitesía a la casta que en el pasado estaba encargada de esta tarea.

. •> ; / «

: ¡

, ; ; ¡.

j f

Inauguración del Centro de Cómputo de la Fundación Bariloche El 3 de abril próximo, la Fundación Bariloche inagura oficialmente el Centro de Cómputo, dependiente del departamento de Matemática, dirigido por el Dr. Hugo Scolnik. La idea de instalar un centro de computo que contribuya al desarrollo de la región surgió en 1967. A partir de setiembre de 1970 se inició la contratación de profesionales competentes, contando actualmente el programa con seis matemáticos, siete programadores y un asesor comercial. Se contrataron ademas cuatro profesores extranjeros y existe particular interés en preparar técnicos locales y crear la fuente de trabajo necesaria para lograr el retorno al país de calificados científicos argentinos que actualmente se encuentran en el exterior. ^ , El equipo que se contrató, es una computadora BULL-GENERAL ELECTRIC 415, que permite crear un servicio técnico-científico, el único con e^as características, que actualmente se presta en el país. El centro de cómputo ya está operando dentro de las actividades de la Fundación Bariloche para el departamento de Matemática en los siguientes temas: análisis n ^ e n c o teovía de la aproximación, teoría de autómatas inteligcna artificial, investigación operativa, apheacton de computadoras en ingeniería y matemática pura. P ^ ^ partamento de Sociología opera en modelos matemáticos

que permiten acelerar los procesos de investigación. P a ra el Departamento de Recursos N a t u r a l e s existe el p r o yecto de crear un banco de d a t o s geológicos mundial. Presta servicios a empresas d e l ámbito local y nacional, como ser INTA, para el q u e está preparando un s i s tema para establecimientos agropecuarios, la Cooperativa de Electricidad de San C a r l o s d e Bariloche p a r a agilizar sus trámites administrativos y poder ofrecer u n mejor servicio, y la compañía aérea Austral, para p r o cesar los datos de una encuesta realizada entre sus p a sajeros. Se ha realizado un p r o g r a m a para Ducilo, c u y o objeto es optimizar la producción d e celofán. La c o m pañía de Fósforos Sudamericana también utiliza sus s e r Vl< La

computadora posee una m e m o r i a central de 1 6 . 3 8 4 caracteres y una memoria d e discos magnéticos d e 23 040 000 caracteres. La v e l o c i d a d de trasmisión d e datos entre los discos magnéticos y la memoria c e n t r a l es de 200.000 caracteres por s e g u n d o . Asimismo p o s e e un lector de tarjetas perforadas de 6 0 0 tarjetas por m i nuto y una impresora de línea que imprime a razón d e 7 3 0 líneas por minuto. Velocidades de cómputo: Suma-Resta, 17,S " i t e r ó s e gundos; Multiplicación, 21,4 microsegundos; D i v i s i ó n , 32,9 microsegundos. O

3X


Restauración del fresco toscano Lucía Bonadeo íor S f lar historico,

t l a Z trabajo

n

- de P i n t u r m m u r asi como recuperar

t ¡ m r S - PerdÍdm' de la misma autora

E$te,

a l m

al

freSCO

obras

P^mUido rescatar documentación de vavalor estético que, por su deterioro

CS la ^ünuacUn y cJmpllZl, Z en el número 7 de CIENCIA NUEVA.

Í n f 0 r m e

publicado

Los orígenes del mal En el articulo precedente describimos la técnica del tosco toscano en su período más brillante, del 1300 al 1540; los frescos más antiguos de esa escuela han sido entonces pintados hace más de seis siglos. A diferencia de la pintura sobre tabla o sobre tela, libre ele ser fácilmente desplazada de su lugar original, el fresco en general ha tenido que identificar su historia con el destino de la pared donde ha sido pintado. Muchos de los edifiticios decorados con frescos han desaparecido, otros han sufrido importantes reformas para adaptarlos a nuevos estilos artísticos y otros cambiaron sus funciones pasando, por ejemplo, de lujosos palacios a cuarteles de bomberos o garajes con los imaginables inconvenientes para la conservación de las pinturas existentes. Además de esta destrucción más o menos involuntaria los frescos sufrieron las consecuencias de los afanes ele renovación", especialmente en los siglos XVI y XVII ya mencionados en el artículo anterior. Un ejemplo de estos puede verse en la figura 1, con frescos de Orcagna casi totalmente destruidos por la colocación de soportes para inmensos cuadros, partes centrales de altares El numero ele frescos remanentes es, a pesar de todo importante, pero el estado en el cual se encuentran es muy variable. La mayoría de ellos presenta problemas de diversa importancia y, en general, necesitan ser restaurados. Analicemos cuáles son las causas del deterioro de un fresco a fin de comprender las medidas que se toman para su restauración. , L ? humedad es el factor desencadenante de la mayoría de los deterioros. Los microorganismos, hongos, algas y liqúenes se desarrollan rápidamente al superarse el 65 % de humedad ambiente. Estos pueden manifestar manchas o puntos que parecen picaduras superficiales de color diferente y , en los casos más graves, alterar las capas de pintura y de revoque provocando la caída de los mismos. La eflorescencia de sales sobre la superficie de fresco produce la pulverización de la capa de pintura y del ligante de la misma (carbonato de calcio) El proceso se acelera cuando las sales forman hidratos- la ganancia o perdida del agua por parte de los cristales vendrá ^acompañada por un cambio en el estado de hidrataron que está asociado con una variación de volumen; las oscilaciones de la presión efectuada sobre la superficie del fresco ocasionan la rotura de la misma. La presencia de humedad hace que se produzcan depósitos.

32

h(1

de alto

¡

£

Las sales pueden provenir del interior del muro o crearse en la superficie por transformaciones químicas de disueltos en el aire. Consideremos Ja primera posibilidad. El muro f o r mado por materiales porosos, permite la circulación interna del agua; Ja pared puede considerarse constituidpor un sistema de capilares comunicantes entre sí que la recorren en todas las direcciones. Existiendo humedad estos capilares contendrán soluciones de sales como sub tato de potasio, sulfato de magnesio, sulfato de calcio o yeso, sulfato férrico, cloruro de sodio, cloruro férrico nitratos de potasio, sodio y calcio provenientes de lo. constituyentes del muro o del suelo. Cuando las condiciones de temperatura y humedad relativa entre el muro y el aire lo permiten, se produce una corriente de la< soluciones hacía la superficie del fresco. Al contacto con el aire parte del agua se evapora dejando un remanente de sales cristalizadas en la superficie. El proceso de cristalización y parcial redisolución de las sales i-racias al atinjo de nueva solución desde el i n t e r i o r será' nnsiblr mientras exista una fuente de humedad. Este juego'será fatal para la estabilidad del fresco. La Maestá de Simone Martini e n el Palacio Público de Siena presenta un ejemplo particularmente notable d e los electos de la eflorescencia. En el subsuelo húmedo del palacio existía en el medioevo un depósito de sal e n contacto con el muro de 1 metro de espesor en c u v a parte superior dos pisos más arriba (unos 15 metros) fue pint do el fresco Pese al grosor del muro v a la enorme distancia que debió recorrer, el cloruro d e sodio ^encuentra en gntncles cantidades sobre el fresco; de enetanclo algunos de los pigmentos Gases como SO, y CO,, disueltos en el aire reaccionan con l a humedad de la superficie del fresco ttan orS Q l H : i - E s t o s Sdcls ^ CO C ° 3 H 2 ' S O i ' I t , y en atacan el COaCa.conviniéndolo bicarbonato de calSo en? El Veso ha sido individu a d o en casi todos los frescos analizados en Florencia Fn un estudio sobre los frescos de Giotto en la Cap 11

« T l T l t P 8 d U 1 SC c o " i e l « ™ n ó la presencia del veso con la existencia de un alto porcentaje de SO, en la atmosfera, proveniente de fábricas de los alreeíeelores S í a i r e T n f ^ í ' 1 Z b a t i r pT",1107

pIoduCÍda

^

k

-ntltacón V difícil

C°m° k,miíS 1,lar™nte


Figura 1. Estado en el cual fueron L, parte central ausente corresponde

encontrados los frescos de Orcaena en a uno de los tiraLs de a p ^ T L ^

vi S S d l ^ Z r n e n t e .


Figura 2. Detalle de una pintura efectuada a la luz rasante y agrandado. Las portel oscuras corresponden al "intonaco", los claros a la capa pictórica 1

Técnicas de restauración Es necesario dividir la restauración de frescos en dos penodos, separados por la Segunda Guerra Mundial. Antenormente a ésta, el objeto principial del trabajo era dar a la obra un aspecto brillante, "lindo", renovarla sin mayor preocupación por las causas reales que provocaban el deterioro o, en. muchos casos, por la conservacion del estilo del artista. Las recetas' existentes eran empíricas, transmitidas tradicionalmente de padre a hijo Una de ellas, por ejemplo, indicaba la necesidad de alimentar el fresco, para darle su brillo original con huevo disuelto en vinagre; estos productos se convertian, en cambio, en seguro alimento para los microorganismos En el año 1700, cuando a un fresco se le caía un pedazo se reproducía la parte que faltaba sin

r„ ,i . , . . , d ,el tíabaJ° J ? P ! " 5n Ia x , T a ^ P l l a documentación técnica y literaria sobre la obra. El control de la temperatura y de la humedad del local donde se encuentra el fresco, así c . o m o ^ análisis de secciones del muro tomadas en determinados puntos para detectár el porcentaje de a § u a contenida en éstos, son parte de los datos necef M 0 S P a r a conocer la procedencia de la humedad. La f o t ° g r a f í a e s de gran utilidad en esta labor preparatoriac o n l u z infrarroja se pueden poner en evidencia las f a P a s d e pintara subyacente, el dibujo trazado sobre el mtonaco" o cualquier cambio realizado por el artistae l e x a m e n de fotografías con luz rasante (figura 2 ) perm i t e u n control de la adherencia del color y un conocimiento del estado de la superficie de la pintura La ! o t ° g r a f í a con luz ultravioleta permite distinguir entre l o s «¡toques posteriores y la pintura original- finalmeníe> la r fotografía con luz normal (figura 3 ) , constituye l a ^formación básica a la cual se debe acudir antes de cualquier intervención.

G r a C k S / U n a n á l i s i s d e d Í f r a c d Ó n d e r ^ o s X en f 5 3 Í t i l o " ¿ t & S , M 1 8 0 0 trpfban de h Z un resco f a l s o e n d c n ^ T , / g g T ' ^ T - ® ' ^ T ^ d e p m t u r a ' s e identifican los pigmentos utiliP , : ^ 1 í r e s c o í a l s o f a e I p a l f restaurador reprodu o : zados y los componentes del "intonaco" El mismo oro

- « ' p ^ ' á K S S Í í ^

^ £ail° Durante la S e g a d a Guerra Mundial se dañaron considurablemente muchos frescos toscanos. Dado que la pérdida de estas obras era inminente, fue necesaria uní rapida intervención. Los restauradores, conscientes de la gravedad de a situadón ensayaron nuevas técnicas y recurr I e r o n a l o s científicos en busca de nuevas solacio" nes. La experiencia adquirida en ese período fue muy importante y con el tiempo fue aumentada y perfeccionada. Hoy la restaurac ón es precedida ñor un comnlein estudio al que contribuyen h i L r i a d o r e s ' d e arte q £ i P 4 eos, microbiólogos, etc.

ffS^»'

? * T°

ao 8ar fía n se a det°ecta cola, e ^ K ^ ^ é f ^ J S S S d d S de técnica pictórica utilizada E l f f T informa s o b f e í a S t e n c a d e ' ^ u ^ S ^ Í J ^ estado de la pintura o a m t a S d S S épocas anteriores. Todo ¿ t e ^ S S ^ Í Í S Í ; S condiciones del soporte (muro del C T í S L t o de calcio) y de la pintura S a así r Z f l ! , ™ S deterioro y las soluciones S í e s T„ • , , / ractimes. S0¡VenteS a u e " 0 J ^ T s e g ú n & í q u e s e d e s e e eliminar. Generalmente , , s e procede del siguiente modo:


Figura 3. Detalle de la Creación de Adán, de Paola Uccello, lisie es un claro ejemplo de un fresco deteriorado.

en el Claustro Verde de Santa' María Novella,

Florencia,

35


Figura 4. La crucifixión, de Beato Angélico, en el museo de San Marcos. Fresco salvado gracias a la aplicación de un nuevo método.

1. materias grasas (provenientes de retoques al óleo, por ejemplo) se trata con sal diluida en amoníaco (10 a 20%), butilamina (10 a 20 % ) , etc. 2. cera (en el siglo pasado muchos frescos se revistieron de una capa de cera, esperando así protegerlos), con tetracloruro de carbono o tricloruro de etileno. 3. resinas (provenientes de barnices a base de ellas), con dimetil formamida, acetona, etc. 4. cola animal (aplicada como goma arábiga, etc.), con agua caliente, solución de amoníaco, etc. Los depósitos orgánicos tales como excrementos de murciélagos, particularmente frecuentes en iglesias, se eliminan con bisturí hasta que, convertidos en una fina película, se disuelven con la solución amoniacal. Una vez que las fuentes de humedad han sido eliminadas, la pintura se preserva de la aparición de nuevos microorganismos mediante una ventilación e iluminación correcta y la aplicación de un fungicida que debe reunir las siguientes condiciones: baja concentración, transparencia, baja presión de vapor y especialmente ser neutral, física y químicamente, a los componentes de la pintura. El tratamiento de la eflorescencia depende de la solu-

36

bilidad de las sales que la componen. Para lás sales solubles se -utiliza el método de la pulpa de papel, que consiste en cubrir una porción de la superficie del fresco afectado con pulpa o pasta de papel húmeda (celulosa u otro material apropiado). El agua contenida en la pulpa se introduce en el muro desplazando hacia el interior del mismo las sales en solución. Posteriormente, al secarse la pulpa, se produce un movimiento en dirección contraria, hacia la superficie: las sales migran con el agua hacia la pulpa de papel donde se depositan y cristalizan. El procedimiento debe repetirse varias veces para disminuir la concentración de las sales en el muro. Si la capa de pintura o el "intonaco" presentan tendencia a disgregarse, es necesario fijar los mismos, previa utilización del métotdo. Para sales poco solubles como el yeso, se utiliza el bisturí, o sea un tratamiento mecánico superficial y difícil. Para la restauración de la Crucifixión del Beato Angélico, en el monasterio de San Marcos, en Florencia, se probó un nuevo método. Este fresco (figura 4) se encontraba en condiciones precarias: tenía un alto porcentaje de yeso y el "intonaco" se pulverizaba. Fue aplicada una variación del método de la pulpa de papel, reemplazando el agua por una solución de carbonato de amonio. El yeso, transformado en sulfato de amonio, sal soluble, con una segunda aplicación de la pulpa de papel embebida en hidróxido de bario es convertido en sulfato de bario, sal insoluble e inerte. De este modo se obtuvieron dos resultados positivos: eliminación del yeso de la superficie y fijación del "intonaco" gracias a la reconstitución del carbonato de calcio.


SOiCa — 2HaO + CO ;! (NH.,) 2 CO;tCa + S O . i ( N H 4 ) 2 + 2HaO [;,1 procedimiento de regeneración del carbonato de calcio ha dado resultado sólo en ciertos casos particulares. La selección de un fijador que permita adherir las secciones de la capa pictórica que tienden a desintegrarse y a devolver la consistencia al "intonaco" que se pulveriza, es uno de los problemas más graves de la restauración. No son pocos los requisitos que este fijador debe reunir: además del poder de adhesión y capacidad de penetración profunda del muro, debe ser transparente, resistente a la abrasión y a los microorganismos, inerte a los componentes del fresco, flexible y no debe sufrir transformaciones de sus propiedades con el tiempo. Fijadores tradicionales tales como la caseína o el liuevo han debido ser descartados: no eran resistentes a los microorganismos y formando una película continua, fuertemente adherente al calor, por juego de contracciones y dilataciones diferentes a los de la capa subyacente, provocaban el arranque de la capa de color, arrastrando a veces parte del "intonaco".

Aplicaciones Computacionales — Ingeniería civil — Organizaciones — Economía y finanzas — Ingeniería de sistemas — Modelos matemáticos — Programación de aplicaciones científicas

Sccr.iún de una pintura

— Sistemas de información pigmento

— Centros de cómputo — Estadística aplicada

ASESORES CIENTIFICO TECNICOS S. A. El shellac, otro producto comúnmente usado, producía cambios en la pintura durante su aplicación y su posterior oxidación. Hoy en día se tiende a enfatizar las ventajas de las resinas sintéticas; algunas de éstas, por ejemplo: polibutil metacrilato, Bedacryl 122x y Paraloid B 72, parecen reunir las cualidades requeridas. Sin embargo, también éstas presentan algunos inconvenientes y necesitan ser investigadas más profundamente.

A v . R. Sáenz Peña 825 - 9° piso - oficina 94 Tel. 45 - 9 0 5 4 / 6349 - Buenos Aires


Figura 7. Colocación

sobre un nuevo

soporte.

La increíble transposición Cuando la capa de color ha perdido su cohesión a un punto tal que la consolidación "in situ" se vuelve imposible, o cuando el "intonaco", debido a problemas del muro, se desintegra irremediablemente, es necesario efectuar la transposición de la pintura a otro soporte. Hoy en día existen tres técnicas para efectuar esta operación: 1. Strappo: separación de la capa pictórica únicamente; 2. Stacco: separación de la capa pictórica y del "intonaco", y 3. Stacco a mosella: separación del "intonaco", "arriccio" y parte del muro. strappo, el método más rápido y espectacular, permite el arranque, en una sola pieza, de grandes superficies y conserva además intacta la posible sinopia. Para poder realizar la operación, primeramente es necesario preparar la superficie del fresco, rellenar lagunas de pintura, eliminar incrustaciones, depósitos grasosos. Cuando el fresco está preparado, por medio de un pincel se aplica una cola densa de modo que asegure una contracción fuerte al secarse. Esta cola se recubre con una gasa, luego se repite la operación y a este preparado se le agrega una cola más líquida colocando una tela encima. Gasa y tela van siendo aplicadas en bandas de abajo hacia arriba hasta cubrir la superficie que se desea trasponer. Esta operación es llamada "facing". El arranque de la pintura se realiza cuando el "facing" está seco, pero, no demasiado duro. Se tira fuertemente a partir de uno de los ángulos inferiores, enrollando la tela a medida que se libera de la superficie. Así se ha logrado transponer pinturas de hasta 20 metros cuadrados en una sola operación. Luego se desenrolla el fresco sobre una superficie horizontal con la tela apoyada sobre ésta y se elimina todo resto de "intonaco". En este momento el fresco es visible invertido, es decir desde atrás. (Continúa en página 57)


SEGBA: Programa de investigación y desarrollo

Hace pocos días, cuando cerrábamos este número de CIENCIA NUEVA, tuvimos ocasión de conversar con el Prof. Jorge Sabato, Presidente del Directorio de SEGBA (Servicios Eléctricos del Gran Buenos Aires). Durante esa charla nos adelantó la primicia de las características del "Programa de investigación y desarrollo" que SEGBA ha decidido crear.

"Recientemente el Directorio de SEGBA ha aprobado la creación y puesta en marcha de un PROGRAMA DE INVESTIGACION Y DESARROLLO. Es un "programa", es decir, que no es ni una Dirección ni una Gerencia, ya que una aspiración del Programa es que sus actividades no se desarrollen todas dentro de SEGBA sino que sea capaz de movilizar gente, equipos y recursos fuera de su entorno, a través de contratos de investigación para problemas definidos. Tratamos que esa mentalidad rija desde el comienzo para que no se cree una estructura que luego —como es tradicional en la Argentina— tienda a cerrarse en sí m i s m a . . . Somos concientes que la estructura que proponemos para el Programa tiene graves peligros, porque en una empresa como SEGBA el no tener una posición precisa en el organigrama pone en peligro su existencia, pero la contrapartida es que una definición demasiado exacta acarrea los vicios que ya conocemos." "El Programa depende directamente de la Vicepresidencia Ejecutiva, lo que le permite una gran flexibilidad para llegar a una máxima coordinación con el mínimo de dependencia de las Gerencias que va a servir. Por supuesto es un ensayo de "cohabitación", ya que SEGBA —como toda empresa— tiene como preocupación fundamental la producción."

"El campo de acción del Programa comprende todo lo que sea materiales, servicios, equipos, procesos que sirvan a la generación, producción, transmisión y distribución de electricidad, con los métodos actuales o futuros. Para empezar, hay una gran cantidad de equipos y materiales para estudiar, teniendo presente que la preocupación del Programa no es sólo conocerlos sino ayudar a que se produzcan en el país en la calidad y costo que permitan su empleo racional en el servicio; por eso el Programa debe conectarse con los proveedores e inducir en ellos una actitud nueva frente a la tecnología. Creo que es importante recordar que el área de los materiales es una de las más desprovistas de investigación en el país y que los materiales ocupan muy poco lugar en la formación del joven ingeniero, que se recibe con un "desamparo" notable sobre sus propiedades y una ignorancia total de lo que ha pasado en los últimos afios en la física del estado sólido, porque estos problemas todavía no figuran en los programas de enseñanza. Las propiedades magnéticas y eléctricas de los materiales siguen siendo un profundo misterio para nuestros ingenieros y esto se traduce en la producción. . . " "Si el programa tiene éxito éste podrá medirse por la capacidad de generación de tecnología propia con el tiempo o, al menos, en una buena capacidad de juicio de la tecnología que se importe. Esto es evidente porque actualmente, en el sector que nos provee, la investigación es casi cero. . . al menos como actividad sistemática." "Al principio el Programa no tiene muchas más limitaciones que la de la imaginación de la gente y la inteligencia con que se dosifique su accionar: el Programa tiene que ganarse su lugar en la Empresa, ya que es muy fácil legislar sin implantar. Actualmente existe sólo como pieza de legislación; que llegue a "existir" depende exclusivamente de la capacidad de quienes lo dirigen." ' "Los fondos son 100 % SEGBA; para comenzar se han puesto a su disposición, a partir de abril, doscientos millones de pesos viejos." "Por el momento lo que hemos hecho es definir el Programa en sus grandes rasgos, aprobarlo, darle presupuesto y contratar a los dos primeros investigadores: el Capitán de Fragata Amílcar J . Funes y el Dr. Leopoldo Becka."

39


El automóvil eléctrico aún no tiene pilas Horacio Speratti

El motor más adecuado a la tracción mecánica es, sin comparación, el motor eléctrico aunque, por problemas ajenos al motor mismo, el único sector de la locomoción que cubrió amplia y masivamente es el de los ferrocarriles-. Entre las ventajas del motor eléctrico para esta tarea se destacan: sencillez constructiva, máximo par a velocidad de arranque, disponibilidad instantánea, buen funcionamiento en condiciones críticas de temperatura y presión atmosférica, mínimo de piezas mecánicas rozantes y alternativas, facilidad de reparación, rendimiento mecánico superior al 90 por ciento. Resulta evidente entonces que, si la tracción eléctrica no invadió otros campos —especialmente el del transporte automotor sobre ruta— no fue debido a las limitaciones del sistema de tracción en sí, sino a los problemas que surgen cuando se trata de alimentar ese sistema con una fuente de energía adecuada a las necesidades y a las posibilidades del transporte automotor. Los vehículos de tracción eléctrica obtienen su energía según tres sistematizaciones diferentes. Los ferrocarriles llevan un equipo generador de electricidad, movido por un motor de combustión interna; el motor eléctrico, directamente corfectado a las ruedas hace funciones de caja de velocidades o, más exactamente, de convertidor continuo de par. La segunda posibilidad consiste en tomar la ^energía por contacto de una línea eléctrica paralela al camino; así se utiliza en ferrocarriles, subterráneos, tranvías y trolebús. El tercer método es el de transportar en el mismo vehículo acumuladores o generadores electroquímicos de energía eléctrica. Por razones prácticas está última sería la solución ideal, pensada en función de una electrificación ma-

40

siva de los automotores, pero hasta el momento queda aún por resolver el problema de la producción a nivel y costo industrial de baterías o pilas capaces de suministrar la potencia requerida por un automóvil de tamaño y peso (incluyendo esos generadores) adecuados a las posibilidades de utilización de ese mismo vehículo.

automóviles más refinados de su época. El automóvil eléctrico de los albores del siglo ofrecía puesta en marcha inmediata y sin esfuerzo físico, manejo sencillo, funcionamiento inodoro y silencioso, una velocidad aceptable para la época —20 a 30 kilómetros por hora de m á x i m a ai costo de una reducida autonomía que raramente superaba los 80 kilómetros y de un largo proceso de Una vieja historia recarga de las baterías de plomo-áciEl primer intento de aprovechar la do. electricidad para facilitar la locomoEsas mismas dificultades son las ción terrestre fue realizado en 1842 que enfrentan aún los técnicos, casi en _ Edimburgo, por A. Davidson. 70 años después. Todo el progreso Utilizó pilas húmedas y dos motores técnico en materia de baterías, de rudimentarios, uno en cada eje, com- motores eléctricos, de sistemas de puestos por sendos tambores de ma- comando y de mecanismos en gedera con tres barras de hierro lon- neral, no ha sido tan rápido como gitudinales cada uno y dos pares de el crecimiento de las posibilidades electroimanes colocados diametral- del automóvil moderno y la distanmente a ambos lados de cada cilin- cia entre los deseos de construir un dro. automóvil eléctrico competitivo y Serían necesarios aún los aportes las posibilidades de realizarlo, perde Gramme a la dínamo y de Planté manece aproximadamente constante y Faure al acumulador, para que un e igual a la de 70 años atrás. vehículo de este tipo fuera operable. En aquella época, el rápido proY ello sucedió recién en 1881, gra- greso del motor de combustión incias a los trabajos del ingeniero terna pronto superó sus limitaciones, Trouvé. El triciclo Coventry-Rotary desplazando del mercado los sistemotorizado por el ingeniero Trouvé mas de tracción eléctrica y de varealizó, según testimonios histórica- por, El actual interés en el motor mente válidos, varios viajes cortos a eléctrico, obedece a otras razones. una velocidad superior a los 10 kilóLa densidad de tránsito en las metros por, hora. grandes ciudades, hace que se proEn la misma época el carrocero yecten nuevos sistemas de transporfrancés Jeantaud comenzó a trabajar < te individual más adecuados a las en automóviles eléctricos con la co- posibilidades reales de esas ciudades laboracióndel ingeniero Raffard y, en que los automóviles actuales y la 1893, sus trabajos habían alcanzado tracción eléctrica parece más adecuael desarrollo técnico suficiente como da para mover esos vehículos. Pero para competir con los otros dos sis- es esencialmente el problema de la temas de propulsión en uso entonces polución atmosférica —a la que el en automotores: el motor de vapor motor de combustión interna cony el motor de explosión. Los ve- tribuye generosamente— el que ha hículos de Jeantaud y poco después llevado a replantear las posibilidades los de Krieger, se contaron entre los de la tracción eléctrica.


La carrera (le los técnicos La historia del desarrollo técnico del automóvil está estrechamente ligada a la competencia deportiva y uno de los hitos de ese desarrollo fue establecido —curiosamente— por un automóvil eléctrico. Construido por la casa Rotschild según las indicaciones del técnico y corredor belga Camille Jenatzy, tenía forma de torpedo naval y su tínico objetivo era batir el record absoluto de velocidad terrestre. Con este vehículo llamado "La jamais contente", Jenatzy fue el primer hombre que superó los 100 kilómetros por hora, el 1? de mayo de 1899 (Su velocidad promedio para el kilómetro lanzado fue de 105,850 km/h). Con parecido espíritu deportivo, estudiantes y técnicos del California Institute of Technology y del Massachussets Institute of Technology disputaron, en octubre de 1968, una carrera de costa a costa de los Estados Unidos, con automóviles eléctricos. El Caltech utilizó una camioneta Volkswagen Kombi en la que el motor original fue reemplazado por un motor eléctrico, conservándose el embrague y la caja de velocidades. El MIT preparó un automóvil Corvair (cedido por General Motors que estaba interesada en la experiencia) con una caja manual de cuatro velocidades, pero sin embrague. Ambos vehículos utilizaron un motor de tracción Baker, de bobinado en serie, capaz de entregar 20 HP con 120 volt, a 4.500 revoluciones por minuto, pero confiaron el suministro de energía a dos fuentes diferentes. Los técnicos del Caltech utilizaron 21 baterías de plomo-cobalto, de seis volt cada una, con un peso total de 862 kilogramos y una capacidad de descarga máxima de 350 ampere. El costo total de las baterías fue de 600 dólares. La gente del MIT prefirió una solución más sofisticada: utilizaron 320 celdas Guitón de niquel-cadmio de 1,2 volt y 75 Ah cada una, cuyo peso total era de 816 kilogramos, a un precio abominable: 18,500 dólares. En com1 pensación podían contar con una corriente instantánea teórica de 7.500 ampere (lo que exigió una cuidadosa manipulación del cableado) y un tiempo de recarga de sólo 15 minutos. Si a estos vehículos les cupo el

relativo mérito de ser los primeros El automóvil urbano GM-512 automóviles de tracción eléctrica que es un buen ejemplo de una solución realizaron el viaje de costa a costa, heterodoxa. Esta versión impulsada por un las innúmeras dificultades, el bajísi- experimental sistema híbrido, ha sido también mo promedio realizado en el recorri- realizada con un pequeño motor do y el alto costo de la operación, de combustión interna de sólo sirvieron para demostrar que* limitada emisión de gases nocivos el automóvil eléctrico dista mucho o con tracción eléctrica pura y rendimiento. aún de ser una posibilidad prácti- baterías de alto ca. Aunque con un valor puramente anecdótico, debe mencionarse que Precisamente fueron las "dos granganó el automóvil del Caltech. des", Ford y General Motors, las primeras en publicitar sus trabajos Los proyectos recientes en esta área, alrededor de 1966. El Todos los países industrializados proyecto de Ford de Inglaterra, el producen vehículos eléctricos desti- City-Car tenía una autonomía de 80 nados a usos especiales: camionetas kilómetros y una velocidad máxima de reparto a corta distancia, vehícu- de 65 kilómetros por hora con balos para movimiento interno de fá- terías comunes. El City-Car no fue bricas, patios de carga, andenes de más que un ejercicio de ingeniería ferrocarriles, etc. Quizá el más di- para adelantarse a la puesta a punto fundido de estos vehículos eléctricos de las fuentes de energía necesarias, de aplicación limitada, sea el peque- trabajo que Ford confió entonces a ño triciclo o cuadriciclo utilizado pa- la General Dynamics. La "superbara trasladarse en los campos de golf. tería" de Ford y GD necesitaba de Una docena de fabricantes en los 5 a 10 años de trabajos de desarroEstados Unidos cubren un mercado llo, pero ya han pasado cuatro y la de golf-carts que se estima que su- máxima autonomía prevista para perará al millón de unidades anua- una carga no supera los 230 kilómeles antes de terminar esta década. tros y a un costo inicial prohibitivo. Para esos fabricantes pasar de la General Motors de los Estados producción del golf-cart a la de un Unidos construyó dos vehículos expequeño automóvil urbano, signifi- perimentales sobre la base de veca solamente un cambio de escala. hículos de serie: el Electrovair y el Claro que ellos no pueden resolver el Electrovan (descendientes respectiproblema de la fuente de energía vamente del Corvair y Corvan de seporque, por el momento, el uso de rie). El primero estaba impulsado baterías comunes no impone en sus por baterías de plata-zinc, pero el • productos ninguna limitación apre- Electrovan fue un paso más adelanciable. te en el futuro, ya que utilizó pilas Otra es la situación de las grandes de combustible, es decir, un disposifábricas de automóviles que deben tivo que admite combustible y enproveer una respuesta integral al trega electricidad. Los trabajos de problema del automóvil eléctrico. Ford y cíe General Motors se conti-

41


cámara de aire de baterías

inductor del

motor

baterías ainccargadores de balerías

/(

l;J!l

entrada

ventiladores - caja de cambios -motor corriente continua refrigeración • de motores - controles - tomas de aire -baterías de plomo-ácido

El dibujo radiográfico desmiente la aparente sencillez del automóvil electrico. Asimismo da una idea de los volúmenes ocupados por los distintos equipos, en este caso instalados sobre un automóvil de serie Opel Kadett en reemplazo del motor de combustión interna.

nuaron en otros vehículos experimentales que, sin resolver los problemas básicos de exceso de peso y carencia de energía suficiente, aportaron diversos perfeccionamientos a Ja idea básica. La puesta "de moda" del automóvil eléctrico llevó al Salón del Automóvil de Turín de 1967 varios vehículos experimentales con propulsión eléctrica. Algunos, como el Giannini y el Moretti, se basaron en la posibilidad de electrificar un automóvil actual de tamaño mínimo en este caso, el Fiat 500. Otros, conro el Urbanina y más especialmente el Rowan/De Tomaso/Ghia, resultaran ejemplos de lo que debería ser un automóvil eléctrico para uso urbano, producido en gran serie, cuando exista la fuente de poder adecuada. Un nuevo concepto Estos proyectos, así como los más recientes de las grandes fábricas muestran que no se trata solamente de reemplazar el motor de combustión interna por su equivalente eléctrico, sino que la solución eléctrica

42

se aplicaría a través de un automóvil de nuevo concepto. Un vicepresidente de Bendix Corporation, firma estrechamente ligada a la industria automotriz, señaló —hace ya cuatro años— que la tecnología automotriz es relativamente arcaica cuando se la compara con la de otros campos de la técnica. Señaló el mérito de los ingenieros por haber desarrollado y refinado hasta tal grado las soluciones ^técnicas tradicionales, pero sugirió que el continuo refinamiento de viejas ideas será insuficiente para proveer a las necesidades sociales económicas y políticas de los próximos años. El presupuesto técnico básico de ese nuevo concepto en automóviles iue definido con precisión por un equipo de estudio de la General Motors de Estados Unidos como sigue: 1. Los componentes y materiales deben estar al alcance de la tecnología actual y lograrse al mínimo costo posible. 2. El vehículo debe proveer a las necesidades mínimas de transporte personal y no necesita brindar el confort, el lujo, el espacio ni la prestación de los actuales automóviles de pasajeros. 3 Se considera adecuada una velocidad maxima de 50 a 70 kilómetros por hora, con una capacidad de aceleración aproximada de 0 a 50 k l ™ r ° s P° r hora en 16 segundos. 4. Debido a su pequeño tamaño, su baja velocidad y s u limitada capacidad de aceleración, estos automóviles no se mezclarán en el tránsito actual y requerirán un sistema separado de calles, zonas separadas

en las calles y rutas existentes o áreas de operación restringidas. 5. Los standard de seguridad actuales no son aplicables a un vehículo tan radicalmente diferente En otras palabras, se busca crear un vehículo de transporte personal de aplicación exclusivamente urbana que minimice el problema de la contaminación atmosférica y del apro vechamiento. del espacio útil, tanto en operación como en estacionamiento. Las fuentes <le energía

Los trabajos para alcanzar una fuente de energía eléctrica apta para uso en automotores se dirigen hacia tres objetivos diferentes: baterías, sistemas híbridos, pilas de combustible l a r a ser utilizadas convenientemente en automóviles las "superbaterías" deben alcanzar una relación peso/potencia significativamente más baja que la de las actuales baterías de plomo-ácido, a un precio accesible y con posibilidad de recarga rápida. La aviación utiliza desde hace tiempo baterías de niquel-cadmio —adoptadas también en los automóviles deportivos— que, en vista de los objetivos perseguidos, apenas representan una mejora. Ford estuvo trabajando en una batería de sodio-azufre, capaz de entregar 330 watt-hora por kilogramo de peso, pero requería una temperatura de trabajo de 250 a 300 grados centígrados lo que implicaba la necesidad de calentamiento previo y elevado riesgo de utilización. _ El Dr. George Hoffman, un especialista de la Universidad de California, sostiene que la batería metalaire sería adecuada para este uso. Esta batería deriva su energía de la conversión de un metal en su óxido. El tipo estudiado por el Dr. Hoffman utilizó zinc como metal activo y alcanzó un rendimiento de 132 watt-hora por kilogramo. Esta cifra se compara muy favorablemente con los 20 watt-hora por kilogramo de las baterías corrientes, pero estas baterías experimentales están lejos de las posibilidades prácticas. Posiblemente un avance más real sea el realizado por Delco-Remy con su batería de plomo-ácido que pesa 25 por ciento menos y ocupa un volumen 32 por ciento menor que el de las baterías convencionales de capacidad equivalente. Este es el resultado de una tecnología aplicable inmediatamente; los otros casos son ensayos


de laboratorio o, por su alto costo, están limitados a la aviación, la técnica espacial u otros usos sofisticados, .Los denominados "híbridos" son aquellos que integran dentro de un mismo vehículo un sistema de tracción eléctrica, un sistema de acumuladores y un equipo generador movido por un motor de combustión. A pesar de su aparente complicación, este sistema tiene algunas posibilidades notorias. Como los acumuladores y el^ generador pueden utilizarse simultánea o separadamente para impulsar al vehículo, efectivamente se requiere mucho menos potencia en el motor térmico y en baterías (y peso correspondientemente menor), a la vez qué toda la energía del generador que no se utiliza en la tracción (durante el frenado, o con el vehículo detenido) es aprovechada para recargar las baterías. El motor de combustión, como trabaja a velocidad constante, puede ser de cualquier concepción mecánica, quemar cualquier combustible y ser diseñado de manera tal que sus emisiones no sean contaminantes. Un buen ejemplo de lo que el sistema híbrido permite es el proyecto

Stir-Lec de General Motors. Este vehículo experimental cuenta con 14 baterías de plomo-ácido de 44 amper-hora y un motor Stirling de combustión externa y ciclo cerrado que impulsa un alternador trifásico. Circuitos electrónicos relativamente simples permiten establecer la interrelación entre generador, baterías, motor de tracción y su adecuado control acorde con las necesidades de utilización del vehículo. El Stir-Lec, basado en un Opel Rekord, tiene una velocidad máxima de 80 kilómetros por hora que se reduce, para uso continuo (sin descarga de las baterías) a 50 kilómetros por, hora, evidentemente muy por debajo de las performances del mismo vehículo con un motor convencional. Pero en otro tipo de vehículos, como en el ómnibus experimental Mercedes-Benz OE 302, la performance con sistema híbrido es similar a la del vehículo convencional; aquí lo que se reduce es capacidad de carga que resulta dos tercios de la del ómnibus equivalente de la misma marca y modelo. El ómnibus Mercedes-Benz utiliza 189 elementos de plomo-ácido de 2 volt de gran capacidad, un motor diesel de velocidad constante de 65 CV y un al-

ia electrónica ha acercado las posibilidades de la tracción eléctrica. Este es el equipo de control del ómnibus híbrido Mercedes-Benz.

Para la operación eléctrica pura, el ómnibus híbrido Mercedes-Benz requiere una batería de 189 elementos de plomoácido que pesan 3,5 toneladas. La acumulación o generación de energía electroquímica es aún un problema sin solución práctica.

43


ternador trifásico. También en este caso, la combinación es posible gracias a dispositivos electrónicos de control. La pila de combustible Desde un aspecto estrechamente teórico, la pila de combustible es la solución ideal, no sólo para impulsar automotores, sino también para cubrir otras necesidades de energía del mundo actual. La pila de combustible es un dispositivo electroquímico capaz de transformar directamente un combustible en energía eléctrica. Esta definición implica que su rendimiento no está limitado por el ciclo de Carnot de las máquinas térmicas, que trabaja en silencio y sin emisiones nocivas y que, por carecer de partes mecánicas móviles, prácticamente no requiere mantenimiento. Aquí debe precisarse que una pila de combustible de utilidad comercial, debe cumplir ciertta condiciones que son aún los objetivos de su desarrollo: 1. Debe utilizar combustible y comburente que abunden en la naturaleza. 2. Su construcción y funcionamiento no debe requerir el uso de materiales escasos o de compleja tecnología. 3. Es preferible que no contenga sustancias químicas muy activas ni requiera altas temperaturas de funcionamiento. 4. Debe tener una adecuada relación peso/potencia y volumen/potencia. 5. Debe tener una vida útil comparable a la de los convertidores de energía actuales. Ninguna pila de combustible actual cumple en conjunto estas condiciones. Todas son, para empezar, excesivamente onerosas de producir y operar y su uso práctico está limitado a la actividad espacial donde alaunas de estas limitaciones no imperan. El tipo técnicamente más des-

importante observar que, en estos trabajos, Alsthom recibe apoyo económico de la fábrica de automóviles Peugeot. A mediados de 1970, da firma japonesa Sony presentó un desarrollo que ofrece más posibilidades prácticas: una batería zinc-aire con alimentación continua de zinc, de modo que funciona como si fuera una pila de combustible. El zinc se introduce pulverizado y un sistema mecánico lo mezcla en el electrolito y lo hace circular por la batería. La densidad de energía de esta batería es apreciable; puede llegar a 450 watt-hora por kilogramo, más que cualquier otro acumulador de energía comentado en esta nota, pero aún la mitad de lo que ofrece un motor de explosión. El sistema de Sony tiene, sin embargo, algunas ventajas importantes: opera instantáneamente, no requiere calentamiento y cuesta 1/300 de las actuales pilas de combustible. El motor de combustión interna, con sus inconvenientes, cuestionado reiteradamente a lo largo de su historia, sigue siendo hasta el momento la única solución comercial e industrialmente viable para impulsar au-

tomotores. El esfuerzo dedicado a reemplazarlo —en el plano económico y en el técnico— no ha sido aún suficiente, por lo ya visto, para cuestionar su liderazgo.O

Bibliografía V. S. Bagotskii, Yu, B. Vasilev:

Cells, their Electrochemical

Fuel

Kinetics,

traducción del ruso al inglés, New York, Consultant Bureau, 1966.

Cari Bergen Handbook

of _ Fuel Cell

Technology, Englewood Cliffs, Prentice Hall, 1968.

D. V. Ragone: Review of Battery Systems for Electrically Pouiered Vehicles, SAE Paper N'1 680453, mayo 1968.

P. D. Argawal, R. J . Mooney, R. R. Toe-

pel: Stir-Lec, A Stirling Electric Hy-

brid Car, SAE Paper N° 690074, enero 1969.

J . J . Gumbleton, D. L. Frank, S.

L.

Plenslak, A. G. Lucas: Special Parpóse Urban Cars, SAE Paper N'-' 690461, tnayo 1969.

Institut Erancais du Pétrole, Les Piles <t combustible, París, Ed. Technip, 1965. Helmut Tannenberger, Les piles a combustible, La Recherche N" 3, julio-agosto 1970.

arrollado e s e l d e las d e n o m i n a d a s

pilas de electrolito alcalino; así son las del proyecto Apolo, alimentadas con hidrógeno y oxígeno. También de ese tipo es la pila francesa Alsthom que en su versión más desarrollada consume hidrazina y aire y que utilizaría, en una etapa más avanzada que los técnicos desesperan de alcanzar, metanol y aire. Es

44

No, el cartel está bien, pero yo sigo insistiendo unos metritos...

en

correrlo


Novedades de C1CÍ1C13.

y tecnología

1 La fecundación de la reina El Dr. Jerzy Woyke, profesor de la Escuela Central de Economía Agrícola de Varsovia, es un joven científico polaco quien tiene en su haber dos descubrimientos importantes relacionados con la fecundación de la abeja reina y con el número de cromosomas de estos insectos. Sabemos que durante el vuelo nupcial la abeja reina es fecundada en el aire y que esa fecundación basta para que deposite huevos durante toda su vida. Hace ocho años el Dr. Woyke demostró que durante el vuelo nupcial la reina es fecundada no sólo por uno sino por lo menos por diez zánganos. A la misma conclusión llegaron también otros científicos, más o menos al mismo tiempo, utilizando métodos diferentes. Este descubrimiento significó una verdadera revolución en la cría de especies mejoradas de abeja melífera. El segundo descubrimiento es exclusivo del Dr. Woyke. En la familia apícola los zánganos son aploides, es decir, poseen un número simple de cromosomas; las reinas por el contrario son diploides, tienen un número doble de cromosomas y las obreras son diploides subdesarrolladas, podríamos decir hembras atrofiadas. Se concibió entonces para las abejas una teoría de determinación sexual según la cual los individuos con un número simple de cromosomas serían machos y con doble hembras. Esta teoría fue negada por Woy; lee quien logró probar la posible

existencia de zánganos diploides si las abejas no los destruyesen en estado larval. Woyke sustrajo algunas larvas a la tutela de sus ciudadores y crió zánganos adultos con doble número de cromosomas, es decir diploides. Resta comprobar qué ocurriría si un zángano diploide fecundase una abeja también diploide; las características de esa hipotética descendencia pueden ser fascinantes. O

2 Los inductores de interferón La explotación de las defensas naturales del organismo ofrece una interesante perspectiva en el control de las enfermedades virales. Los productos químicos capaces de inducir la formación de interferón en cultivos de tejidos y en animales suscitan, desde hace cierto tiempo, un gran interés, debido a sus posibilidades terapéuticas. Recordemos que el interferón es una proteína de acción antiviral, producida por ciertas células de los vertebrados en respuesta a una infección viral; su historia comienza en el año 1927, cuando Alick Isaacs y Jean Indeman la descubrieron mientras estudiaban el fenómeno de interferencia viral, o sea, la propiedad de un virus infeccioso de interferir en el desarrollo de otro. Es importante recordar que el interferón ejerce su acción únicamente en el interior de la célula y que, en teoría, representa el agente terapéutico de selección de las enfermedades virales, ya que provoca esca-

sa reacción por parte del organismo y porque es capaz de inhibir el desarrollo de cualquier virus en cualquier célula. El fenómeno puede observarse en vegetales, bacterias y animales infectados por virus, quienes adquieren resistencia a posteriores infecciones provocadas por otros virus. Su actividad se destruye polla acción de enzimas proteolíticas; su peso molecular se calcula en 60.000.

Un ejemplo que ilustra el mecanismo de defensa desempeñado por el interferón es la capacidad del embrión de pollo para responder a infecciones virales, respuestas que no se basan en la producción de anticuerpos, ya que este fenómeno nunca tiene lugar en una etapa tan temprana de desarrollo embrionario. La resistencia a las infecciones virales en el embrión de pollo se relaciona con la aparición simultánea del interferón y la infección. Después de los siete días la reacción se hace notable y los embriones producen gran acnticlad de interferón demostrando capacidad antiviral. Este proceso se comprobó al confirmarse que es el ácido nucleico viral el agente de la producción de interferón en las células infectadas por virus. Fueron varias las dificultades que retardaron las aplicaciones prácticas del interferón, especialmente problemas de costo de producción, de purificación y la propiedad de especificidad de la especie; por ejemplo, únicamente el interferón que proviene de células humanas o de algunos primates tiene una acción antiviral en el hombre. En 1967, investigadores del Instituto Merck, en Pennsylvania, comunicaron que un ácido ribonucleico sintético de doble cadena, el ácido polirriboinosínico-polirribocitidílico ("poli I: poli C " ) era capaz de

45


estimular la producción de interferón en cultivos de tejidos y en animales. Este polinucleótido competiría holgadamente con otros inductores de interferón que se revelaron poco utilizables en clínica. Desde la aparición del trabajo (A. K. Field, A. A. Tytell, G. P. Lampson y M. R. Hilleman, Proc. Nat. Acad. Sci. US, 58, 1004-1010, 1967) el polímero ha sido objeto de numerosas investigaciones, tanto in vit.ro como en animales. En la actualidad se conocen dos mecanismos esenciales de su actividad antiviral: la capacidad de inducir la síntesis de interferón y la propiedad de estimular, en el organismo, algunas reacciones inmunológicas. Además, el poli I: poli C tendría un efecto antitumoral directo, es decir, inhibiría la multiplicación de algunas células cancerosas. Hoy se cuenta con una abundante literatura sobre la acción antiviral de este polinucleótido en animales. M. R. Hilleman (/. Infec. Dis.} 121, 196-211, 1970) dice que la administración preventiva de poli I: poli C en ratones, por ejemplo, permite a estos' animales resistir, durante una semana, a la inoculación de dosis de virus de la neumonía 300 veces más potentes que las que habitualmente matan a la totalidad de los testigos. Un colirio a base de poli I: poli C impide el desarrollo de lesiones de herpes en la córnea del conejo e inyecciones repetidas del polímero disminuyen el crecimiento de diversos tumores malignos en los ratones. En cuanto a la posibilidad de un empleo terapéutico en el hombre, se ha estudiado la acción antiviral del polímero en cultivos de células humanas. Se ha observado así su capacidad de proteger las células primarias del riñon contra algunos virus de la gripe y los resfríos. Algunas investigaciones parecen demostrar que la presencia continua de poli I: poli C no altera la duplicación de células diploides humanas durante doce generaciones, aún sí el polímero se utiliza en dosis superiores a las empleadas contra la infección viral. Es interesante citar también un artículo del Dr. Thomas C. Merigan, jefe de la división de enfermedades infecciosas en la Escuela de Medicina de la Universidad de Stanford, California, aparecido en la revista inglesa New Scientist, en diciembre de 1970. En el citado ar-

46

tículo, Merigan hace referencia a sus estudios y ensayos sobre un producto químico simple, la tilorona, que estimula la producción del interferón y protege a los animales de laboratorio contra ciertos tipos de virus a ARN y a ADN. Uno de los aspectos más interesantes del descubrimiento reside en que los bioquímicos pueden modificar la molécula de tilorona —que es una amina aromática— para hacerla aún más efectiva como inductora de interferón. Recientemente, un comité de expertos convocado por la NASA consideró el uso de inductores de interferón en viajes interplanetarios: sin embargo el comité llegó a la conclusión de que era necesario realizar estudios exhaustivos sobre estos productos y sus efectos en nuestro planeta antes de suministrarlos a los astronautas. Es evidente que toda perspectiva de aplicación terapéutica de una sustancia exige ensayos de toxicidad. Varios laboratorios se han consagrado a este problema en lo que concierne al poli I: poli C. En primer lugar, hubo que definir las condiciones necesarias para la obtención de un producto reproducible. Las preparaciones del polinucleótido se obtienen mediante apareamientos de cadenas de longitud variable de ácido polirriboinosínico y de ácido polirribocitidílico; el producto final dependerá de una serie de factores físicos que comprenden, además de la longitud media de las cadenas de homopolímeros en la preparación inicial, la fuerza iónica de la solución, la temperatura, etc. El control de estos factores se revela tanto más necesario puesto que ellos determinan la eficacia del producto, al menos en lo que respecta a la inducción del interferón. Para obtener preparaciones activas, actualmente se seleccionan las condiciones que favorecen la estabilidad del polímero y retardan su destrucción por la ribonucleasa. Sobre este último aspecto, Merigan publicó un artículo en la revista Nature, volumen 228, página 219, del añ,o 1970. Queda aún por determinar si el aumento de la estabilidad no implica un aumento de la toxicidad. Los problemas de tolerancia y toxicidad de las sustancias inductoras de interferón parece que dependen, en gran medida, de la especie animal considerada. El conejo y el perro, por ejemplo, son mucho más

sensibles que el ratón a los efectos tóxicos del poli I: poli C; en cambio, el mono es particularmente resistente, lo que permite suponer que sería igual para el hombre. Por otra parte, en ensayos con ratones se señalaron alteraciones de la fórmula sanguínea caracterizadas por una leucopenia transitoria, con aparición de formas inmaduras en la sangre periférica. En el perro, se observaron lesiones necróticas en el hígado, el bazo, la médula ósea y los huesos, como también lesiones de los aparatos digestivo y nervioso. En cuanto a la tilorona, dice Merigan que después de aplicarla a distintas especies se observaron extraños gránulos intercelulares de dudoso significado en las células rnononucleares de la sangre y en las del tejido reticuloendotelial. Esta toxicología no debe inducir a renunciar a una eventual utilización, en el hombre, de estos inductores de interferón. El problema reside en encontrar las condiciones favorables de empleo y las vías de administración que permitan obtener la eficacia deseada. Los efectos tóxicos de las dos sustancias mencionadas en esta nota parecen particularmente considerables si se las suministra por vía endovenosa; son mucho mejor toleradas por vía oral, método que ofrece posibilidades de aplicación terapéutica en casos de infecciones respiratorias de origen viral. O

3 El reactor de neutrones rápidos El Instituto de Investigación de Reactores Atómicos de Melekéss (URSS) cuenta con un alto edificio en forma de cúpula donde se encuentra el reactor MIR y el reactor experimental de neutrones rápidos BOR 60.

Los físicos diferencian dos tipos de reactores, los térmicos y los rápidos, guiándose por la energía de los neutrones que mantienen la reacción en cadena. Los distintos tipos de reactores se diseñan tomando en cuenta que lo fundamental es precisamente poder controlar dicha reac-


••sf"!'».:--»': ..s;-gsssa» "iffinaftTrs

4 Microcirugía o c u l a r

Sala central del reactor MIR-2 en el Instituto de Investigación Científica de Reactores Atómicos, en Melekéss,

esos reactores se quema a mayor profundidad e intensidad. En la actualidad el problema principal reside en el rendimiento económico de los reactores de neutrones rápidos. Los cálculos demuestran que las instalaciones de mayor capacidad competitiva con otro tipo de centración en cadena. Los neutrones de los les eléctricas serán las de mayor poreactores térmicos son retrasados ar- tencia. Por ese motivo se está constificialmente con grafito o con agua truyendo cerca de Beloyarskaia (Sipesada. Como es sabido, el combus- beria) un bloque reactor de 600 tible que se utiliza en estos reactores megavatarios de potencia. "corrientes" es el uranio 235, que en Para "domesticar" los neutrones la naturaleza se encuentra solamente rápidos ha sido necesario resolver como impureza del uranio 238 y en muchos problemas complejos. Uno cantidades insignificantes: menos del de ellos sigue siendo tema de discu1 % de su peso. Para obligar al ura- sión entre científicos de varios paínio 238 a que se divida es necesario ses y consiste en que debido a que convertirlo en plutonio, más fácil de el agua desacelera los neutrones (en fisionar. los reactores comunes es el agua la Dicha fisión es más efectiva si el que transmite el calor a los generauranio se bombardea con neutrones dores de vapor) surgió la necesidad rápidos. Hace unos años los físicos de otro agente transmisor del calor. calcularon esta reacción y resultó Se probaron distintos gases, vapor de que de cada kilogramo de combus- agua, sales fundidas, pero lo más tible se obtenía aproximadamente un efectivo resultó ser el sodio, metal kilogramo y medio de combustible que se transforma en líquido a la nuevo. Aunque parezca paradójico, temperatura de 100 grados aproxilos reactores rápidos pueden produ- madamente. cir combustible suplementario. El sodio líquido circula por los Estas conclusiones fueron confir- circuitos de intercambio térmico del madas por el pequeño reactor expe- BOR 60. En el compartimiento de rimental construido en Obninsky, en la sala de máquinas donde se encuenlos alrededores de Moscú. Con la tra una de las cuatro bombas giganaparición de los reactores de neutro- tes, el espacio libre es reducido denes rápidos se abrieron nuevas po- bido a los gruesos tubos envueltos sibilidades para la energética atómi- en varias capas de aislamiento térmica. En el futuro se podrá quemar co. Por ellos se bombea el sodio al casi tocio el uranio que se obtiene en reactor, las minas y no un porcentaje ínfimo, A la velocidad de 10 metros por como sucede ahora. De ese modo segundo el sodio "lava" las varillas los reactores rápidos tendrán poten- de los elementos combustibles en los cialmente sus recursos de materias que se lleva a cabo la reacción. Y en primas durante decenas de años. ese tiempo logra absorber el calor Además, e.1 combustible nuclear de atómico. O

En la cátedra de oftalmología patológica del Instituto de Medicina de Moscú se vienen realizando desdehace años investigaciones en microcirugía ocular. Uno de los triunfos más significativos de l a microcirugía consiste en la factibilidad de la corrección de la óptica del ojo. Las estadísticas demuestran que la mayoría de los defectos visuales son consecuencia de imperfecciones del aparato óptico del ojo y que las personas que poseen una óptica normal son la minoría: apenas un tercio. La naturaleza es pródiga en la producción de ojos defectuosos, miopes o hipermetropes e incluso de defectos más evidentes, como, por ejemplo, el astigmatismo. Hasta hoy la única solución para estos defectos consistió en el uso de anteojos y, en el mejor de los casos, de los modernos lentes de contacto. Ahora, la microcirugía permite alterar la curvatura del cristalino (la lente del sistema óptico del ojo) y de la córnea, achatándola o haciéndola más prominente. La técnica quirúrgica actualmente más utilizada es la remodelación de la córnea. La intervención consiste en extraer las capas anteriores de la córnea hasta una profundidad de medio milímetro; el tejido así extraído se congela y u n a vez solidificado, se remodela en un torno minúsculo hasta que quede con la curvatura deseada, del mismo modo que se pule una lente, y luego se lo injerta nuevamente en su sitio. Mediante esta operación, la parte extraída de la córnea puede tomar la forma ele lente positiva o negativa, según las necesidades. Este tipo de intervención, aparte de su amplia aplicación en casos de miopía, presbicia, astigmatismo, pueden ser muy útiles como tratamiento accesorio después d e la extirpación de cataratas. Cuando se ha extirpado el cristalino, u n a remodelación de la córnea puede imprimirle una curvatura conveniente, que facilita la rehabilitación d e l paciente. O

47


5

Generador solar

L a f o t o g r a f í a muestra un generador solar a semiconductores, realizado por el I n s t i t u t o Estatal d e Energía d e M o s c ú . E s t e generador d e energ í a eléctrica está destinado a ser instalado en zonas desérticas donde, c o n e c t a d o a u n a bomba adecuada, p o d r á elevar 1 , 5 tonelada d e agua por liora desde u n a p r o f u n d i d a d d e 2 0 metros. O b v i a m e n t e , al aprovec h a r la e n e r g í a solar, este equipo r e q u i e r e escaso mantenimiento y n e n e un costo d e operación despreciable. Esto, a su v e z , favorece l a instalación e n zonas remotas o d e difícil acceso, siempre q u e cuenten con la adecuada exposición solar. O

6

El puente sumergido El Gobierno de Italia llamó a una licitación de anteproyectos de un puente sobre el estrecho de Messina. Este estrecho, que une el extremo_ continental de la península con la isla de Sicilia, presenta algunas dificultades particulares. Tiene 3 kilómetros de longitud y una profundidad variable que llega hasta los 350 metros. Tiene además un intenso tráfico marítimo que la erección de un puente no debe molestar. La solución obvia resulta el puente colgante y cinco de las seis ideas premiadas por la licitación se refirieron a este tipo de construcción, en variantes de 1, 3, 4 ó 5,luces. Sólo el puente colgante de una sola luz llena plenamente las exigencias técnicas, ya que es el único que no obstruye la navegación, pero un puente así concebido debe tener sus torres de ancla¡e de una altura equivalente a la del Empire State Builcling. Además el viento movería este puente en forma tal que asustaría a los que lo transitan. La otra idea —única presentada por una firma extranjera— fue realizada por un grupo británico de

ia

ingeniería con sorprendente originalidad. Los ingleses propusieron un puente sumergido y flotante. La idea de un túnel subácueo clásico tampoco era viable, no sólo por la diferencia de profundidades del lecho marino, sino porque el puente debe servir también como paso ferroviario y su construcción no sería compatible con las débiles pendientes que son capaces de superar los transportes sobre rieles. _ El puente del grupo británico obvia estos dos inconvenientes porque flota a sólo 50 metros por debajo

de la superficie y no requiere mucho más de un kilómetro de túneles de cabecera sobre el terreno firme. El túnel flotante, anclado al lecho del mar, tiene otras ventajas: no está sometido a cambios de temperatura más allá de unos pocos grados centígrados, es más fácil y más rápido de instalar que un puente colgante, no es afectado por los vientos. Enfrenta, sin embargo, el curso de las corrientes marinas, pero ese esfuerzo se puede minimizar dando al túnel un perfil externo adecuado, así como la adecuada flexibilidad que le permita curvarse bajo el esfuerzo, a la manera de los pontones de un puente flotante convencional. Si bien no se ha hecho hasta el presente un cálculo detallado de costos, parece ser que el puente sumergido es la forma más barata de cruzar inconvenientes geográficos de este tipo y magnitud. La ilustración adjunta muestra un corte del proyecto inglés que, para adecuarse a las exigencias de la licitación, consta de tres tubos de acero y hor-


migóri destinados, uno de ellos, al cruce ferroviario y, los otros dos, al tránsito automotor. Si el Gobierno italiano decidiera poner en marcha este proyecto, se estima que estaría en condiciones operativas hacia fines de la presente década. O

7

El motor Wankel se complica

El motor de combustión interna ele pistón rotativo, patente "Wankel, es el competidor más serio que ha tenido el motor de pistones en toda su historia y en su aplicación en automotores. Si bien hasta ahora el mercado internacional ofrece unos pocos automóviles impulsados por motor Wankel (NSU, Mazda, Citroen), son numerosos los fabricaníes de automóviles que trabajan intensamente en su desarrollo y que lo aplicarán en sus productos, en los próximos años. También Rolls-Royce trabaja, desde hace seis años, en un prototipo a pistones rotativos'destinado a vehículos militares. Ese prototipo funciona según el ciclo diesel —es decir, de alta compresión y autoencendido— y presenta innovaciones morfológicas que sorprendieron a los especialistas. Una de las limitaciones del motor de cámaras epitrocoidales, de alta compresión, es su elevada relación superficie/volumen. Para mejorar ese valor los ingenieron de RollsRoyce decidieron aplicar el principio Wankel en dos etapas. Cada unidad del nuevo motor consta de dos rotores que se mueven en la misma dirección y a la misma velocidad, con una diferencia de fase de 180 grados, aproximadamente. El pistón o rotor inferior, de mayor tamaño, tiene superficie de trabajo planas. Aspira el aire exterior y lo comprime a baja presión. A. través de un canal de transferencia el aire es introducido en la cámara superior donde es comprimido hasta provocar la ignición espontánea del combustible. El rotor supe-

bre todo en el medio orgánico, pero ejercen también una acción sobre el mundo mineral, en el que pueden concentrar elementos raros, producir energía, actuar sobre el potencial de óxido-reducción y separar los isótopos. Dicha actividad podría ser utilizada para concentrar minerales de bajo tenor o elementos raros. Se entiende entonces el interés por una "biomineralogía" y su importancia en geomicrobiología. Y a han sido obtenidos resultados y en un seminario reciente consagrado a las nuevas tendencias de la geología, el director científico del BRGM los expuso. Desde hace mucho tiempo se conoce la acción de los organismos virior tiene cámaras de forma espe- vos sobre un sustrato y se sabe la cial, socavadas en sus flancos. importancia del factor biológico en Los gases en expansión actúan la formación de los suelos. No obssobre la cara del rotor superior y tante, todavía resulta difícil separar luego, a través de otro canal de aquello que es debido a los mecanistransferencia — y a menor presión— mos fisicoquímicos de lo que resulta impulsan el rotor inferior, antes de de un proceso biológico. Los microsalir al exterior. organismos actúan sobre las rocas de Este motor puede construirse dos maneras diferentes; o bien demediante el agregado de sucesivas sarrollan una acción enzknática, sirunidades, hasta una potencia de viendo la roca de alimento, o una 1,000 HP. Inicialmente será consacción indirecta mediante sustancias truido con sólo dos "cilindros", to- secretadas por los microorganismos. talizando un volumen aspirado de En el primer caso las bacterias to6.500 centímetros cúbicos, con una man directamente su energía por potencia de 350 bHP a 4.600 revo- oxidación del sustrato mineral. Las luciones por minuto, un peso de 450 bacterias autótrofas se satisfacen con kilogramos y dimensiones exteriores esta sola fuente energética; otras bacsensiblemente menores a las de un terias, heterótrofas, de poder reducmotor diesel de potencia equivator, actúan sobre sustancias de orilente. O gen orgánico. La acción enzimátíca puede ser indirecta: los iones metálicos asociados a las moléculas orgánicas se liberan en el momento de la asimilación de estas últimas. En el segundo caso, las sustancias producto del metabolismo de los microorganismos, ácidos o bases, actúan al contacto con los minerales. Se conoce la acción del COa sobre los carbonatos y la del oxígeno y el SHa sobre el hierro y el manganeso. Los microorganismos que El B R G M ha estudiado principalmente las actividades bacterianas oxitransforman las piedras dantes o reductoras sobre los deriLa geomicrobiología es una discipli- vados del azufre, así como también na muy reciente, que vio la luz en la biocorrosión de los minerales silila Unión Soviética y que se estudia catados. Se prestó especial interés a e n g r a n d a desde hace algunos años la aptitud de las fuentes puras de bajo la dirección del Centro de In- tiobacilos en cambiar directamente vestigaciones Geológicas y Mineras el azufre en' ácido sulfúrico y en desarrollarse en presencia de cationes (BRGM). La cantidad de organismos que vi- extraños al medio de cultivo natuven bajo la forma de microorganis- ral. Esta tolerancia adquirida permimos supera en mucho la de los ma- te a los organismos conservarse por croorganismos. Los primeros tienen reparación en los medios ricos en una actividad muy desarrollada, so- sales metálicas y se mide su actívi-

8

49


La reducción bacteriana de los iones sulfato del agua de mar origina la formación de sulfuros metálicos, por ejemplo, la pirita (bisulfuro de hierro FeS¡). Se encuentra esta última, bajo la forma de piritosferas, en celdas de foraminíferas. Aumento: 700. (Foto BRGM).

dad en los minerales molidos. La oxidación de la pirita a sulfato y ácido sulfúrico es más rápida en presencia de bacterias como los tiobacilos. Estas bacterias se encuentran en la zona de alteración de las minas piríticas, tanto en clima tropical como templado. Las bacterias sulfato-reductoras son determinantes para la producción del SH2. Dichas bacterias frecuentan un medio anaerobio que contiene materias orgánicas y una sustancia sulfatada; este es el caso del lecho marítimo. Esta actividad es lo suficientemente intensa como para que se pueda entrever la posibilidad de

50

una producción industrial de azufre. Basta seleccionar y aislar las bacterias más activas y buscar entre los desechos industriales las sustancias biodegradables que puedan servir de "materia prima". Un estudio de la composición isotópica del azufre muestra el papel que desempeña la actividad biogenética en la mayoría de los yacimientos conocidos. En el ciclo del azufre, esta actividad bacteriana se presenta bajo un doble aspecto; se podría concentrar un material de bajo tenor que contenga cobre y pirita por sembrado de bacterias específicas y también se podría considerar una eliminación bacteriana del azufre en los carbonos o bien una producción de azufre a partir de los sulfatos. La cantidad obtenida en los laboratorios permite ya plantearse el problema de la rentabilidad industrial de tal producción. El segundo aspecto es negativo: los sulfuros se degradan a sulfatos solubles, lo que conduce a un empobrecimiento de los yacimientos y el ácido sulfúrico producido tiene un efecto corrosivo sobre las instalaciones y el medio ambiente. La biocorrosión de los minerales silicatados podría ser el origen de la solubilización del potasio o del sodio a partir de los aluminosilicatos. En el laboratorio se ha obtenido cierta tasa de solubilización del potasio y parece que la actividad de las bacterias y de los hongos sobre dichos sustratos depende de las condiciones de temperatura así como del pH. _ También se estudian las neogénesis en medio marino: las formaciones de sulfuros metálicos observadas actualmente en los fondos marinos resultan de la acción bacteriana en las condiciones particulares del medio de sedimentación. La explotación de nuevas fuentes minerales y la eliminación de desechos industriales son problemas agudos y aparentemente contradictorios. La utilización de los microorganismos permitirá desde ahora tratar los desechos como las lejías bisulfíticas de las papelerías o las aguas de las alcantarillas. De este modo podrían producirse sustancias útiles y se frenaría la contaminación del medio ambiente. O Jacques Auvernier La Recherche

9

Desequilibrio entre materia y antimateria Varios científicos de la Universidad de Cambridge, Inglaterra, han especulado recientemente sobre la posibilidad de que las cantidades de materia y antimateria existentes en el universo no sean equivalentes. Gary Steigman ha demostrado que si el universo estuviera poblado por una mezcla en partes iguales de materia y antimateria, el flujo de la radiación gama producido en los procesos de aniquilamiento debería ser mucho mayor que el observado. Esta conclusión, sin embargo, no elimina la posibilidad de que existan regiones de materia y antimateria tan separadas entre sí que los procesos de aniquilamiento no puedan tener lugar (Nature, 224, 5257, 477). Por su parte, Janet y Bernard Jones han calculado, en base a la teoría cosmológica de expansión del universo conocida como "Big-Bang", la probabilidad de que ocurran contactos entre dichas regiones separadas de materia y antimateria, suponiendo siempre que la cantidad total de una y otra es 1 la misma. Tampoco en este caso los resultados coinciden con el flujo de rayos gama observado procedente de las más remotas.galaxias. {Nature, 227, 5257). La hipótesis de que en las etapas más tempranas de la evolución del universo los dos tipos de materia se separaron en regiones distintas, ha sido planteada por muchos cosmólogos, pero siempre partiendo de la base, aparentemente lógica, de que las cantidades totales de materia y antimateria eran iguales. Los resultados de los cálculos de Steigman y Jones replantean el problema: o las teorías más admitidas sobre la evolución del universo, como la "Big-Bang", están erradas, o bien hay un desequilibrio entre materia y ^antimateria ( y en este último caso sólo nos cabe esperar que haya más de la primera que de la segunda).O


La ciencia de los hipersonidos Fran^ois de Closets

En el curso de estos últimos veinte años, la radioelectricidad ha efectuado una impresionante escalada de las frecuencias en el espectro electromagnético. Del kilociclo se ha pasado al megaciclo y después al gigaciclo (mil millones de ciclos). En lo que respecta a las ondas acústicas, en cambio, la progresión ha sido mucho más lenta. Partiendo de las ondas sonoras, perceptibles al oído humano, y cuya frecuencia no pasa de los 20.000 ciclos por segundo (20 kilociclos), se ha llegado al megaciclo (1 millón de ciclos por segundo) y, gracias a la piezo-electricidad, a la producción de ondas acústicas por efectos eléctricos. Este es el dominio de las ondas ultrasonoras corrientemente utilizadas hoy. • En esta etapa, los especialistas tropezaron con dificultades tecnológicas que impedían el avance, aunque en teoría nada impedía alcanzar frecuencias más altas. Pero no se poseía ningún dispositivo capaz de producir esas ondas. Es en el curso de los últimos años, y hasta podría decirse de los últimos meses, que estos impedimentos técnicos han sido vencidos. Las investigaciones en cuestión han sido encaradas para mejorar el comportamiento de los radares y, en ese campo, han llegado ya al estado operacional. Pero, según un proceso clásico, las mismas se encaminan ahora hacia objetivos civiles y sus resultados se anuncian como extremadamente prometedores. La televisión y la informática están interesadas en esos resultados. Esta nueva técnica podría aportar la solución a uno de los grandes problemas con los cuales tropiezan los investigadores: la desviación de los Frangois de Closets es redactor de la haces luminosos. Para una disciplina revista SCIENCES & AVENIR y comentarista de temas espaciales en la nueva, es una gran esperanza... sin hablar de todas las aplicaciones todatelevisión francesa (O RTF).

Más allá de los ultrasonidos, pueden producirse vibraciones acústicas de varios gigaciclos. La conjugación de frecuencias electromagnéticas y acústicas muy elevadas ha hecho surgir una nueva disciplina: la electro-acústica. Se prevé desde ya su utilización para la televisión y la informática.

vía insospechadas. Un nuevo mundo acaba de ser abierto por la ciencia. La gran aventura de las ondas acústicas había comenzado en 1880 con el descubrimiento de la piezoelectricidad. Pierre Curie comprobó, partiendo de consideraciones teóricas, que cuando se somete un cristal de cuarzo a un esfuerzo mecánico se generan cargas eléctricas. La energía mecánica se transforma en energía eléctrica, ¿cómo explicarse tal fenómeno? Pierre Curie y la piezo-electricidad Cuando un cristal está en reposo, las diferentes cargas eléctricas tienden a equilibrarse de tal manera que, localmente, el centro de las cargas positivas tiende a coincidir con el centro de las cargas negativas. Comprimiendo el cristal estos centros se desplazan, es decir, dejan de coincidir, y forman un dipolo que crea un campo eléctrico. A la inversa, si se aplica un campo eléctrico exterior, los centros de carga de signo opuesto se separan, lo que acarrea una deformación mecánica. Tal es al menos la situación, si el cristal no posee una estructura simétrica. Un cristal se compone de unidades elementales repetidas periódicamente a lo largo de su retículo. La disposición de los átomos en el centro de cada unidad puede ser tal que dichos efectos se anulen; en este caso, el cristal no reacciona en su conjunto: no es piezo-eléctrico. Si, por el contrario, posee una estructura asimétrica tal que esos efectos se suman, aparece el fenómeno de la piezo-electricidad. Pierre Curie utilizó al principio este efecto para construir una balan-

51


'

1 1 s il <-mos utilizar ondas k ' i'! l de muy alta frecuencia, > > l \ na t acústicas están r ' t ente limitadas a los lt> s tío í te no sobrepasan el u l > I r recientes progresos ' o / y permitido producir i f de muy alta frecuencia, i ' n l m (lcios por segun¡i0 Estos ' l i ¡ti O'tidas. Gracias a ellos, > s t < lar dispositivos 1 l > \ de muy alta frecuencia acústicos. Ha nacido tu ti . lisciplina: ( t El radar ha sido i til tticiario: los nuevos i mejorado •ite sus performances pe- l compresión k1 f d\ Fr la foto puede oh > " t i d medio del radar t¡' » primido tal como >i osáloscopio.

za ultrasensible. Pero este fenómeno no es solamente estático, puede ser producido de manera dinámica. En lugar de someter el cristal a un campo eléctrico uniforme, se lo puede excitar con impulsos eléctricos de frecuencias determinadas. En este caso, el cristal será recorrido por ondas acústicas. Las vibraciones así producidas pueden tener una frecuencia mucho más elevada que las ondas sonoras. Los sistemas piezoeléctricos se han convertido en los generadores clásicos de los ultra' sonidos. Un cuerpo piezo-eléctrico puede entonces a la vez transformar la energía mecánica en energía eléctrica y la energía eléctrica en mecánica. Es un transductor electroacústico. Durante la guerra de 1914-18 Langevin utilizó las propiedades de emisión-recepción ultrasonoras para poner a punto los primeros sonares destinados a la caza antisubmarina El desarrollo de la radio hizo surgir una nueva aplicación sumamente importante.

_ Los técnicos en radiotransmisión tienen necesidad de contar con frecuencias fijas, perfectamente definidas. Ahora bien, un cristal de cuarzo piezo-eléctrico posee un modo de vibración muy preciso en función de sus dimensiones. Forma, en cierta manera, una cavidad resonante sólida. Es posible entonces obtener cristales de cuarzo correspondientes a frecuencias determinadas, ajustando correctamente su tamaño. Sometidos a ondas electromagnéticas sincronizadas con su frecuencia de resonancia, un cristal será recorrido por ondas acústicas: si la frecuencia no corresponde, no reaccionará. En un montaje radioeléctrico, un dispositivo semejante actuará como un filtro. Sincronizado con una frecuencia, no dejará pasar las otras ondas. • L o s .circuitos oscilantes con autoinducción y capacidad pueden jugar este papel. Pero estos circuitos tienen el defecto de amortiguarse muy rápido; la oscilación inicial desaparece rápidamente si no es mantenida. Al contrario, el cuarzo piezo-eléctri-


co vibra largo tiempo sobre la misma frecuencia, es un diapasón ultrasonoro; los especialistas dicen que tiene un excelente coeficiente de sobretensión. Los cristales de cuarzo pueden utilizarse entonces para controlar relojes o para ajustar los emisores radioeléctricos. En efecto, la frecuencia tiende naturalmente a desplazarse durante la emisión, por lo que es necesario recalibrar constantemente el aparato sobre su longitud ele onda. Este trabajo es fácilmente realizable con un cristal de cuarzo y todos los emisores de radio actualmente poseen este dispositivo. La radiodifusión utiliza frecuencias que son accesibles a los ultrasonidos. No sucede lo mismo con el radar, que utiliza micro-ondas; aquí, las ondas acústicas no podían utilizarse hasta no hace mucho. La acústica en capas delgadas En la mayor parte de las aplicaciones, se trata de preparar cristales de cuarzo cuyo modo vibratorio sea de la misma frecuencia que la onda electromagnética utilizada. Esto depende del tamaño del cristal; es necesario q u e su espesor sea del mismo orden que la mitad de la longitud de la onda. Cuando aumenta la frecuen-

£3! Figura 2. Un obstáculo tecnológico se oponía a la obtención de altas frecuencias acústicas: la necesidad de trabajar con cristales de cuarzo cada vez más delgados a medida que aumentaba la frecuencia. Para superar esta dificultad, los técnicos han recurrido a las capas delgadas. En el aparato de la foto, la señal radioeléctrica es llevada por el tubo coaxil de la derecha, el que induce vibraciones acústicas en una capa delgada piezo-eléctrica de sulfuro de cadmio. Estos hipersonidos se propagan a lo largo de la barra central de zafiro, y llegan a la segunda capa de sulfuro de cadmio situado en la parte opuesta (segundo disco negro), donde son convertidos en ondas de radio que parten por el segundo tubo coaxil.

cia, la longitud de onda disminuye y el espesor del cristal debe disminuir en proporción. Así, para 30 megahertz, se debe tener un espesor de un décimo de milímetro. Desde el punto de vista tecnológico, es un límite difícilmente franqueable, más aún si se tiene en cuenta que la colocación o el montaje del cristal sobre el soporte viene a aumentar el margen de incertidumbre. Esta necesidad de tallar un cristal cada vez más delgado a medida que se quería trabajar frecuencias cada vez más elevadas, impedía explorar el campo de los hipersonidos. Para franquear este paso era necesario utilizar un procedimiento enteramente nuevo: la técnica de las capas delgadas. Se trata de colocar una capa extremadamente delgada de material sobre un substrato por evaporación al vacío. El cuarzo no se presta a este procedimiento, pero se han descubierto nuevos cuerpos piezo-eléctricos que se acomodan a él. Es el caso del sulfuro de cadmio o del óxido de zinc. Asimismo la realización presentaba problemas tecnológicos muy difíciles, ya que había que obtener planos de cristalización bien precisos. Estas dificultades hoy han sido resueltas y se pueden obtener capas delgadas piezo-eléctricas cuyo espesor no pasa del micrón. En estas condiciones, es posible alcanzar las elevadas frecuencias utilizadas por el radar. En la práctica, las capas delgadas de sulfuro de cadmio se depositan sobre las dos extremidades de una barra de zafiro. La primera traduce en ondas acústicas las ondas radioeléctricas que recibe, las ondas se desplazan a través del zafiro y son reconvertidas por la segunda capa. Semejante reconversión trae aparejada evidentemente una disminución considerable del rendimiento. ¿Cuál puede ser entonces el interés? Se trata de jugar sobre la diferencia de velocidad de propagación de ondas electromagnéticas y acústicas. Las primeras se propagan a 300.000 km/s, las segundas 100.000 veces más lentamente. En el cuarzo, ellas se desplazan aproximadamente a 6 km/s. Pasando a través de este transductor, la onda recibe un enorme "golpe de freno", lo que significa que se ha realizado una línea de retardo. Estos dispositivos son extremadamente útiles a los radaristas, porque permiten calibrar con precisión y

Figura 3. Se distinguen dos grandes familias de ondas acústicas: ondas de volumen y ondas de superficie. Las primeras son de dos tipos: producidas por tina compresión del retículo cristalino; o bien por cortes transversales. Las ondas longitudinales o de comprensión (esquema 1) son las más generalmente utilizadas en piezo-electricidad. Por ejemplo en ciertos cristales como el cuarzo, que responden a un estímulo eléctrico produciendo una onda acústica. Las ondas transversales o de compresión (esquema 2) se utilizan raramente, ya que presentan problemas cristalográficos delicados. Ellas se propagan dos veces más lentamente que las ondas longitudinales, lo que puede ser interesante para ciertas aplicaciones. Las ondas de superficie más interesantes para la electroacústica son las ondas de Rayleigh: pueden representarse como "olas" que se propagan sobre la superficie del cristal (esquema 3).


simplicidad los aparatos. El retardo sufrido por la onda depende del trayecto efectuado a poca velocidad, es decir, bajo forma de hipersonido, y es entonces proporcional a la longitud de la barra de zafiro. Es suficiente tallar la barra de la longitud apropiada para obtener el retardo deseado. Se pueden obtener así distintos efectos, jugando sobre la diferencia de velocidad de las ondas electromagnéticas según los medios que recorren. En efecto, la velocidad de 300.000 km/s corresponde a la propagación en el vacío; es un máximo. Si se obliga a las microondas a atravesar un tubo conteniendo un dieléctrico se propagarán más lentamente y se obtendrá igualmente un efecto de retardo. Pero el efecto será infinitamente menos importante si las diferencias de velocidad son pequeñas. Con una línea acústica de 1 cm se obtiene el mismo efecto que con un tubo de-aire de 1 km: la ganancia en tamaño y simplicidad es enorme. Desgraciadamente, la operación implica una enorme pérdida de potencia. Mientras se trate de calibrar los radares esto no es tan grave porque lo que disminuye de velocidad es la señal y no el eco. Ahora bien, la señal es siempre muy potente; se la puede entonces debilitar sin destruirla. Pero para ciertas otras aplicaciones, especialmente en el campo de las mediciones, la pérdida de potencia puede resultar un escollo. Sería necesario poder realizar la operación sin pérdida de rendimiento. Para esto hay que amplificar la onda acústica durante su propagación. Un amplificador acústico La operación ha podido realizarse gracias a las propiedades de los semiconductores, utilizando el principio clásico de los tubos de ondas progresivas. En éstos la onda electromagnética progresa en línea recta. Se produce entonces una transferencia de energía del haz a la onda, la que en consecuencia se amplifica. Para obtener el mismo efecto en el terreno de la acústica, se aprovecharon, en un principio, las propiedades de ciertas substancias como el sulfuro de cadmio que son a la vez piezo-eléctricas y semiconductoras. Consideremos un cuerpo piezo-eléctrico recorrido por una onda acústica en un instante dado; si se pudiera fotografiar el fenómeno, se observa-

54

Jt

s

9

Figura 4. Mediante la utilización de las ondas de superficie, las técnicas se han liberado de los requisitos de espesor impuestos por las ondas de volumen. Es así como han podido realizarse líneas de retardo para radar. En el esquema, los trozos negros representan electrodos dispuestos sobre la superficie. Cuando se aplica una tensión a los electrodos situados en una extremidad, se produce una onda de superficie que, propagándose, provoca un impulso eléctrico semejante sobre los electrodos colectores de la otra extremidad. La señal, pasando de un soporte electromagnético a un soporte acústico, es retardada 100.000 veces, lo que puede ser muy útil, especialmente para calibrar los radares.

Figura 5. En los radares modernos, la señal es modulada en frecuencia. El impulso, relativamente largo, está formado por frecuencias " cada vez más elevadas. Para mejorar el rendimiento de estos aparatos se utilizan líneas de retardo más complejas. En estos dispositivos, los electrodos están dispuestos en forma de peine, "interdigitados". Los espacios entre los dientes del peine son cada vez más pequeños. Las ondas llegan a las separaciones correspondientes a su longitud de onda. En estas condiciones las bajas frecuencias que llegan primero son frenadas sobre los primeros electrodos. Las altas frecuencias que llegan al final se reciben sobre los últimos electrodos. Así, como los primeros son retardados más tiempo que los últimos, en total el impulso resulta comprimido, lo que facilita la recepción.

rían oscilaciones en el campo eléctrico interno. Las compresiones y dilataciones sucesivas corresponden a las zonas eléctricamente opuestas. Si el cristal contiene portadores de cargas eléctricas, electrones o "huecos" positivos, ellos serán objeto de estímulos opuestos. Como consecuencia, se ponen en movimiento y tienden a acumularse en ciertos puntos. Por definición, un semiconductor contiene tales portadores de cargas libres, por ejemplo electrones que, en reposo, se distribuyen de modo aleatorio, pero quedan disponibles para responder a cualquier estímulo. En un cuerpo a la vez semiconductor y piezo-eléctrico, la aparición de ondas acústicas lleva los electrones libres a reagruparse en los puntos de equilibrio entre las compresiones y las dilataciones. Pero se trata esencialmente de un fenómeno dinámico y no estático: la onda se propaga. En estas condiciones los "paquetes" de electrones se desplazan con ella para "mantener" esta posición favorable. ¿Quá pasa si se aplica entonces al cristal un campo eléctrico? Los electrones serán acelerados por ese campo. Si éste está bien calculado, ellos tenderán a desplazarse más rápido que los hipersonidos y tendrá lugar una transferencia de energía. Los electrones en su movimiento van a dar una parte de su energía a la onda acústica, que, en consecuencia, resultará amplificada. Si se utilizan substancias como el sulfuro de cadmio, que tienen la doble propiedad de ser semiconductoras y piezo-eléctricas, se pueden realizar líneas de retardo que compensan, mediante la amplificación de los hipersonidos, las pérdidas inherentes a la conversión electromagnéticaacústica-electromagnética. No se trata de realizar una amplificación de la señal; los dispositivos electrónicos de alta frecuencia, especialmente los nuevos transistores, lo hacen en condiciones mucho más favorables. Se trata simplemente de no perder energía en la línea de retardo. De todos modos, este dispositivo tiene el inconveniente de utilizar un cuerpo que debe ser a la vez semiconductor y piezo-eléctrico. Ahora bien, no existen substancias que cumplan perfectamente ambas funciones a la vez. Se lograrían mejores resultados si se pudiera hacer cumplir una función por un muy buen cristal piezo-eléctrico y la segunda


por un muy buen semiconductor, encontrando el medio de acoplar los ilos efectos para obtener a la vez el efecto de retardo y el de amplificación. Hoy, esto es posible gracias a las ondas de superficie. Se trata del segundo gran avance tecnológico que ha permitido conquistar el terreno de los hipersonidos.

Las ondas de superficie l-l asta el momento no hemos hablado más que de las ondas de volumen, es decir, de las vibraciones que se propagan en toda la masa del sólido. Estas pueden ser de dos clases: longitudinales, es decir correspondientes a las compresiones y dilataciones, o transversales, es decir correspondientes a cortes periódicos i:u el cristal. Nosotros nos hemos contentado con citar las ondas longitudinales, que son las más generalmente utilizadas, aunque las transversales presentan la ventaja de propagarse dos veces más lentamente y producir así un efecto de frenado todavía más importante. A veces se las utiliza, pero son más difíciles de manipular y presentan problemas especialmente delicados desde el punto de vista cristalográfico. Pero esas ondas longitudinales o transversales son siempre fenómenos que interesan a la totalidad del sólido. Ahora bien, existe otro tipo de vibraciones acústicas: las ondas de superficie u ondas de Rayleigh, La mejor comparación son las olas del mar, ya que se trata exactamente del mismo fenómeno. Las vibraciones de superficie no son privativas ile los líquidos, sino que pueden producirse también con menor amplitud, sobre todos los sólidos. Es por tal motivo que los sismólogos se interesan enormemente en ellas. Cuando se comprime la superficie de un cristal, sobre la misma se propaga una perturbación ondulatoria. Estas ondas son de naturaleza acúslica y corresponden a un desplazamiento espacial de los átomos, presentando numerosas ventajas sobre las ondas de volumen. La principal es precisamente la de no afectar más que una capa extremadamente superficial. Aquí también se puede utilizar l.i analogía con los fenómenos marinos. Se sabe que una decena de metros bajo la superficie, el submarino no siente más la tempestad; toda perturbación desaparece para una

profundidad igual a dos o tres longitudes de onda. Importa poco que bajo una superficie existe un espesor de 10 veces, 1.000 veces o un millón de veces la longitud de onda; el fenómeno sigue siendo rigurosamente el mismo. ¿Pero cómo engendrar ondas de una frecuencia semejante? El principio generalmente adoptado es el de los electrodos en forma de peines, "interdigitados". Se trata de provocar una compresión de la superficie, lo que puede lograrse con dos electrodos de signo contrario. La "ola" provocada tendrá una longitud de onda aproximadamente igual a la separación entre los dos electrodos. En el dispositivo más simple se toma entonces una barra de cuarzo sobre la que simplemente se depositan dos electrodos en un extremo y dos en el otro. Los impulsos eléctricos de una extremidad inducirán ondas de superficie que provocarán» impulsos eléctricos sobre los otros dos electrodos. Estos deberán tener evidentemente, la misma separación que los primeros. Este fenómeno permite acoplar el cuarzo y un buen semiconductor, el silicio por ejemplo. En efecto, si se coloca el semiconductor por encima del cuarzo, pero a muy poca distancia de él, el acoplamiento acústicoeléctrico se efectúa como en el interior del sulfuro de cadmio con la diferencia de que, teniendo cada substancia dentro de su especialidad un comportamiento mucho mejor, el efecto total será superior. Se llega así a realizar líneas que no tienen ninguna pérdida. Uno de los aspectos 1 más interesantes de las ondas de superficie reside en las compresiones de impulsión. El tamaño de los radares modernos depende de la potencia emitida y la precisión de la brevedad de los impulsos. Como la posibilidad de producir potencias instantáneas muy elevadas está limitada por razones tecnológicas, los radaristas son llevados a emitir impulsos relativamente largos para obtener grandes alcances. Placiendo esto, pierden precisión. Sería .necesario emitir un impulso largo y recibir un eco breve. Es exactamente el "pase mágico" que permite la acustoelectrónica. La señal emitida por los radares modernos se extiende sobre una gama de frecuencias relativamente ancha. Imaginemos que se ha emitido en un milisegundo una señal comportando frecuencias cada vez más elevadas.

Figura 6. Ejemplo de impulso comprimido. El impulso de arriba representa el eco normal. Su longitud hace que su precisión no sea muy buena. El gráfico de abajo representa el mismo eco comprimido, mucho más fácil de interpretar.

En la recepción, las ondas de baja frecuencia serán las que lleguen primero. Pero ellas no van a encontrar sobre el cuarzo los electrodos simples de los que ya hemos hablado, sino que los mismos tendrán la forma de peines interpenetrados en los que la separación de los dientes disminuye progresivamente. Para la parte más próxima a la extremidad, corresponderán las frecuencias más bajas, después va progresivamente disminuyendo, correspondiendo a las longitudes de onda cada vez más cortas que contienen la señal. Lo mismo pasará en el electrodo de salida . ¿Qué sucede en esas condiciones? Las bajas frecuencias que llegan primero son captadas por los primeros dientes que corresponden a su largo de onda. Ellas son entonces transformadas en hipersonidos y comienzan a propagarse 100.000 veces más lentamente. Las ondas de mediana fre-

55


Figura 7. La utilización de líneas de retardo acústicas comporta un gran debilitamiento del eco. Para evitar este inconveniente se utilizan líneas amplificadoras. En estos dispositivos, se coloca un semiconductor sobre la superficie del cuerpo piezo-eléctrico, a muy poca distancia de la misma. Las cargas eléctricas se desplazan en fase con la onda acústica y la amplifican.

Figura 8. Las ondas acústicas hacen variar el índice de refracción del medio que atraviesan. La variación es proporcional a la frecuencia de las ondas. Mediante el uso de los hipersonidos es posible controlar la deflexión de un haz luminoso, haciendo variar simplemente la frecuencia de los mismos.

56

cuencia no son interceptadas sino en la mitad del peine, y es sólo entonces que su velocidad de propagación comienza a disminuir. Finalmente, las ondas de muy alta frecuencia que llegan últimas recorren todo el largo del electrodo a 300.000 km/h y no son frenadas sino en los últimos dientes. La ventaja que tenían las bajas frecuencias sobre las altas, se halla compensada por el hecho de que deben caminar un trecho más largo a velocidad reducida, dejando así a las segundas el tiempo de llegar. En total, la señal que estaba extendida sobre un milisegundo a la llegada, se reencuentra comprimida en microsegundos a la salida del electrodo. Toda la energía es concentrada en un instante. En estas condiciones el receptor tendrá mucha más facilidad para distinguir la señal del ruido. En lugar de observarse en el osciloscopio una curva vagamente redondeada, se observa un pico neto, fácilmente reconocible. Haciendo variar el largo de los dientes, hasta será posible eliminar los lóbulos secundarios para acentuar todavía más la limpieza del fenómeno. Pero la ventaja de precisión sería nula si no se pudiera determinar a qué punto de la señal corresponde el instante en que llega el impulso comprimido. Por suerte se sabe que corresponde exactamente al medio del impulso. Se cumple así un asombroso pase de prestidigitación. Los técnicos tienen en la emisión todas las ventajas de la emisión larga y, en la recepción, las del impulso corto. La amplificación acústica puede permitir que la señal no se debilite durante el transcurso de la operación. Tales líneas de retardo se utilizan actualmente en los grandes radares modernos; ellas han jugado un rol capital en el mejoramiento reciente de sus performances, mejoramiento que permite detectar la evolución de

una señal inmediatamente después de la aparición de la misma.

Hipersonidos y luz Un haz luminoso que atraviesa un sólido transparente es más o menos refractado según las características de este último. Estas características son modificadas por las ondas acústicas que pueden atravesar el medio: el ángulo de refracción cambia. Entonces, si se emiten ondas acústicas en un medio transparente, el haz luminoso puede desviarse. La idea no es nueva: ya en 1922 el físico francés Brillouin había hecho la experiencia produciendo ultrasonidos en el agua. Pero la desviación del haz así obtenida era ínfima. Para obtener un efecto interesante, era necesario utilizar frecuencias mucho más elevadas: utilizar hipersonidos. Hoy, que se sabe cómo producir tales ondas, estas investigaciones despiertan un renovado interés. Se trata, en efecto, de un problema esencial de la técnica moderna. Un haz de electrones puede ser fácilmente desviado: las partículas, estando cargadas, son desviadas con facilidad por efecto de un campo magnético, pero los electrones tienen el defecto de no propagarse más que en el vacío. El rayo luminoso en cambio, puede propagarse en el aire, si bien da lugar a otra dificultad: al estar constituido por fotones, partículas neutras, no puede ser desviado por efectos electromagnéticos. En esas condiciones, debe recurrirse a procesos mecánicos: espejos giratorios, fuentes móviles, etcétera. Desgraciadamente la mecánica no permite trabajar con flexibilidad y rapidez y es imposible efectuar un verdadero barrido rápido con un haz electrónico y un tubo al vacío. Esta necesidad de utilizar el vacío es extremadamen-


te incómoda, pero es necesario aceptarla porque no hay otra solución posible. Sería diferente si se dispusiera de un procedimiento físico para desviar la luz. Tomemos un ejemplo dentro de otro campo. Se estudian actualmente sistemas ópticos de memoria de gran capacidad, donde se trata de representar la información elemental no ya bajo forma magnética, sino bajo la forma de una imagen puntual: esto permite conservar un número mucho más elevado de informaciones sobre una misma superficie. Tal solución parece ideal para las enormes memorias de los archivos que necesitará la información en los próximos años. Pero para leer esas memorias, es necesario efectuar un barrido muy rápido y preciso. El rayo láser tendrá la finura necesaria, pero no se sabe cómo efectuar ese famoso barrido óptico. Como puede apreciarse, se trata de un problema clave de la tecnología moderna, un problema que condiciona la solución de muchos otros. Los investigadores han pensado en utilizar los hipersonidos para desviar el haz luminoso. El procedimiento es extremadamente simple. Se trata

de hacer pasar el haz luminoso a través de un cuerpo transparente y piezo-eléctrico como el cuarzo. Un generador de hiperfrecuencía se aplica a los bornes del cristal; según la frecuencia de los hipersonidos inducidos, el ángulo de refracción es más o menos grande, pudiendo realizarse así un verdadero barrido modulando la emisión en frecuencia. Los primeros trabajos efectuados en la Thomson - C.S.F., de Francia, son muy prometedores. Los investigadores han desviado exitosamente un rayo láser varios grados. Esto puede parecer un resultado pobre, pero no es así. Importa poco, en definitiva, desviar el haz 50° ó 3 o . Lo esencial es desplazarlo con gran precisión, controlar perfectamente su movimiento. En estas condiciones, sólo se puede obtener un gran número de puntos, es decir, un poder separador que permite un verdadero barrido. Si la desviación es muy débil pero la precisión muy grande, siempre es posible agrandar ópticamente la imagen. En consecuencia, las primeras experiencias demuestran precisamente que se puede muy bien controlar el barrido con este sistema, lo que permite fundar grandes espe-

El Fresco Toscano (Viene de página 38) Entonces comienza la preparación de la pintura para su colocación en un nuevo soporte. La selección de un adhesivo adecuado es tan compleja como la del fijador, analizada previamente. Los productos más útiles son soluciones de resinas sintéticas disueltas en benceno o en acetona. La preparación se efectúa como para el "facing" por medio de gasa y tela. Una vez realizado este proceso, el fresco se coloca sobre un nuevo soporte. En Italia se usó comúnmente un chasis de tensión regulable; esta práctica ha sido abandonada, pues es difícil conservar una tensión constante. Un soporte rígido es preferible, a condición que éste no nivele la superficie y le imponga una uniformidad artificial. El soporte más común está formado por una hoja de espuma de plástico (polystirol) de cinco milímetros de espesor, pegada, por medio de acetato de vinilo, a la tela y a una hoja de cloruro de polivinilo resistente a la humedad que se deja modelar al infrarrojo tomando la forma deseada (especialmente importante para bóvedas). Una vez colocado el fresco sobre el soporte sé disuelve la cok del "facing", eliminando así las gasas y la tela, y eyentualmente se coloca el fresco sobre su muro original para conservar la armonía estética del ambiente. El stacco (figuras 5, 6 y 7 ) para el cual es necesario una fuerte cohesión entre la capa pictórica y el "intonaco", no se puede realizar para grandes extensiones; es evidentemente más difícil y más costoso que el strappo,

ranzas sobre esta técnica. En este campo ya se han realizado también los primeros estudios para mejorar los radares. Pero, una vez más, esta primera investigación desemboca sobre un campo mucho más vasto. Es toda la televisión, la visualización y la informática que están comprometidas, si bien recién estamos en las primeras experiencias. En el curso de los últimos meses la electroacústica se ha convertido en una "disciplina de moda". El interés de los militares crece, el de los industriales se manifiesta. Como en toda investigación nueva, los elementos de incertidumbre son numerosos. Los investigadores habían acariciado en un primer momento la esperanza de fabricar verdaderos amplificadores electroacústicos, pero han debido renunciar a esta idea: la electrónica está decididamente mejor adaptada a estos problemas. Los investigadores se lanzan hoy hacia otros objetivos aunque evidentemente, sin ninguna certidumbre. De todas maneras, los primeros resultados son lo suficientemente prometedores como para que no quepa ninguna duda de que los hipersonidos están llamados a "provocar escándalo" en el futuro. O

pero permite respetar las irregularidades de la superficie. El "facing" consiste en la aplicación de una gasa de algodón y una o varias telas adheridas por medio de una "colleta" que no se contrae cuando se seca. Los cortes alrededor de la sección del fresco en cuestión se realizan con bisturí o con una sierra fina. Se prepara simultáneamente un panel de madera de las dimensiones del fragmento destinado a sostener éste durante el arranque y a recibirlo cuando se separe del muro. Se golpea la superficie con un martillo de goma dura a fin de preparar la separación entre el "intonaco" y el "arriccio"; el arranque se hace introduciendo entre ambos, largas barras de hierro. Tanto la masonita como ciertas resinas sintéticas son utilizadas sin inconveniente como soporte. Las operaciones para el stacco a mosella, método poco utilizado, son similares, aunque más complejas, a los del stacco. Naturalmente la descripción de los métodos anteriores no puede ser exhaustiva; en la restauración es necesario adaptar e improvisar según las exigencias de ^ E n T ^ ó , Florencia fue inundada por el desborde del Amo que ocasionó pérdidas importantes en los frescos y sobre todo, puso en peligro la mayoría de ellos Fue necesario transponer centenares de metros cuadrados de pinturas. Para ello se contó con el apoyo de muchos países y gracias a esa ayuda se pudieron superar g r a v e s inconvenientes. En este momento gira por el mundo., como prueba de agradecimiento de los florentinos, u n a magnífica exposición de los principales frescos transpuestos hasta hoy.O

57


El juego del GO Hilario Fernández Long

l í T n Z s 1 i r t T Í g " °* faSCÍnaT t*' 1™ J'^os. Se lo practica en Oriente desde Z f J 3000 anos Supera al ajedrez por la simplicidad de sus reglas, la nrofundi g dad de su estrategia y la sutileza de sus tácticas. ' profundi-

e n t r e d o s P e r s o n a s - Una de ellas dispone ? de 181 fichas negras iguales, y la otra de 180 blancas. Los jugadores van, colocando, alternativamente, y comenzando por el negro, una ficha sobre intersecciones vacias de un tablero cuadriculado. El tablero reglamentario es de 19 X 19 líneas; pero pueden utilizarse, con Unes de entrenamiento, tableros menores. En la figura, el jugador negro ha colocado su ficha sobre una intersección vacía y luego el blanco la suya sobre otra. Una vez colocadas las fichas sobre el tablero no pueden moverse sobre él, pero pueden ser comidas. Los 9 puntos negros que se ven sobre el tablero son para referencia, y para colocar sobre ellos, al principio del partido, fichas negras, en el juego con handicap. Intersecciones adyacentes son las inmediatas unidas por un tramo de recta. Las inmediatas en diagonal no son adyacentes.

>-

4-tÍH A-A-mi B-B-Q-B-C

D

El propósito del juego es similar al de los ejércitos en la guerra: a) conquistar territorio, y b) destruir fuerzas enemigas. Se conquista territorio rodeándolo con fichas, como en el rincón superior izquierdo. Los puntos A son territorio del negro, los B del blanco, y el C es neutral. Como los territorios pueden estar sujetos a invasión, sobre todo cuando son extensos, debe esperarse al final del partido para saber si un territorio está definitivamente conquistado. Se comen fichas rodeándolas, de modo que las fichas atrapadas no tengan adyacentes espacios vacíos. En la mitad inferior de la figura, las fichas negras sólo tienen un espacio libre adyacente en D. Todavía están libres, pero si las blancas juegan en D las negras quedan atrapadas y deben quitarse del tablero. Gana el jugador que suma más espacios vacíos rodeados y fichas adversarias comidas.


k A A 1 2 1

| l> óo óo ?r 1

Bfl |W

Ahora juegan las negras; pero no lo pueden hacer en B, porque con ello comerían la ficha blanca en A, y el tablero volvería a quedar exactamente con la configuración de la primera figura, lo cual está prohibido. Por lo tanto las negras deben jugar en cualquier otra parte. Las blancas sí podrán jugar en B, si lo desean. Si no lo hacen, ahora las negras sí pueden jugar en B y comer la ficha en A, porque la configuración total del tablero es distinta, a raíz de las dos fichas colocadas en otras partes.

En cambio está permitida la siguiente secuencia que produce configuraciones distintas:

y Vj. w w

| Está prohibido el suicidio. El blanco no puede jugar en el punto A porque su ficha quedaría automáticamente atrapada. Tampoco podría jugar en B, porque quedarían atrapadas cuatro fichas. Pero está permitido colocar una ficha en posición de apócente suicidio si con ello se le quita la última libertad que le quedaba a un grupo contrario. De esta manera las fichas adversarias quedan comidas, y la ficha propia queda libre. Por ejemplo, el blanco puede jugar en C porque con esa jugada come las fichas negras inmediatas. De esta regla se desprende que si un grupo de fichas de un color tiene en su interior dos espacios vacíos no adyacentes entre sí, el grupo resulta incomible. 'Está prohibido hacer una jugada que produzca una disposición total del tablero exactamente igual a alguna anterior. Veamos una situación, en tres posiciones consecu tivas:

>B< ti A

W

1 >B< 1 A

Las blancas juegan en A y comen la ficha en B. Ahora las negras pueden jugar en B y comer dos fichas blancas. Esta configuración no es exactamente igual a la primera. Por lo tanto ésta es una jugada lícita.

Las realas riores ladas. ciona,

í 1): Le toca jugar a las blancas. El punto A es la última libertad que le queda a la ficha negra rodeada. ( 2 ) : Las blancas juegan en A. ( 3 ) : La ficha en Bs comida, se retira del tablero. Esta situación se llama Ko,

A

anteriores son las únicas reglas del Go. Existen derivadas que surgen lógicamente de las antey que no necesitan ser explícitamente tormuSin embargo, en los libros sobre Go se las menpara facilitar el aprendizaje.

Una de esas reglas es la de los dobles ojos, ya mencionada: puesto que está prohibido jugar en un espacio rodeado por el enemigo si no es para comer cuando un grupo conectado contiene en su interior dos ojos desconectados entre sí, está prohibido colocar en cada uno de ellos una ficha enemiga. De esta manera, un grupo con doble ojo es incomible. En algunas ocasiones los dobles ojos son aparentes y es posible comer una parte del grupo, jugando en uno de ellos Los ojos A y B son verdaderos. Los ojos C y D son laisos.

59


Existen situaciones en las que ninguno de los jugadores puede ocupar una intersección, porque con ello pone en peligro su grupo. Estas situaciones se llaman en japonés Seki. Cuando ocurren, los jugadores las abandonan y siguen jugando en otra parte del tablero. Si existieran territorios rodeados por grupos en Seki, no se computan. Los puntos F y G pertenecen a situaciones como éstas.

NOTA DE LA REDACCION:

Nos parece interesante completar la descripción del juego del Go contenida en este artículo, cuyo envío agradecemos muy sinceramente a su autor, con alguna información complementaria. En cuanto a su historia el Go, originario de la^Chma, se juega en la actualidad no solamente en este país, sino también en Corea y en Japón, país este último que se transformó en su principal cultor, hasta el extremo de A/y ^ que puede decirse que el juego nacional del Japón es )-é-D-á precisamente, el Go. De Japón el juego se ha exten' TS dido luego a los países occidentales, especialmente algunos europeos y los Estados Unidos ele Norte Amé-, rica, donde los entusiastas se cuentan por millares y hay varios clubes especiales que los agrupan. En Japón, los jugadores se agrupan en categorías, separadas entre sí por la ventaja de una ficha. Existen 55-c reglas que gradúan, de acuerdo con los resultados, el avance de una categoría a otra. Las nueve categorías Sf-c superiores se consideran formadas por los grandes maestros, todos profesionales, y las más altas catego• rías raras veces se alcanzan. Por ejemplo, Lasker, op. cit., menciona que al comenzar la última Guerra Mundial no había ningún jugador en las categorías octava y novena y sólo 6 en la categoría séptima. Desde que Cuando se tienen rodeadas fichas enemigas de tal se estableció el sistema, sólo nueve jugadores han almanera que aun manteniendo provisoriamente la liber- canzado el noveno grado en 300 años. También es curioso señalar que mientras en los artad están irremisiblemente condenadas, se dice que esas fichas están muertas y generalmente no se las come, tículos escritos en idiomas occidentales las jugadas se rodeándolas del todo, porque con ello se desperdicia- describen generalmente con una notación algebraica, inrían jugadas. Terminado el partido, esas fichas se reti- dicando la casilla en que cada pieza es jugada —empleando las letras A a T (la I y, por supuesto, la Ñ no ran del tablero, como comida. Se da por terminado el partido cuando ninguno de se usan) para las columnas verticales de izquierda a los jugadores tiene ya más nada que ganar, ni en terri- derecha, y los números 1 a 19 para las filas horizontorios, ni en fichas. En ese momento se retiran las fi- tales de abajo hacia arriba'— en los artículos en japonés chas muertas. El score de cada jugador está dado por se dan diagramas progresivos del juego, indicando denlas intersecciones vacías rodeadas (territorios más las tro de cada ficha agregada desde el anterior diagrama, fichas contrarias comidas). Se simplifica el cómputo co- el número de orden en que se jugó. locando las fichas comidas en el territorio de su mismo En este diagrama indicamos las maneras más usuales color. El score está dado entonces por los territorios que quedan. La mejor estrategia es la que permite obtener mejor rendimiento de cada ficha. Por ejemplo, se necesitan menos fichas para rodear igual territorio en los rincones que en los bordes y menos fichas para obtener tet kf rritorios en los bordes que en el centro. Por eso es vital dominar el mayor número posible de rincones. i* w Ak9 t w~ En general rinde más luchar por territorios que por rJ V. comer fichas. Al comenzar el partido no conviene amontonar fichas juntas, sino desparramarlas por todo el tablero, en <J formaciones ralas. Para un conocimiento más profundo y detallado del juego del Go, puede verse: Go and Go-Moku, de Edward Lasker, Dover Edition. O

s

s

s

Hilario Fernández Long es Ingeniero Civil de la Universidad de Buenos Aires, en la que se desempeñó como Profesor Titular de la Facultad de Ingeniería, Decano y Rector, Actualmente es Profesor de la Universidad Católica Argentina y je desempeña como consultor en problemas estructurales.

60

-1 n 9 fc-H —i»

—VJ—

s

rJ

- v J~


de empezar a conquistar territorios, de mayor a menor fuerza. La línea de fichas negras marcadas con el 1 es muy fuerte, pero lenta; la de fichas blancas marcada con 2 más rápida y aún fuerte; la de fichas negras marcada con 3 es aún fuerte; la de fichas blancas marcada con 4 es casi tan fuerte como la anterior, pero aún más rápida; en tanto que 5 y 6 (negras y blancas, respectivamente) son fuertes y rápidas para penetrar en nuevos territorios. En el último diagrama damos un comienzo típico de partida, después de seis jugadas negras y otras tantas blancas.

Ai

r 1 w

'

r -iJ

J k 1i

rJ

S

iVH1

J

1

i.

\J

-c y< '

V

á

-i

*

r^J

Mif -cX rsJ 1 V —1X sj, s

«

rL j

h gi it

gi

s

fJ

f V

y-

s

T 1

T

Kr i\ |W

1

s

it

Hb

J

L<>

Complementando la bibliografía señalada por el autor, mencionemos que un muy sintético pero completo resumen de las reglas del Go se encuentra en la obra de R. C. Bell, Board & Table Games From Many CiviUzations, tomo I, que en 1969 apareció en una económica edición de Oxford University Press. En esta obra el juego está descrito bajo su nombre chino originario, Wei-Ch'i. M. Risueño

VIDRIO JENA Para la óptica Para la técnica de Láser Para el laboratorio Para mediciones de potenciales electro-químicos Para la construcción de cañerías y plantas industriales Para la protección de radiaciones Para la electrónica y la electrotécnica Para usos farmacéuticos Para soplado de piezas y aparatos Para la termometría Para la técnica del calor y de la iluminación Para aparatos domésticos y menaje de cocina

Muestra de Libros Durante las tres semanas comprendidas entre el 12 y el 30 de abril próximo, la librería Cúspide organizará una exposición de libros en la Facultad de Ciencias Exactas de la Universidad Nacional de Buenos Aires. La primera semana la muestra funcionará en el edificio de Perú 222, donde serán expuestos libros de química y geología; la segunda, en el Pabellón 1 de la Facultad, en Núñez, con textos de física, matemáticas y computación, y la última semana en el Pabellón 2, también en Núñez, la muestra estará dedicada a ciencias biológicas.

JENAERGLAS

SCHOTT Cerrito 228 - 6°

SUDAMERICANA S.A.

Tel. 35-9627 - 4237

61


Libros nuevos

Genética

y

evolución

€. Petit y G. Prevost Traducción del original francés: Griselda Ribó Ediciones Oniega, S.A. Barcelona Barcelona, 1970, 392 páginas

Sumario: Primera parte: Genética. I. Problemas de la herencia. II. Identificación del material genético. III. Función autocatalítica del gene. IV. La meiosis y sus consecuencias. V. Las alteraciones del núcleo y sus consecuencias. VI. Intercambios cromosómicos no meióticos. Parasexualidad. VII. Estructura fina del gene. VIII. Función heterocatalítica del gene. IX. El código genético y la síntesis de las proteínas. X. La mutagénesis. XI. Regulación del metabolismo celular. Segunda parte: Evolución. L Poblaciones. II. Genética de poblaciones. III. El papel de la selección en la adaptación de las poblaciones naturales. IV. Especie y especiación. V. Diferenciación de los grandes grupos. VI. Evolución humana. Bibliografía.

tivo fuera del campo de la historia argentina. Segunda parte: Primeras experiencias y evaluación del método retrospectivo. V. En la Escuela Industrial Superior de Santa Fe (Universidad Nacional del Litoral). VI. En el Instituto del Profesorado Básico de Santa Fe (Universidad Nacional del Litoral). Palabras finales. Apéndice. Bibliografía.

Fronteras

del

espacio

Wernlier von üraun /

Editorial I'omairc Barcelona, 1970, 2 0 3 páginas

Sumario: I. Lanzamiento y ascenso. II. Vuelo a través del espacio. III. La seguridad en el espacio. IV. Estaciones en el espacio. V. Vuelo a la Luna. VI. Bonanzas en el camino hacia la Luna. VII. Hacia los puntos y más allá.

Análisis químico cuantitativo El método retrospectivo en la ensenanza de la historia Susana Simian de Molinas Editorial Estrada Talleres Gráficos Buschi, S. A. Buenos Aires, 1 9 7 0 , 1 7 9 páginas

Sumario: Advertencia preliminar. Primera parte: El método retrospectivo: fundamentación y aplicación. I. Introdución. II. El métotdo retrospectivo. III. Aplicación del método retrospectivo. IV. Posibilidades de aplicacipn del método retrospec-

62

Gil herí II. Ayres Traducción del original inglés: Santiago "Vicente Pérez Ediciones del Castillo, S.A., Madrid Madrid, 1 9 7 0 , 740 páginas.

Sumario: Primera parte: Principios fundamentales. 1. Objeto, finalidad y métodos del análisis cuantitativo. 2. La balanza analítica y su uso. 3. Reacciones iónicas. 4. Ley de acción de masas: equilibrio químico. 5. Equilibrios ácido-base. 6, lonógenos poco solubles: producto de solubilidad. 7. Iones complejos. 8.

Veracidad de las medidas. 9. Preparación de la muestra para el análisis. 10. Separaciones analíticas: métodos de precipitación. II. Separaciones por volatilización, 12. Separaciones por extracción. 13. Separaciones por cromatografía y cambio iónico. 14. Fenómenos de precipitación. Segunda parte: Métodos gravimétricos. 15. Cálculos en análisis gravimétrico. 1 6 . Determinación de agua, hidrógeno y carbono. 17. Determinación gravirnétrica del cloruro y ele la plata. 18. Determinación del sulfato y del bario. 19. Otras determinaciones gravirné tricas corrientes. Tercera parte: Métodos volumétricos. 20. La medida del volumen. 21. Fundamentos del análisis volumétrico. 22. Cálculos en análisis volumétrico. 23. Teoría de la neutralización. 24. Métodos de neutralización. 25. Volumetrías de precipitación y de formación de complejos o ionógenos débiles. 26. Teoría redox. 27. Oxidaciones y reducciones previas. 28. Métodos con permanganato. 29. Métodos con yodo. 30. Métodos con dicromato, cerio ( I V ) y bromato. Cuarta parte: Algunos métodos fisicoquímicos. 31. Absorción y emisión de energía radiante. 32. Electroanálisis. Quinta parte: Experimentales. 33. Técnica de las operaciones comunes de laboratorio. 34. Utilización de la balanza analítica. 35. Determinaciones, gravimétricas. 36. Determinaciones volumétricas: métodos de neutralización. 37. Precipitación y complejación volumétrica. 38. Métodos redox. 39. Métodos calorimétricos. 40. Métodos electrométricos. 41. Separaciones analíticas.


Correo del lector

La distancia de la • Tierra a la Luna

Señores

Directores:

En el artículo del Profesor Basov "La distancia de la Tierra a la Luna", publicado en el N? 7 de CIENCIA NUEVA (págs. 59/60), se lee: "Los prismas se hicieron de vidrio homogéneo especial de escaso coeficiente de dilatación e índice de refracción". Creo que esta frase, así como todo el párrafo relativo a los prismas del reflector láser, es bastante oscura, por lo que conviene hacer algunas aclaraciones. Los prismas del "Luna 17" no son de vidrio sino de cuarzo sintético transparente. Se trata de 14 prismas triples, de 40 mm de lado (ver foto) y para su fabricación se partió de cuarzo (SiO¡) sintético, obtenido por hidrólisis, a elevada temperatura, de tetracloruro de silicio (Cl',Si). Este material se denomina comercialmente Homosil y tiene utt coeficiente de dilatación lineal de 0,27 X 10-o/°C entre —50 y 0oC y de 0,48 X 10-*/°C entre 0 y 900 °C, lo que le permite soportar grandes cambios de temperatura sin deformarse. Para el caso del reflector láser, lo que más interesa son las propiedades ópticas y en especial la homogeneidad; para los prismas en cuestión, el fabricante, una firma especializada en cuarzo de Hanau (República Federal Alemana), aseguró una variación máxima del índice de refracción de 7 X 10~7. La resistencia a la radiación tiene que ser también muy elevada, ya que por efecto de la misma el cuarzo (como el vidrio) tiende a oscurecerse, por un proceso bastante complejo en el cual juegan un papel principal las peque-

Vista posterior y anterior de un prisma triple como los utilizados en los reflectores láser llevados a la Luna.

en julio de 1969, estaba formado por 100 prismas similares, pero más pequeños, de 20 mm de lado. Sin embargo, estos prismas estaban fabricados con otro material, denominado Suprasil-I-Top, que también es cuarzo sintético transparente, pero de una pureza química extraordinariamente elevada, lo que garantizaba que la radiación solar no iba a tener absolutamente ningún efecto sobre la transparencia. ¿Por qué los franceses y los soviéticos prefirieron un material de aparentemente menor calidad? La explicación es muy simple: la coloración debida a la radiación desaparece al elevar la temperatura. Como durante el día lunar la temperatura es notoriamente elevada, el material permanece perfectamente transparente e incoloro. Y otra razón de peso fue, naturalmente, el precio: el material de los prismas utilizado en el experimento franco-soviético cuesta la mitad del utilizado por los estadounidenses. También es interesante mencionar que todos los prismas empleados en estas experiencias, tanto las norteamericanas (incluyendo la fallida Apolo 13) como las soviéticas, fueron fabricados por la misma firma alemana. Sergio Conti Capital

No especificidad Señores ñas cantidades de impurezas presentes. Es interesante hacer notar que el reflector láser llevado a la Luna por la misión norteamericana Apolo 11,

Directores:

He leído con interés el artículo del Ing. Zubieta en CIENCIA NUEVA número 5. Sólo quiero criticarle su "no especificidad". Y les sugiero una prueba: reemplacen "computa-

63


dora" por "salchicha", "equipo" por "embutido", "velocidad" por "gusto" y "componente" por "carne de cerdo". . , y tendrán un muy buen artículo sobre la industria del chaviñado. Guillermo Monti Rosario

Un amigo Señores

directores:

La finalidad de estas líneas es felicitarlos efusivamente por la publicación'- que han lanzado al público. Soy estudiante de Ciencias Bioquímicas y también profesor de Química en el Instituto Politécnico Gral. San Martín, y debo reconocer que es imprescindible la lectura de CIENCIA NUEVA para ambas ac-

tividades así como para imponerme de la actualidad científica en toda su magnitud. Es indudable la calidad de las notas y noticias que contiene vuestra publicación, por la que modestamente vuelvo a felicitarlos. Les ruego feliciten también al Sr. Julio Moreno por su extraordinario sentido del humor. Jorge Raúl Oliva Rosario

Cuenca del Plata Señores

Directores:

Muy interesantes ¡as notas sobre el Modelo Matemático de la Cuenca del Piala que han publicado en el número 6. En la página 9 se habla de la continuación del Modelo hasta Rosario y Concordia. ¿En qué estado de avance se encuentra el estudio sobre el Paraná? Lucas Bronstein Bahía Blanca Hasta el momento la Secretaría de Recursos Hídricos no ha dispuesto la prosecución de los estudios del Modelo Matemático en sus Fases 2 y 3.

Conacyt Señores

Directores:

Quiero hacerles llegar mis felicitaciones por el editorial de CIENCIA NUEVA 5 dedicado al CONACYT tanto por su contenido como por la buena idea de separar la información (el reportaje al Dr. Taquini) con la posición de la revista. En el mismo número hablan del nombramiento del Dr. Saccberi y del sombrío futuro que este acto presagia para el Consejo. Sin disentir sobre el fondo de la critica quisiera agregar que este hecho no es aislado ni el único en la historia del CNICT; sin antecedentes tan "públicos" como los del Dr. Saccberi, otros funcionarios han cumplido una tarea semejante. Por otra parte la intervención del SIDE en los nombramientos de investigadores tampoco fue una sompresa ni un paso que se separa mucho de la linea predominante en el Consejo. Juan Carlos Saldías Capital

64

Respuesta a metegol N9 4 Este problema, como otros de las agujas del reloj, se resuelve fácilmente midiendo el ángulo del horario en el sistema duodecimal y adoptando como unidad la vuelta. En ese caso la posición del horario estará dada por un ángulo a = 0, bíbibz • • • siendo h\,hs.,hz,. . . cifras del sistema duodecimal. Es claro que hí representa el número entero de horas, de ahí que 0,0 hi-hs... es la fracción de ángulo del horario que corresponde a los minutos y fracciones. Pero como la manecilla de los minutos tiene una velocidad 12 veces mayor que la del horario resultará que (3 = 0, hzbzhi... será el ángulo del minutero. Esta simple relación entre los dos ángulos facilita la resolución de los problemas. Por ejemplo, es claro que el problema propuesto se resuelve para todas las horas x de la forma periódica mixta X = 0,hih2 • • . hmhm + t . . . fa si la posición a la que hay que volver es después de la m a . Un caso particular interesante es aquél en el cual se puede invertir la posición de las dos agujas oís teniéndose en cada caso una hora correcta. Es evidente que esto se produce en los 143 casos en que el horario forma el ángu. lo xi = 0, biba'y x2 = OjhéT. Por ejemplo para hx — 3 y bí = 5 se tienen las horas 2H h m *i = 3 26 26 v x« = 143

= 5"17 m 12

24s

en las que 143 las agujas pueden intercambiarse. Si el ángulo del horario es un número irracional, por ejemplo fracciones racionales de radianes, con la operación mencionada jamás se volverá a una posición anterior. Si ¿ i y b-2 son de igual paridad, las posiciones xi y xs se disponen simétricamente respecto de una posición de manecillas superpuestas: * 3 = 0, ha con 2 h = bi + b 2 . ' Así, en el ejemplo anterior p

xa = 0,4 = 4"21m49 — 11

Metegol N9 5 Determinar uña posición de ajedrez tal, que correspondiéndoles jugar a las blancas, si éstas realizan una movida Mi^ las negras sólo pueden realizar una movida; si en lugar de Mi, las blancas realizan una movida M2, las negras sólo tienen dos movidas posibles y así sucesivamente, hasta una movida M,- que da a las negras la elección entre exactamente r movidas posibles. El problema consiste en encontrar una posición con el mayor valor de r posible. Por de pronto, hay una serie de soluciones sumamente simples, en que r = 5.


Hace más de diez años nos volcamos al diseño y construcción de equipos para ingeniería sanitaria, tratamiento de agua, intercambio iónico, filtración, evaporación y otras operaciones de la ingeniería química. En este lapso hemos consolidado un eficiente grupo de ingenieros argentinos en torno de una idea de calidad: TP^MOLOGIA ARGENTINA :L INTERNACIONAL

Nicoli- Salgado S.A. Lima 187-37-0555/38-4687 Buenos Aires


Hituro de la energía EL MECANISMO DR I.AS ARTICULACIONES HUMANAS

c

WtM

EL ASPECTO UNITARIO DE LAS MATEMATICAS

¿COMPUTADORAS ARGENTINAS?

CONTAMINACION o a MECHO AMBIENTE

CQNACVT: una montaña da papel

r

*

*

])1>1

1 > • n . . I A n . . . . PANORAMA DE LA FISICA

Los nuevos materiales Aprendizaje visceral -

^

Riipurluju fi

)

f'itiríü Do Gumtou DEL

SOLIDO

LELOIR PREMIO NOBEL Psiquiatría y sociedad

c 5 Cí t¡ h ( P

-

V r /

moíjefc para la " 'CA p É L PLATA

n ji

&

a, n si n, a n, a el Si tn et

En el próximo número D. W. Sciama analiza los problemas cosmológicos actuales, Roger Bannister escribe sobre la fisiología del record deportivo y Gregorio Klimovsky opina sobre ciencia e ideología.

Revista de ciencia y tecnología Diagonal

Roque

P. A". - O f

43

S,

Peña

- Buenos

825 Aires


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.