< p juzzijs wm^ rj^iw<j~
Elegir un acondicionador es un problema de confianza Fedders resolvió 8.000.000 de problemas de confianza ©n todo el mundo.
i su
Aquí se llama Fedders/bgh y es el acondicionador de más venta entodoel mundo. Sólo la morca de un acondicionador puede garonlizar confianza! Y sólo FEDDERS/ B G H puede cilar 8.000.000 de garantías en el mundo enlero! Su exclusivo sistema de sub-enfriamiento calculado le otorga el mejor rendimiento en condiciones extremas de frío/calor . . . Esta es una razón más para confiar en la marca F E D D E R S / B G H ! Fácil
instalación
por
menor
superficie
Frontal! Evita roturas excesivos y su chasis deslizante
A
!e da su prestigio
Antes de comprar, piense en los 8.000.000
produce también
Televisores
Combinados S l e r e o
Molo-
rola/'BGH, Auto-Radios M o t o r o l a ' B G H ,
de aparatos vendidos en lodo el mundo . . .
temas de Radio Comunicaciones
Quién puede decir lo mismo?
BGH y
Sis-
Motorola;
Heladeras/BGH.
T o d o en sus modernas plantas de Mar•
Cor» muralla de silencio
tínez,
•
Sub-enfriamiento científicamente calculado
Km. 1.299, ruta 9.
•
Pcia.
de
Buenos
Aires
y
Tucumán,
Descongelador automático en los bgh
modelos frío-calor Filtro germicida
M A S M O D E L O S . . . Y UD. P U E D E L L E G A R
•
Controles de calidad exclusivos
UNO
•
Service de respuesta instantánea
ELLOS!
calidad. B G H Motorolo/BGH,
•
DE
BGH
De acuerdo.a estrictas normas de Fedders Corp. de Estados Unidos, Con ia misma notable
Sólo F e d d e r s / B G H internacional!
permite el más rápido acceso para
Service,
Lo hace
Hay un pian de ventas para Usted, así como un modele para cada necesidad.'
importado
- Bmé. M i l r e
® Marca
Registrada
FEDDERs/bdjl Clima de vida feliz . . .
'
aquí y en todo el mundo! Consulte a su agente
FEDDERS/BGH
1824 - Sueños Aires •
de f e d d e r s
Corp.
Revista mensual de ciencia y tecnología La superioridad de los dinosaurios TEORIA DE LA •INFORMACION
H
M
Í
Fyturo del vidrio PARTICULAS MAS VELOCES QUE LA LÜZ "
M
H
M
K
-WYg'
EN CU
Foto de la portada: célalas de intestino humano, vistas con microscopio electrónico.
3 5 5
6
Eduardo A. Mari Manuel Risueño Alfredo Lanari Sigfrido Lichtenthal John G. Taylor Manuel Sadosky Robert T. Bakker D. H. R. Barton
7 23
26 34 43 49 52
60 18
Año mundial de la educación Poliomielitis Satélite cantor Tiempo de derrumbes El futuro del vidrio Las permutaciones Investigación en clínica médica Qué es la teoría de la información Partículas más veloces que la luz Srinivasa Ramanujan La superioridad de los dinosaurios La ciencia como actividad cultural Novedades de ciencia y tecnología 1. 2. 3. 4. 5.
Conservación de alimentos Burbujas magnéticas para el tratamiento de la información Eí litio: un posible alivio para los maníaco-depresivos Bastones láser para guiar a los ciegos El Instituto Salk estudiará la influencia de las ciencias biológicas en la sociedad 6. ACI-IEMA 1970 7. Acuerdo para un nuevo cohete europeo 8. ¿Se acaba el oxígeno?
22 25 42 62
Cursos y reuniones científicas Respuestas a Juegos Matemáticos n" 2 Libros nuevos Correo del lector
De las opiniones expresadas en los artículos firmados son responsables exclusivos sus autores.
Es una publicación de Jiditorial Ciencia Nueva. Viamonte 1464, 4 ? piso, of 22. Buenos Aires. República Argentina, Tel.: 46-5842. Distribuidores: en la República Argentina y exterior Rvela S. A. I. C. 1.1:. y A., Paraguay 340, Capital Federal. Tel.: 32-6010 al 29; en Capital Federal, Vacara Finos., S. R. L., Solís 585, Capital Federal. Impreso en Talleres Gráficos DIDOT S. C. A., Luca 2223, Buenos Aires. Pierio del ejemplar: ley 18.188 $ 3 (m$n. W j . Suscripciones: Argentina, ley 18.188 $ 40 (m$n. 4.000) por año; exterior, por vía ordinaria, u$s. 10 anual. Registro «le la propiedad intelectual n? 1049414. Tl.vliu el depósito de ley. Derechos reservados en castellano y cualquier otro idioma par.i los trabajos originales, y en castellano para colaboraciones traducidas.
Año I / N" 3 / 2 8 de J u l i o 1 9 7 0 / B u e n o s Aires
Ricardo A. Ferraro Ignacio Ikonicoff Eduardo A. Mari Héctor Abrales Daniel Goldstein Ricardo Schwarcz Isabel Carballo María Susana Abrales Florencia: Hernán Bonadeo Frankfurt: Jan Kovarik Londres: Eduardo Ortiz Nueva York: Roberto Lugo París: Guillermo Picabea Praga: Jan Rebacek Santiago de Chile: Pablo Scliiffini La Recherche; New Scientist; Science; Science et Vie; Science Journal; Scientific World; Sapere; Cooperation Technique; Science Service; Associated Press; APN; TASS; CTK; ADN; Agencia DAN; ICA press; informaciones de los servicios culturales de las embajadas de Francia, Gran Bretaña, Italia, Estados Unidos y Japón. 2
Directores
Asesores de dirección
Diseño gráfico Secretaria Corresponsales
Servicios del exterior
Año Mundial de la Educación
Los documentos oficiales de Unesco informan que: —De los 3.630 millones de habitantes del mundo, las dos terceras partes son desposeídos, es decir 2 de cada 3 habitantes del globo carecen de un nivel de vida, de salud y de educación compatible con la dignidad humana.
Miles do millones de dolares
BASTOS Datos
do
EN
EL
UNESCO
MUNDO para
1068
—En los últimos 10 años el número de analfabetos adultos pasó, en el mundo, de 740 millones a 800 millones. —En los próximos 10 años la población escolar de los países del Tercer Mundo pasará de 400 a 600 millones. —En esos países atrasados, en los cuales vive el 72 % de la población mundial, se invierte el 10 % de lo que se gasta en el mundo en educación. —En los países altamente industrializados se gastan 100 dólares anuales per ccipita en educación, y en los países "subdesarrollados" se gasta en educación sólo 5 dólares anuales per cápila. (En la Argentina 16 dólares anuales). —En América latina el 49 % del total de la población mayor de 15 años no fue nunca a la escuela; sólo el 7 % completó la enseñanza primaria y el promedio de escolaridad de la población total es de 2,2 años. Estos son solamente algunos datos; la Unesco posee muchos más, igualmente sobrecogedores, los suficientes para poner en evidencia frente al más insensible las pavorosas proporciones del problema educacional mundial. Si a las carencias e injusticias que determinan los aspectos más sombríos, se agrega que en los países más evolucionados en materia de enseñanza no cesa de manifestarse, con violencia creciente, la disconformidad de amplios sectores, sobre todo de la juventud, con los objetivos y los métodos actuales de educación, resulta evidente que el problema no sólo es profundo sino general. El hombre del siglo xx, dueño de cantidades de energía y de técnicas de organización que sus más inmediatos predecesores no pudieron sospechar, habiendo aumentado increíblemente su capacidad productiva, se encuentra enfrentado a un tremendo desafío: tiene los medios de suprimir del planeta el hambre, la enfermedad y la ignorancia, ¿será capaz de hacerlo? ¿Encontrará el camino que lo conducirá a la liberación de la especie o los prejuicios y las estructuras jurídicas y sociales caducas le impedirán salir del callejón que parece tener como única salida el exterminio de la especie?
Armamentos
Instrucción Publica
Salud Publica
Ayuda economlca al e x l r a n j o r o
Limitemos nuestras consideraciones al problema de la educación. La Unesco, después de un balance catastrófico, decide consagrar el año 1970 como Año Internacional de la Educación, como una manera de iniciar la gran tarea a que deben abocarse, sin excepción, todos los países del globo, y señala, además, la imprescindible necesidad de que esa tarea sea emprendida por tocios en forma solidaria y común. Pero, a pesar de las buenas intenciones, la Unesco no sale de las formulaciones teóricas y neutras, no busca la anuencia y el apoyo más que en las burocracias internacionales y nacionales. Y por ese camino nada puede lograrse. No habrá alfabetización general en los países más atrasados ni acceso a todos los niveles de cultura para todos, no habrá maestros bien formados ni acceso abierto a la investigación independiente en todas partes, no habrá una educación que no tienda a adaptar a un sistema inhumano e injusto a los niños y a los jóvenes y no se sustituirá esa educación protectora del stalu quo por otra destinada a preparar el cambio imprescindible que debe producirse en los hombres para acceder a la era del automatismo. . . si no se libra una tremenda batalla en la cual todos participen. De nada servirán las "consagraciones" ni los discursos protocolares ni los viajes de expertos ni la transmisión de clases por medio de satélites artificiales.
3
t^mrnrnnm^mm^^^m
Es necesario que las "víctimas", aquéllas a quienes se ha mantenido hasta ahora en el desconocimiento de que la limitación de sus derechos educacionales era la más artera de las formas de mantenerlos fuera de la vida, aquéllos a quienes no se educa y a quienes se enseña mal y a quienes se educa deformándolos. . . tienen que luchar porque esto cambie. La función de los educadores conscientes —que, por supuesto, nada pueden hacer por sí solos—• es en primer lugar difundir la magnitud verdadera de los problemas entre los que tienen la fuerza para imponer soluciones. Recién cuando todos tengan conciencia de ios objetivos que debe tener, en este momento de la historia del mundo, un proceso educacional, todos serán capaces de reconocer cuáles son las fuerzas que se oponen a que los cambios necesarios se realicen. No hay batalla posible si no se reconoce al enemigo. Limitemos nuestra preocupación al problema argentino. Oficialmente se dice que en nuestro país hay 8,6 % de analfabetos mayores de 15 años; esta tasa es bastante decorosa frente al 89 % de analfabetos denunciados por Haití o el 50 % de Brasil, pero dejando de lado el hecho de que las estadísticas no son serias, resulta más claro señalar que en la región formada por Corrientes, Misiones, Chaco, Formosa, Santiago del Estero, Tucumán, Salta, Jujuy, Catamarca, La Rioja y el norte de Santa Fe, de cada cien niños que inician el ciclo primario, 82 lo abandonan durante su curso y, más grave aún, en la Patagonia de cada 100 niños que se inscriben en el primer grado del ciclo primario, 72 no llegan a aprobar ese primer grado. Si se considera el número de alumnos inscriptos en los tres niveles de enseñanza primaria, secundaria y superior y se lo compara con el número de habitantes de las edades correspondientes —6 a 12 años para primaria, 13 a 18 para secundaria y 19 a 24 para superior— que figuran en las estadísticas de CONADE de 1968, se concluye que el 90 % de los niños figuran como inscriptos en la escuela primaría, el 27 % de los jóvenes están inscriptos en la enseñanza secundaria y el total de los universitarios es sólo el 10 % de la población correspondiente. Es necesario agregar de inmediato que "estar inscripto" es muy distinto de ser realmente un estudiante y, mucho menos, de terminar el ciclo correspondiente. Quizá sea más ilustrativo decir que de 100 niños que ingresan a la escuela primaria a lo sumo 3 llegan a graduarse en la Universidad. El problema educacional existe, hoy y aquí, con características alarmantes; no se trata sólo del analfabetismo, de la "repitencia" y la deserción en todos los niveles. Nuestra escuela media es deficiente, la Universidad maltrecha por los vaivenes políticos se desjerarquiza, nuestra investigación científica está atrapada en los círculos viciosos a los que la condena la falta de una política científica (hay más médicos que ingenieros que hacen investigaciones; el 62 % de las becas otorgadas por el Consejo de Investigaciones Técnicas y Científicas lo han sido a médicos, sólo el 11 % han sido acordadas a tecnólogos y el 2 % a los que se ocupan de la tierra). Hay algunos problemas educacionales argentinos que podrían resolverse si se les ubicara dándoles el grado de prioridad que les corresponde. No hay razón, por ejemplo, para que haya analfabetos en la Argentina o para que maestros y profesores secundarios no sean eficientemente preparados y considerados, pero evidentemente los problemas de fondo no pueden tener una solución aislada.
4
% r a
En esta zona, de cada 100 niños que ingresan a ler. grado, 82 no terminan el ciclo primario. En estas provincias, de cada 100 alumnos que inician la escuela, 72 abandonan entes de completar el ler. grado.
No hay posibilidades de tener un desarrollo cultural autónomo si no se tiene una situación política y económica autónoma y mientras subsista nuestra dependencia ne podrá aspirarse a orientar la enseñanza y la investigación de acuerdo a las necesidades nacionales. La mejor contribución que los educadores conscientes pueden hacer en este Año Internacional de la Educación es sacar los problemas educativos de los marcos tradicionales: llevar el convencimiento a todo el pueblo y sobre todo a los sectores más castigados por la injusticia del sistema actual, que el problema educativo es un problema nacional que sólo podrá encontrar los caminos para llegar a soluciones con el concurso y el esfuerzo de todos.
Poliomielitis Desde hace varias décadas la poliomielitis constituye en nuestro país un flagelo que cobra muchas vidas y deja muchas más en condiciones de inferioridad para desenvolverse, creando un importante problema social de reeducación. La aparición de la vacuna Salk, y luego la Sabin, hicieron nacer la esperanza de que este mal podría ser totalmente vencido. En efecto, gracias a la vacunación masiva, en especial de la población infantil, en su primer período de vida, los casos de polio disminuyeron notablemente.. . pero no desaparecieron del todo. En lo que va de 1970, hemos tenido más de cien casos, varios de ellos fatales. ¿Por qué? El enfoque del problema de la poliomielitis en nuestro país es perfectamente claro: no hay nada que investigar; se trata solamente de aplicar una vacuna oral a todos los niños de una cierta edad. Se trata de una vacuna cuya aplicación, como todos sabemos, no ofrece ninguna dificultad, y cuya eficacia, en el número necesario de dosis, está absolutamente comprobada, lo mismo que su inocuidad. Se sabe que todos los casos que se registran son de niños no vacunados o que no recibieron el número completo de dosis. Se sabe que si se logra vacunar a todos los niños la enfermedad desaparecerá en unos pocos años. Y se sabe que si las campañas de vacunación son incompletas o interrumpidas todo el esfuerzo se malogra y reaparecen los casos, año tras año. Se trata entonces de un problema de prevención, de organización asistencial.
No queremos decir que la autoridad sanitaria no se haya preocupado, pero evidentemente lo que ha hecho ha sido incompleto. No basta con hacer grandes campañas en los medios de difusión para que los padres lleven sus hijos a vacunar: hay que llegar, por cualquier medio, a todos los niños y vacunarlos. Esto último no debe presentar grandes dificultades, ya que la mayor parte de los casos se produjeron en zonas bien identificadas, y muchos en la Capital Federal y el Gran Buenos Aires, en lugares para nada aislados o inaccesibles. Es sabido también que, lamentablemente, en este tipo de campañas hay siempre un cierto porcentaje de padres que no responde, que no lleva sus hijos a vacunar. Los motivos son varios y no es el caso analizarlos aquí. Pero esto no debe disminuir en absoluto la responsabilidad de la autoridad sanitaria, ni debe hacer aceptar con resignación fatalista que cada año tengamos todavía una cantidad de casos nuevos. Otra situación increíble que se debe solucionar definitivamente es la falta de vacuna. Ha faltado y falta vacuna antipoliomielítica. En muchos centros de vacunación de Buenos Aires y de Rosario los padres no han conseguido aún, luego de acudir repetidamente, que se vacune a sus hijos. Se aducen dificultades en la importación, problemas burocráticos. ¿Es que no se puede prever la formación de un stock con la antelación suficiente, y mientras tanto, encarar su fabricación en el país?
Satélite cantor El lanzamiento de un satélite terrestre por parte de China Popular, el último 27 de abril, ha ejercido un efecto indudable sobre las conversaciones para la limitación de armas estratégicas que desarrollan en. Viena representantes norteamericanos y soviéticos. Este ha sido, quizás, su efecto más inmediato sobre la relación de fuerzas entre las potencias mayores. Sin embargo, el hecho de que China se haya convertido en la quinta nación del club espacial permite obtener conclusiones más útiles que los tradicionales comentarios sobre la alteración de equilibrio de dos fuerzas que se repite desde la posguerra. Es fácil advertir que la construcción, lanzamiento y puesta en órbita —entre los 439 km y 2.284 km, con una inclinación de 68,5° sobre el Ecuador— de un satélite de 173 kg —vale decir, dos veces mayor que el primer Sputnik, 13 veces más pesado que el primer satélite estadounidense y ocho veces y media mayor que el reciente satélite japonés—- no es obra de un solo hombre. Y aun admitiendo como ciertas las informaciones que atribuyen la dirección del proyecto al doctor Hsue Shen, especializado en el M I T y el Caltech de EE.UU., es no menos cierto que tal empresa hubiera sido imposible —aun para el más extraordinario de los genios— en condicio-
nes de industrialización simplemente mediocres. Cuánto más imposible en las condiciones que tenía China hace sólo 20 años. El proyecto requiere una infraestructura industrial en electrónica y metalurgia de alta precisión, en la que han participado, seguramente, centenares o millares de técnicos junto a decenas o centenares de millares de obreros de diversos grados de calificación. Si se piensa u n instante en las condiciones de aislamiento en que se encuentra China respecto de los países más industrializados, resultará sensato suponer que este esfuerzo haya requerido la participación creadora —a los niveles más variados— de prácticamente todos los obreros, técnicos y científicos comprometidos en el tema. Es precisamente toda esta estructura de apoyo que se intuye detrás del lanzamiento, lo que da su mayor y permanente resultado político, ya no sobre las discusiones de Viena, sino directamente sobre pueblos que hace 20 años estaban más desarrollados que China, como es el caso de toda América latina, por ejemplo. La transmisión desde el espacio, con 5 watts de potencia y en la frecuencia de 20.009 megaciclos, de la canción "Oriente es rojo", asegura para este objetivo político la más amplia audiencia.
5
Tiempo de derrumbes El desmoronamiento de un edificio de 15 pisos en la alguien hubiese movido, de alguna forma, los puntales" ciudad de Buenos Aires, con un saldo de 31 muertos y (La Prensa, 18 de junio, p. 11, col. 6). Es increíble que 7 heridos, configura una situación de gravedad suficiente un responsable de los estudios de las condiciones de segucomo para realizar una acabada revisión de responsabi- ridad de un edificio pueda afirmar que 15 pisos, sostenilidades. Si a esto se suma que varios meses antes del de- dos por 16 columnas, puedan caer porque alguien enrrumbe se hicieron denuncias sobre el peligro, y que ese cienda una fogata junto a una de ellas. tiempo no bastó para hallar una solución, la situación En tercer lugar, señalaremos dos de las conclusiones merece un calificativo escandaloso. del estudio, que son sumamente significativas. Una de Señalaremos primero que el edificio (en Montes de ellas es el defectuoso cálculo de las columnas (los esOca 680) tenía 7 años de antigüedad y aún carecía de cer- fuerzos que se aceptaron para éstas eran demasiado altificado final de obra, vale decir, que estaba habitado des- tos). Otra es la diferencia entre la estructura del edificio de hacía 7 años sin autorización oficial. En segundo lugar, (observada) y los planos en poder de la Municipalidad. se debe indicar que una vez hechas las denuncias no se Es sumamente sensato suponer un interés en reducir costomaron las providencias necesarias para desalojar efecti- tos y aumentar los beneficios económicos de la empresa vamente el lugar; que los servicios centrales, inicialmente constructora en el origen de estos dos hechos. La imporinterrumpidos, fueron reconectados pocos días antes de tancia que probablemente tuvo la poca resistencia de las la caída. Ahora, una vez producido el derrumbe, los fun- columnas entre las causas del derrumbe muestra entonces cionarios no encuentran mejor camino que una larga di- una relación por demás estrecha., entre el "criterio emlución de responsabilidades. De la Municipalidad a la Fa- presario" en la construcción, y los 31 muertos de su recultad de Ingeniería, a la Policía Federal, e incluso se sultado final. llega a absurdos tales como el propalado por el ingeniero La revisión de responsabilidades en este trágico proManuel Acuña, secretario de Obras Públicas de la Muni- blema es tanto más urgente cuanto no se trata de un cipalidad de Buenos Aires, que presionado por las pre- accidente aislado. Varios edificios se han desmoronado guntas de los periodistas afirmó que el derrumbe del edi- en menos de un año, y las amenazas de derrumbe se ficio se debía a "la fatalidad". ciernen sobre algunos otros. El escándalo llega a requeY si el proceso desde el punto de vista administrativo rir ya modificaciones sustanciales en la reglamentación es sumamente deficiente, por decir lo menos, y su res- de obras civiles y personalizar responsabilidades en la ponsabilidad recae en la Municipalidad, el análisis técnico construcción. En ese sentido se expidió ya antes de mayo del problema no merece, por cierto, un tratamiento me- el Centro Argentino de Ingenieros, y a fines de junio nos crítico. Encargada del análisis la Facultad de Inge- una comisión de especialistas de la ciudad de La Plata. niería, demora un tiempo inaceptablemente largo en exEn definitiva, una resolución urgente sobre este propedirse; más grave aún es que las conclusiones del estu- blema es imprescindible si se desea evitar no solo daños dio ("un verdadero libro", según el ingeniero Marín) materiales sino, como los últimos accidentes lo demuesindicaban que el edificio resistiría. Es completamente tran, desgracias personales. Muertos por una cadena de lícito dudar de la seriedad con que fue encarado el tra- ajenas negligencias e intereses económicos, reales homibajo cuando se recuerdan las declaraciones del ingeniero cidios sin calificación jurídica aún, que terminan siendo Antonio Marín, decano de la Facultad, quien después del adjudicados a causas ridiculas o en una invocación al derrumbe sostuvo que una de las causas posibles era destino y la fatalidad. "alguna fogata encendida junto a una columna, o de que
m
r i
'
ruturo
del Vidrio Eduardo A. Mari
Hace muchos milenios, en algún lugar remoto del mundo primitivo, un hombre se sorprendió al encontrar que la ceniza del f uego que había preparado, quizás para cocinar sus alimentos o fabricar sus cacharros, se había fundido con la arena del suelo desértico y había formado una sustancia maravillosa, brillante, que reflejaba la luz y los objetos. Hoy, en el último tercio del siglo veinte, el vidrio no ha terminado aún de sorprendernos.
¿Qué es el vidrio?
Figura 1. Fabricación del vidrio según Agrícola (siglo XVI). En primer plano, el horno de fusión, del cual se extraía el vidrio fundido por medio de cañas. En segundo plano, el horno de recocido.
Para la mayor parte de nosotros el vidrio es un material sobre cuyas cualidades no cabe la menor duda: el vidrio es frágil, el vidrio es transparente, el vidrio es rígido, etc. Sin embargo, estas ideas esquemáticas que poseemos sobre el vidrio (así como sobre muchas otras cosas) y que forman parte de ese cúmulo de nociones elementales que nunca tenemos el tiempo o la posibilidad de rever críticamente, comienzan a tambalear y perder su solidez al enterarnos que hoy existen vidrios tan resistentes como los metales, o vidrios completamente opacos a ciertas radiaciones, o vidrios que pueden conducir la luz no ya en línea recta, sino siguiendo las curvas más caprichosas, o vidrios que se oscurecen o aclaran a voluntad, o vidrios que conducen la electricidad, o vidrios en forma de hilos tan flexibles que se pueden enrollar en carreteles. Se impone, entonces, el replanteo de la pregunta: ¿qué es el vidrio? Pero, paradójicamente, el gigantesco desarrollo moderno de la tecnología del vidrio hace cada vez más difícil dar una respuesta simple o única a esta pregunta ya que en realidad no existe hoy un material llamado vi-
|
drio, sino muchísimos tipos de vidrio, muy diferentes entre sí. Vayamos, pues, por partes, y tratemos de tener una visión panorámica del vidrio, de su constitución y sus propiedades, de sus nuevas posibilidades en la ciencia y en la técnica, de cómo prever sus futuros desarrollos. El vidrio es uno de los materiales más antiguos empleados por el hombre y si bien no existió una "edad del vidrio" tuvo gran importancia en las civilizaciones primitivas porque fue considerado, por su valor artístico, muy cercano a las piedras preciosas. A medida que el hombre aprendió a darle forma, primero derritiéndolo para formar cuentas, luego soplándolo para fabricar objetos huecos, se fueron desarrollando sus primeras aplicaciones tecnológicas, fundamentalmente la fabricación de artículos de uso cotidiano y de adorno. Es interesante notar que la palabra que designaba el material se confundió muchas veces con la del objeto fabricado con él; en los idiomas neolatinos la palabra vidrio viene de vitrum, de vklere, ver (a través de algo); en los idiomas sajones, "vidrio" (inglés glass, alemán glas), es a la vez el vidrio y un objeto de vidrio. Los métodos de fabricación (bá-
7
sicamente la fusión de arena con una cierta proporción de cenizas vegetales y una pequeña cantidad de óxidos metálicos para infundirle diversos colores), no variaron fundamentalmente durante milenios, pero los secretos de este arte fueron celosamente guardados {y lo son aún) por los que poseían la magia de transformar la materia gris y opaca en las más bellas realizaciones. Muchas comunidades florecieron sobre la base de su artesanía (Murano es un caso típico), y las técnicas, develadas por la infidencia de quienes no respetaron los "secretos de familia", se fueron esparciendo por toda Europa. Con el Renacimiento el vidrio adquiere una mayor importancia tecnológica: se hacen grandes ventanales, cristales ópticos, utensilios para alquimistas. La revolución industrial creó maquinarias que permitieron la fabricación masiva de espejos, vidrios para ventanas, botellas y muchos otros objetos de vidrio de uso diario, y desde fines del siglo pasado, con el desarrollo racional de nuevos tipos de vidrio así como de nuevos sistemas de fabricación, las aplicaciones prácticas se han expandido en forma extraordinaria. Paradójicamente, este desarrollo tecnológico no fue seguido en forma paralela, por lo menos hasta no hace mucho, por un desarrollo teórico básico. La artesanía del vidriero siguió primando sobre la predicción del estudioso y la racionalización empírica comenzada a fines del siglo XIX por Fraunhofer, Schott, Abbe y otros, sólo ha encontrado en los líltimos decenios su justificación teórica. La tecnología del vidrio sigue siendo hoy en día a la vez un arte y una ciencia, una realidad muy compleja donde se mezclan las teorías estructurale's más avanzadas con las realizaciones más ingeniosas de la ingeniería y la paciente, fervorosa y delicada maestría del vidriero, cuya intervención, especialmente en el campo del arte y la decoración, transforma una masa amorfa y candente en un objeto vivo y palpitante. La definición de vidrio que se encuentra en la mayor parte de los textos es la dada por Tammann en 1920: el vidrio es un líquido sobreenfriado, que posee una viscosidad tan elevada a la temperatura ambiente que se comporta, a todos los efectos prácticos, como un sólido. La siguiente definición, quizás, algo pe-
8
^ ,
rogrullesca, pero más práctica, ha recibido una consagración, por así decirlo, oficial (ASTM, USA; Academia de Ciencias de la URSS; ISO, Sociedad Internacional de Racionalización): "El vidrio es un producto inorgánico de fusión que se ha enfriado sin cristalizar". En realidad, es mucho más sencillo, aún para un organismo normalizado!-, definir por ejemplo qué es el acero o el bronce que hacerlo con el vidrio, pollas razones que se harán evidentes a medida que nos adentremos en el tema. Veamos pues, en rápida síntesis, de qué está compuesto el vidrio, y cuál es su estructura.
Composición y estructura del vidrio Para poder hablar de la composición y la estructura del vidrio, debemos aclarar en primer lugar a qué tipo
Figura 2. Fabricación manual de objetos de vidrio por soplado, en la actualidad. En el fondo puede verse una de las ventanas del homo a través de la cual el artesano extrae la cantidad necesaria de vidrio fundido por medio de una caña. Para ayudar a dar la forma deseada se usan moldes de madera. (Voto Schott.)
TABLA I N° Tipo de vidrio
SiOa
1 Perlas de vidrio blancas egipcias (S. V AC) 2 Botella romana verde (S. I AC) 3 Vidrio común de ventana 4 Vidrio común para espejos 5 Vidrio de botella blanco 6 Vidrio de botella verde 7 Vidrio termorresistente 8 Vidrio óptico Crown 9 Vidrio óptico Flint 10 Cristal al plomo 11 Vidrio neutro para ampollas 12 Vidrio para termómetros 13 Fibras de vidrio (vidrio E) 14 Tubos de televisión 15 Vidrio para lámparas eléctricas 16 Material de laboratorio 17 Vidrio fotosensible
71,8 68,1 72-75 70,6 72,1 67,4 81,0 70,1 45,2 52,4 71,6 72,9 54,5 68,2 70-72 70-73 80,0
18 Vidrio para absorción de 63,5 rayos X 19 Vidrio para absorción de de rayos gama 8,0 20 Vidrio resistente al sodio 21 Vidrio para soldar el molib- 72,0 deno 67,5 22 Vidrio opalino
de vidrio nos referiremos. En efecto, es posible clasificar a los sólidos con estructura vitrea en dos grandes grupos: 1) Vidrios formados por substancias puras. a) Vidrios " e l e m e n t a l e s " . El azufre, el selenio, el teluro y otros elementos pueden a veces solidificar, por enfriamiento 'brusco de una masa fundida, con una estructura cristalina desordenada, en la que no es posible identificar ninguna regularidad. b) Vidrios " o r g á n i c o s " . Muchos polímeros orgánicos sintéticos (materiales plásticos) poseen una estructura desordenada en el estado sólido, y sus curvas viscosidad/temperatura son del mismo tipo que las observadas en los vidrios comunes. Otros compuestos orgánicos, como los polialcoholes (glicerina, glucosa, sacarosa), pueden dar sólidos vitreos si se los enfría rápidamente desde el estado fundido.
B:A, Na-O —
—
—
,—
0,2 0,1 12,0 1,0 —
9,9 10,4 8,5 2,0 —
5-6
+
MgO
BaO
PbO
Al.O»
ZnO Otros componentes
8,6
—
0,8
—
20,5
7,0
——
1,3
•
13-15 11,8 14,4 11,9 4,5 1,0 0,1 7,9 9,8 0,5 8,2 16-18 6-8
—
1,0
—
_ 0,4 1,7
9-14 16,9 10,4 10,0
—
—
15,0 6,8 10,4 1,4 0,1
12,4 0,4 0,8 0,3 0,6 22,0
—
8,0 0,9-1 0,9-2 2,5 8,0
6,5 —
48,0 13,0
14,0 3,5 8,5
—
—
—
0,3 — —
.— —
— —
2,8
47,1 35,2 .—
—
—
—
—
8-9 1-8
0-5
— —
11,0
—
4,0
6,0 3,5
3,3
10,5
—
5,5 59,2 — •
.—
0,1
En ambos casos, la estructura vitrea, desordenada, es el resultado del entrecruzamiento al azar de largas cadenas moleculares. Estos "vidrios" presentan solo un interés teórico y no volveremos a ocuparnos de ellos aquí. 2) Vidrios formados por óxidos. Estos son los materiales llamados habitualmente vidrios. El oxígeno es el elemento formador de vidrios por excelencia, ya que, uniéndose a elementos polivalentes como el silicio, el boro y otros, por medio de enlaces covalentes muy estables, permite la formación de cadenas y retículos tridimensionales. En lo que sigue, nos referiremos exclusivamente a estos materiales. La materia prima básica tradicional en la fabricación del vidrio es la arena. La arena está constituida fundamentalmente por sílice o bióxido de silicio (SiOa), normalmente con impurezas: pequeñas cantidades de otros óxidos (hierro, titanio, etcétera). El silicio es un elemento tetravalente, pero la estructura de la molécula de SíOu no es, como podría
FeO + M n A 0,7 „
.— 0-1 0,6 — — 1,9 — 5,9 .— 2,0 — 1,0 — 0,8 — 1,0 0,4 5,5 — 6,2 _ 14,5 4,8 ,— 0,8-1,4 1,8-4,7 4,0
—
—
—
• —
—
—
7,2 1-2
—
—
—
—
CaO
18,8
—
—
ICO
4,5
0-3
FeA, FeA FeA FeA
„
3,1
0-0,3 0,4 0,2-0,4 2,1; MnO 0,8
U O 12,5; Ag 0,03 Au 0,03
—
WO» 21,5; P A 16,7; CdO 1,6
—
—
24,0 4,0
——
4,0
„
—
0,1
F 5,8
Tabla I. Composición química de diversos vidrios. Las cifras indican el porcentaje en peso de cada componente.
pensarse, O = Si — O (que, conic puede demostrarse, no puede existir en forma estable) sino que el atomo de Si tiende a dirigir sus cuatro valencias en forma simétrica en el espacio, de modo que los ángulos entre ellas sean lo más grandes posible. La estructura que resulta < un tetraedro regular (figura 4) cu la cual el átomo de Si ocupa el centro y sus cuatro valencias están i rígidas hacia los vértices, en los cuales se encuentran los átomos de o: igeno. La distancia Si-0 es invariable e igual a 1,60 unidades Angstrom, n A (1 Á es igual a 10~7 mm, o sea 10' 1 " m ) . Los átomos de oxígeno de los vértices para saturar sus valencias se unen a su vez a otros átomos de Si, de modo que la estructura r<sultante es una superposición tridimensional regular de tetraedros unidos por los vértices. Esta es la estructura reticular del cuarzo. El cuarzo puro tiene un punto de fusión elevadísimo, de alrededor de
¡j !' ; ¡1 j 1 ;
; [ ¡ f i j ;
9 l
f
Figura 3. Fabricación automática de objetos de vidrio por moldeado, en la actualidad, A la derecha, arriba, puede verse la "gota" (una cantidad exactamente dosificada de vidrio fundido) que cae sobre un molde. En la posición siguiente de la máquina rotativa el vidrio es moldeado a presión por medio de un molde descendente. A la izquierda, abajo, el objeto terminado: en este caso, la pantalla de un tubo de televisión. La fabricación automática sólo resulta económica cuando ie debe producir un número muy grande de unidades. (Foto Schott.)
10
2000 °C, por lo tanto, resulta difícil y costoso fabricar objetos de "vidrio de cuarzo", cuya aplicación se limita a usos muy especiales. Hemos ya mencionado que desde la más remota antigüedad se sabe que a la arena hay que agregarle un "fundente" para poder obtener un vidrio que se pueda trabajar a temperaturas fácilmente accesibles y que puedan soportar los materiales refractarios con los cuales están fabricados los hornos. Los fundentes son óxidos de sodio, potasio y calcio (introducidos generalmente en forma de carbonatas), que con la sílice (de carácter ácido) forman silicatos y que introducidos en cantidades relativamente pequeñas alteran fundamentalmente el retículo del cuarzo, deformándolo y produciendo la ruptura de las cadenas, y disminuyendo, por ende, el punto de fusión. Estos elementos se unen al oxígeno por medio de enlaces iónicos, impidiendo que éste cumpla su función de puente entre los tetraedros. Se crea así la estructura desordenada típica del vidrio (figura 5 ) . La introducción de estos elementos modificado-
res del retículo, como justamente se los denomina, trae como consecuencia la disminución de la temperatura necesaria para trabajar el vidrio y hace también que la viscosidad disminuya en forma gradual al aumentar la temperatura, por lo que en la práctica su correcto dosaje es fundamental para obtener el tipo de vidrio con las características deseadas. Muchos otros elementos pueden entrar a formar parte de la composición del vidrio, cumpliendo diversas funciones; la figura 6 indica su ubicación en la tabla periódica. La tabla I resume las composiciones químicas de diversos vidrios. La teoría de Zachariasen. Mencionaremos brevemente las distintas teorías sobre la estrutura del vidrio. La de Zachariasen es la teoría "clásica". Los resultados de las investigaciones más recientes la han modificado considerablemente, pero sigue siendo útil para explicar muchas de las propiedades del vidrio. Zachariasen (1932) y Warren (1933-1937) propusieron un modelo basado en un retículo desordenado extendido indefinidamente, sin ninguna sime-
tría ni periodicidad, e interrumpido sólo en las superficies, y establecieron algunas reglas simples según las cuales "deben unirse los diversos cationes con los aniones oxígeno para que el óxido mixto así formado pueda tener una estructura vitrea en el estado sólido. La "fórmula química" de un vidrio sería AJ3yO z , donde A es un catión de gran tamaño y baja carga ( N a + , K + , C a + + ), es decir, un modificador de retículo, y B es un catión pequeño y de carga elevada ( S i 4 + , B 3 + ) , es decir, un formador de retículo, que ocupa el centro de un poliedro, ocupando los átomos de oxígeno los vértices del mismo. Los valores de x, y y z varían dentro de límites muy amplios. Los poliedros están unidos entre sí por "puentes" de oxígeno, formando cadenas y entrecruzamientos al azar, y los cationes A ocupan los huecos de la estructura. Los átomos de oxígeno son de dos clases: los que actúan como "puentes" y están unidos a dos átomos B por medio de enlaces covalentes, y los que pertenecen a un solo poliedro (es decir, están unidos a un solo átomo de B) y pollo tanto llevan una carga negativa, la cual es balanceada por los cationes A. Esta teoría no explica muy bien la función de ciertos elementos "intermedios", como el aluminio, en la estructura vitrea. Lo fundamental de la teoría de Zachariasen es que postula que la estructura del vidrio es esencialmente desordenada, lo que explica que el vidrio no tenga un punto de fusión definido. En efecto, al enfriar el vidrio fundido, en estado líquido, no se observa ninguna temperatura definida a la cual se produzca el pasaje del líquido al sólido, sino que este pasaje es gradual: la viscosidad va aumentando hasta llegar al estado sólido (ver figura 7). En este último no se observa una estructura cristalina ordenada, sino un desorden prácticamente igual al del líquido, por lo que muchas veces se dice que el vidrio posee, "congelada", la estructura correspondiente a la de un líquido a una temperatura más elevada. Es decir, que Zachariasen y Warren avalaron teóricamente la definición de Tammann que hemos citado. En el esquema de los estados de la materia, el vidrio ocuparía así un lugar intermedio entre los sólidos y los líquidos (figura 8). La teoría de los dominios microcristalinos. La teoría de Zachariasen
se refiere a lo que podríamos llamar un "vidrio ideal". En la práctica, al enfriar rápidamente la masa fundida, el aumento de la viscosidad impide el ordenamiento cristalino, pero el grado de desorden en el sólido depende también de la velocidad de enfriamiento, cosa que no es así para las substancias que solidifican en estructuras cristalinas ordenadas. Si el enfriamiento de la masa fundida es muy lento, el vidrio tenderá a poseer cierta estructura cristalina (fenómeno de desvitrificación, tan temido por los vidrieros de todos los tiempos). Por lo tanto, los vidrios son materiales cuiyas estructuras, y por lo tanto sus propiedades, dependen no sólo de su composición, sino también de su historia térmica, cosa que la teoría de Zachariasen no toma en consideración. Estos fenómenos tienen suma importancia en la fabricación del vidrio, ya que la desvitrificación debe evitarse porque aumenta la fragilidad, disminuye la transparencia y perjudica la homogeneidad del material. Hay casos, sin embargo, en que se hace una "desvitrificación controlada", para obtener vidrios con propiedades especiales, como el vidrio opalino (figura 9 ) , y el vidrio-cerámica (figura 10). Pero aun un vidrio que no presente signos evidentes de desvitrificación no posee una estructura "perfectamente desordenada", como postula la teoría de Zachariasen. La estructura del vidrio en realidad es desordenada sólo en sentido macroscópico, digamos, para fijar ideas, en una escala superior a los 1.000 a 100.000 diámetros atómicos. En una escala menor, el vidrio posee efectivamente una estructura microcristalina, mejor dicho, varias fases cristalinas diferentes entremezcladas al azar. Este fenómeno de separación de fases en escala casi molecular es una característica general de las estructuras en cadena y posee una importancia fundamental en la moderna tecnología del vidrio.
#
Atomo de silicio Atomo de oxígeno
Figura 4. Estructura de una unidad 5/Oi (tetraedro regular).
Figura 5. Estructura desordenada del vidrio (según Stevels). Para simplificar, los tetraedros se representan como triángulos, es decir, en el dibujo sólo aparecen tres oxígenos rodeando a cada átomo de Si, cuando en realidad son cuatro; el cuarto átomo de O está ubicado en otro plano. Los átomos alcalinos y alcalinotérreos ocupan los huecos del retículo y lo deforman, a la vez que balancean las cargas negativas de los átomos de oxígeno representados por un círculo con un punto oscuro central.
La formación de tales "dominios microcristalinos" tiene una justificación termodinámica, la cual fue prevista por el ruso Lebedev en 1925, pero sólo ha podido ser confirmada recientemente mediante el uso del microscopio electrónico. Los microcristales, o "gránulos", tienen un diámetro de sólo unos pocos centenares de Angstrom o menos; en realidad no son considerados actual-
11
"Período 1
fu
2
Li
3
Na Mg
4
K
5
Rb Sr
6
Cs
Ba
7
Fr
Ra
+
O
0 1
i
v
Be
Ca
u
Hf
V
Cr
Rfln
Fe,Co,Wi
H Ru,Rh,Pd¡Ag i Os, Sr , P t ¡ Au
ni
SVIo Te i i Re Ta I I
¡w
r.-
Serie de los lantá niclos : ¡C®
* Serie de los actínidos
Cu1
> M | P m S m Eu G d T b D y H o Er T m Y b
O x í g e n o : p r e s e n t e e n todos l o i v i d r i o i F o r m a d o s p o r óxidos F o r m a d o r e s d e retículo Modificadores de retículo E l e m e n t o s q u e f o r m a n .sustancias c o l o r a n t e s del v i d r i o E l e m e n t o s q u e p u e d e n e s t a r p r e s e n t e s en el vidrio c o m o i m p u r e z a s p e r o q u e no e n t r a n en su c o m p o s i c i ó n
mente como poseyendo verdaderas estructuras cristalinas, sino "paracristalinas", ya que constituyen defectos de una estructura general de cuyas distorsiones y desorden son la causa. Se ha desarrollado un gran número de teorías, por lo general bastante complejas como para ser expuestas en forma simple, para explicar la microestructura del vidrio que origina su carácter de "desorden organizado", pero poco a poco, gracias a los datos suministrados por las nuevas técnicas experimentales, las incógnitas se van aclarando y las posiciones teóricas que hasta no hace mucho parecían irreconciliables hoy presentan muchos puntos de contacto. La explicación última es siempre el enlace covalente, el cual impide el reordenamiento rápido de la estructura durante el enfriamiento, al contrario de los compuestos iónicos que se reordenan con suma facilidad. Por eso el enfriamiento lento tiende a producir estructuras más cristalinas, así como el agregado de ciertas substancias que actúan como "gérmenes" de la cristalización. El técnico y el artesano tienen que mantener a toda costa el desorden en el vidrio, que es lo que da justamente a este material sus más preciadas características. El vidrio de cuarzo es el caso extremo de impe-
12
Lu
i : iTh ' P a i U ¡ Np Pu AmCm Bk Cf Es Fm Md No L r ."11 " ~ u _ J
Figura 6. Ubicación en la tabla periódica de los elementos que pueden entrar en la composición de un vidrio.
dimento, pero cuanto más óxidos alcalinos y alcalinotérreos (modificadores) se agreguen para "ablandar" el vidrio y poder trabajarlo a temperaturas más accesibles, se aumenta el peligro de la cristalización. Por ello ya no se forman vidrios más allá de una determinada relación SiOa/NaaO, o, más en general, formador de retículo/modificador de retículo.
Propiedades del vidrio. Masa y superficie No hablaremos aquí con detalle de las diversas propiedades mecánicas, térmicas, ópticas y químicas de los distintos tipos de vidrio que se conocen, sino que nos limitaremos a considerar algunos aspectos fundamentales de este material, en particular los que hacen a su uso y aplicación diaria. Como hemos visto, la estructura desordenada del vidrio se interrumpe bruscamente en su superficie; paradójicamente, la superficie es un "defecto" del vidrio. Las superficies frescas producidas en una rotura, por ejemplo, son sumamente activas, ya que a causa de la interrupción del encadenamiento reticular han quedado valencias sin saturar en átomos de Si y de O; estas superficies frescas absorben rápidamente la humedad si se las expone al aire, o bien
muestran una reactividad química muy pronunciada. Por otra parte, la superficie del vidrio sufre el efecto de los agentes atmosféricos y de las substancias con las cuales está en contacto ("corrosión" del vidrio), motivo por el cual se va diferenciando cada vez más, en su composición y propiedades, de la masa de vidrio subyacente. Muchas de las propiedades que observamos en un objeto de vidrio dependen, por lo tanto, del estado de su superficie. Una de ellas, constatada (y lamentada) cotidianamente, es la fragilidad, propiedad bastante difícil de definir e imposible de medir en forma absoluta. Hoy se sabe a ciencia cierta que la fragilidad de un objeto de vidrio depende, fundamentalmente, del estado de su superficie (si bien hay otros factores importantes que influyen). La rotura de un objeto de vidrio comienza siempre en su superficie, de modo que toda imperfección de esta última disminuye notablemente la resistencia mecánica. Grandes esfuerzos se realizan hoy para aumentar esta resistencia, por medio de tratamientos térmicos o químicos. Entre los primeros podemos citar al proceso de templado, conocido desde hace tiempo pero sólo recientemente estudiado y aplicado en gran escala, por el cual se fabrican
los utensilios llamados "irrompibles", parabrisas y ventanas para vehículos, etc. En este proceso, cuando el vidrio está todavía pastoso, se lo enfría bruscamente. Como el vidrio no es buen conductor del calor, la masa interna se enfría mucho más lentamente que la superficie, y por lo tanto se sigue contrayendo, aun cuando la superficie no pueda hacerlo más. Las capas externas quedan entonces en un estado de compresión extrema, lo que aumenta notablemente la resistencia mecánica. Se puede lograr un resultado similar por medio de un tratamiento químico: si un objeto de vidrio se sumerge en un baño de sulfato de litio fundido, a la temperatura de 800-900 °C, se produce un enérgico intercambio entre los iones litio del baño y los iones sodio de la superficie del vidrio. El enriquecimiento en litio de esta última provoca su desvitrificación por formación de cristales de silicatos de aluminio y litio, con el resultado de que la dilatación del estrato externo es completamente distinta de la del vidrio de base. Al enfriar, la masa interna se contrae mientras que las capas externas se dilatan. Se crea así en la superficie una fuerte tensión de compresión, con lo cual la resisten-
cia mecánica aumenta en el orden de un 500 por ciento. Los defectos de la superficie (rajaduras, inclusiones, burbujas de aire, modificaciones químicas), aun ínfimos, aumentan la fragilidad de un objeto de vidrio; en efecto, como dijimos, la rotura comienza siempre en un punto de la superficie, un punto defectuoso y luego se propaga con gran rapidez en todas direcciones. Esta gran influencia del estado de la superficie explica el hecho de que la resistencia a la tracción de un vidrio sea mucho menor (de 5 a 10 veces menor) que su resistencia a la compresión, y que el vidrio se rompa siempre por un esfuerzo de tracción. Inclusive resulta prácticamente imposible realizar en el laboratorio mediciones confiables de los límites de rotura por tracción y por compresión, dada la influencia decisiva del estado de la superficie del objeto que se está midiendo. Esta influencia es tan marcada que la resistencia mecánica de un objeto de vidrio recién fabricado es varias veces superior a la del mismo objeto pasadas apenas algunas horas, por la modificación gradual que va sufriendo la superficie en contacto con el medio ambiente y por el rozamiento con otros objetos. Otra propiedad que depende fun-
500
1000
1500
2000
Figura 7. Curvas esquemáticas viscosidad ¡temperatura para un vidrio típico (A) y para un sólido cristalino de punto de fusión 1.100'C (B).
Figura 8. La ubicación de .los vidrios como cuerpos sólidos con un grado elevado de desorden en el esquema de los estados fundamentales de la materia.
disminución de la temperatura
—
i
i
jfrn
aumento del orden
aumento de la temperatura aumento del desorden
13
Figura 9. Fotografía al microscopio electrónico de un vidrio opalino (7500 aumentos). Se observan nodulos cristalinos de fluoruros cuyo diámetro está entre uno y dos micrones. (Foto Schott.)
IT. «r *
14
-»
"
>
'
^ „ «J. ,
4
Figura 10. Fotografía al microscopía electrónico de un vidrio-cerámica (60.000 aumentos). Se observa claramente la presencia de diversas fases microcristalinas. (Foto Schott.)
damentalmente del estado de la superficie es la resistencia química. Todos sabemos que el vidrio, en comparación con otros materiales, posee una notable resistencia a la corrosión. Salvo los casos del ácido fluorhídrico y del ácido fosfórico concentrado caliente, que disuelven el vidrio, la acción de los ácidos sobre este material es ínfima. Los álcalis producen un mayor ataque, especialmente en caliente y cuanto más elevada es su concentración. La diferencia entre ambos casos estriba en que los ácidos producen un «taque inicial del vidrio, disolviendo los álcalis de su superficie, pero al mismo tiempo se va formando una capa de gel de sílice que reduce la velocidad del ataque hasta tornarlo nulo. En el caso de los álcalis, en cambio, esta capa protectora de gel de sílice se va disolviendo a medida que se forma (por formación de silicatos de sodio solubles), de modo que el ataque prosigue. La corrosión del vidrio por el agua (ataque hidrolítico) sigue un curso intermedio y tiene una gran importancia práctica, en particular en los vidrios para ventanas de casas y vehículos, en los envases de vidrio utilizados en las industrias alimenticias y farmacéuticas, en los materiales de vidrio que se emplean en los laboratorios químicos, en los vidrios ópticos, etc. También en este caso se llevan a cabo multitud de investigaciones para mejorar las características químicas del vidrio: búsqueda de nuevas composiciones, tratamientos térmicos y químicos de la superficie, revestimientos con otros materiales, y han surgido así nuevos tipos de vidrio para satisfacer a las más variadas exigencias. Citaremos por último otro grupo de propiedades para las cuales el estado de la superficie juega un papel fundamental: nos referimos a las características ópticas de los vidrios. Todos sabemos que, aun en el caso de los mejores vidrios para óptica, el correcto trabajado de su superficie por pulido es fundamental para obtener de él los mejores resultados. El estado de la superficie influye en la transparencia, la reflexión y la transmisión de la luz, y no sólo en forma global, sino a veces selectiva, es decir, que ciertas longitudes de onda son más o menos reflejadas o transmitidas que otras. Los valores del índice de refracción tam-
Figura 11. Corte longitudinal esquemático de un fibra óptica, mostrando la trayectoria de un rayo de luz. n, (índice de refracción del vidrio del núcleo) es mayor que n¡¡ (índice de refracción del vidrio de la capa externa). Generalmente n, = 1,70, y n¡, = 1,50 . n„ es el índice de refracción del medio circundante (aire, por ejemplo).
bién varían al ser determinados por diversas técnicas experimentales, según el estado y la composición de la superficie. Inversamente, muchas veces se altera deliberadamente la superficie de un vidrio óptico, mediante tratamientos químicos o por deposición sobre ella de delgadísimas capas de otras substancias (metales, por ejemplo), para obtener determinados efectos. Hemos visto así que, en mayor o menor grado, prácticamente todas las propiedades del vidrio en estado sólido están influenciadas por el estado de la superficie. Por esta razón el estudio de las superficies del vidrio, de su alteración y modificación, y de su influencia sobre las propiedades de este material es un tema al cual se dedican cada vez más esfuerzos en los institutos de investigación sobre el vidrio de todo el mundo, tanto desde el punto de vista puramente científico como tecnológico y aplicado.
El futuro del vidrio Se ha calculado teóricamente, sobre la base de la energía del enlace Si-O, que la resistencia mecánica de un vidrio 'común debería ser de unos 1.500 Kg/mm 2 . La resistencia real de un vidrio común es de apenas 5 Kg/mm 2 , o sea trescientas veces menor que la teórica. Se estima que en la actualidad sólo se aprovecha el 1 por ciento de las propiedades teóricas del vidrio. Aun sin pretender alcanzar los valores teóricos, es fácil darse cuenta de las enormes posibilidades que encierra este material, tan antiguo y tan nuevo a la vez. Diariamente se fabrican en todo el mundo más de cien millones de botellas de vidrio y esta cifra aumenta
continuamente pese a la sustitución parcial de envases de vidrio por envases de material plástico. ¡A qué desarrollo extraordinario podría llegar la industria vidriera si se consiguiese sólo duplicar la resistencia mecánica del vidrio! E n el caso del vidrio plano puede decirse algo similar: la creciente utilización de paneles de vidrio en arquitectura e ingeniería ha sido estimulada por la producción de placas cada vez más grandes, más homogéneas y más resistentes, y aquí también cabe esperar una notable evolución. Todo esto en lo que respecta a los campos de aplicación tradicionales. Pero han aparecido nuevos campos, nuevos tipos de vidrio, nuevas técnicas de fabricación, que abren posibilidades insospechadas. Los hilados de vidrio —curiosa simbiosis de dos técnicas que hasta hace muy poco no tenían nada en común— han revolucionado el arsenal de los materiales tradicionales y hallan crecientes aplicaciones como refuerzos de materiales plásticos (contrucción de embarcaciones, aeroplanos y otros vehículos, casas prefabricadas, muebles, neumáticos, elementos de construcción de todo tip o ) , tejidos, filtros para purificación de líquidos y esterilización de aire, paneles para aislación acústica y térmica, decoración y muchas otras. Estas fibras de vidrio, sumamente delgadas, que se trabajan como cualquier otra fibra natural o sintética, tienen propiedades notables: su resistencia a la tracción llega hasta 350 K g / m m 2 , y en el momento de la rotura su alargamiento alcanza a sólo un 3 por ciento; esta resistencia se mantiene prácticamente invariable hasta los 300 °C. El vidrio-cerámica, obtenido por desvitrificación controlada y al cual ya nos hemos referido, posee un coeficiente de dilatación lineal de sólo 14 x lO"7 m m / m m / ° C , una dureza de 7 en la escala de Mohs y una resistencia a los saltos térmicos muy superior a la de los mejores vidrios borosilacáticos. Sus aplicaciones abarcan desde utensilios de cocina para horno hasta puntas de misiles, es decir, toda aplicación don-
15
de sea necesaria ia conjunción de una gran resistencia mecánica y una gran resistencia térmica. En la industria y la investigación nucleares se utilizan vidrios de protección contra las radiaciones que contienen un elevado porcentaje de óxido de plomo y que absorben eficazmente las radiaciones gama, permitiendo la fabricación de visores y ventanas para celdas de reacción, cámaras de burbujas, "hot cells", etcétera. Las fibras ópticas constituyen otro avance espectacular. Una fibra óptica está constituida por dos tipos de vidrio: uno de índice de refracción elevado que forma el "núcleo" y otro de índice de refracción más bajo, que forma la capa externa (ver figura 11). La luz que entra por un extremo no puede "salir" a través de las paredes porque, a causa de la relación entre los índices de refracción, es reflejada siempre hacia la parte interna, de modo que la luz es "conducida" a lo largo de la fibra, como el agua por una cañería. Las fibras tienen un diámetro muy pequeño, del orden de algunas milésimas de milímetro, siendo el espesor de la capa externa del orden de apenas un micrón, y poseen una gran flexibilidad. Las fibras ópticas se reúnen en haces (compuestos por varios ^centenares o millares de fibras), y estos haces se recubren con una vaina flexible de metal o de material plástico. Estos haces pueden curvarse, anudarse o seguir las trayectorias más caprichosas y la luz sigue dócilmente el camino impuesto, con pérdidas mínimas. Las aplicaciones de estas fibras son ya innumerables, por ejemplo para la iluminación de lugares poco accesibles (en la figura 12 se muestra un ejemplo), o para la construcción de "circuitos luminosos" equivalentes a los circuitos electrónicos, en los cuales en lugar de circular electricidad circula luz, con un consumo de energía mucho menor. Si las fibras ópticas que forman un haz se ordenan, es decir, si el haz se construye de tal modo que la posición recíproca de las fibras se mantiene invariable a lo largo del mismo, no sólo es posible conducir luz, sino también imágenes. Ya se usan comúnmente en la práctica clínica endoscopios que permiten ver y fotografiar el interior de los órganos, así como en la industria aparatos similares mediante los cua-
16
Figura 12. Aplicación de las fibras ópticas para la iluminación directa de la platina de un microscopio. La caja de la parta inferior izquierda contiene una lámpara de alta potencia. Su luz es conducida por el haz de fibras (recubierto por una vaina metálica flexible) hasta el punto deseado. (Foto Schott)
les es posible examinar el interior de motores y máquinas en funcionamiento, cosa que hasta ahora era prácticamente imposible. , También se fabrican haces rígidos, de todas formas y dimensiones, soldando entre sí las partes externas de las fibras, que hallan numerosas aplicaciones en sistemas y aparatos ópticos, fotográficos, cinematográficos, de televisión y similares. Los vidrios especiales para uso electrónico (denominación genérica que abarca una gran variedad de vidrios muy diferentes), sorprenden por sus muchas aplicaciones: las más difundidas son las lámparas para iluminación de todo tipo, las válvulas de radio, los bulbos de televisión, los tubos de rayos X y los zócalos para transistores. También juegan un papel muy importante en la industria electrónica los vidrios con un coeficiente de dilatación tal que pueden soldarse a metales como el molibdeno, el tungsteno y otros, y los pasantes de vidrio. Debemos mencionar asimismo'los vidrios semiconductores, que contienen óxidos de hierro y manganeso de valencia variable, o bien sulfuros y seleniuros de arsénico y gecmanio. No podemos dejar de mencionar a los vidrios fotocromáticos, que se oscurecen o se aclaran al aumentar o disminuir, respectivamente, la inten-
sidad de la luz que incide sobre ellos. Ya hay en el comercio anteojos fabricados con estos vidrios, y dentro de no mucho los veremos colocados en nuestras ventanas, actuando como reguladores automáticos de la iluminación de los ambientes. Hay dos tipos de vidrios fotocromáticos: los que contienen sales de plata dispersas en su masa y los que se obtienen mediante tratamiento químico de su superficie. Si bien los mecanismos son distintos, el efecto resultante es similar en ambos casos. Esta lista podría prolongarse indefinidamente: deberíamos citar los electrodos de vidrio sensibles a las variaciones de la concentración de determinados iones en solución; las ventanas de las baterías solares do los satélites artificiales; las barras ele vidrio al neodimio para láser; los revestimientos vidriados de tanques y equipos industriales; las cañerías de vidrio para la industria química y farmacéutica; los condensadores para hornos solares; los filtros interferenciales que dejan pasar sólo determinadas longitudes de onda; los metales reforzados con fibras de vidrio y los vidrios reforzados con fibras metálicas; los nuevos vidrios y espejos para telescopios, y otros instrumentos ópticos; los vidrios me talizados por deposición, al vacío, do una delgadísima capa metálica sobre su superficie; las placas de vidrio flexibles; y muchos otros. Esta rápida y forzosamente incompleta reseña, da una idea del cambio cualitativo que se ha producido en la investigación y en la tecnología del vidrio: a uno de los materiales sintéticos más antiguos creados por el hombre se le abre un futuro extraordinario, gracias al estudio racional de su estructura y sus propiedades, Y hemos dejado ex-profeso para el final otro aspecto —no menos importante— del vidrio: el artístico, que desde las cuentas de colores de los egipcios, los vasos tallados do los romanos y los luminosos vitra les medievales, hasta las creaciones del arte contemporáneo, en todos sus aspectos, constituye un medio de expresión extraordinariamente rico y dúctil para las inquietudes creadoras del hombre.
FUNDACION ENRIQUE ROCCA
Promovida por la
ORGANIZACION TECHINT
Sostenida por Dalmine
Siderca
S.A.
Propulsora Siderúrgica S. A. Cometarsa Losa Techint
S.A.
S.A. S.A.
Techint Engineering Co. Santa María
S.A.
Córdoba 320 - Buenos Aires
Novedades de Ciencia y tecnología 1 Conservación de alimentos Una nueva técnica para deshidratar alimentos probablemente desplace en muchos casos a las clásicas liforización, secado en corriente de aire caliente, aerocleshidratación, etc. El proceso consiste en recubrir los alimentos (frutas, carnes, pescados) con una membrana semipermanente y sumergirlos en una solución de azúcar. Después de 70 horas de estar allí quedan suficientemente secos como para soportar largos períodos de almacenamiento sin ninguna alteración. En experiencia de laboratorio, duraznos, ostras, carnes y otros productos, fueron sumergidos en una solución de pectina y luego en nitrato de calcio. De este modo se obtuvo una costra semipermeable de pectato de calcio que permite el paso del agua pero no del azúcar. Una vez recubiertos, los alimentos se sumergieron en una solución al 50 % de sacarosa invertida. Después de un tiempo conveniente la deshidratación era completa. Cuando se los rehidrató el gusto de todos los productos era excelente. En el caso de las ostras —consideradas por todos los técnicos en conservación de alimentos como muy difíciles de tratar— no presentaron casi diferencias con respecto a las ostras frescas. Si bien los ensayos se han limitado al pectato de calcio, hay varias otras membranas concebibles e insaboras que podrían usarse (por ejemplo proteínas, celulosa o almidón). El criterio de aceptación establece que no debe producirse ninguna reacción irreversible en el alimento y
18
mantenerse la integridad física del producto una vez rehidratado. Es decir que debe ser lo más parecido posible al original. Las ventajas indiscutibles del proceso residen en la ausencia de cambios técnicos (al no haber ni enfriamiento, ni calentamiento se anulan los peligros de daños en los tejidos por formación de hielo o alteración de la composición química) y en la posibilidad de utilizarlo sin necesidad de los costos de instalación que en general requieren los . procedimientos clásicos. (Journal of the Science of Food and Agriculture, vol.19, p. 472).
2 Burbujas magnéticas para el tratamiento de la información Se ha comenzado a utilizar "burbujas" magnéticas en una nueva técnica de la información que puede ser preludio de una variación en las técnicas digitales y en las funciones de switching. El sistema es pequeño, simple, adaptable, barato y consume muy poca energía. Las burbujas necesitan una cantidad de energía dos órdenes de magnitud menor que la requerida para accionar el transistor más pequeño. El nuevo dispositivo utiliza áreas magnéticas muy pequeñas, "burbu-
jas" de capas delgadas de material ortoferrítico (grupo de materiales compuesto por óxido de hierro y tierras raras). Las áreas magnetizadas localmente tienen una superficie del orden de 2,5 j-i de diámetro y pueden ser creadas, borradas o desplazadas en cualquier punto de las capas delgadas de ortoferrita sin necesidad de interconexiones. Las burbujas interactúan de modo controlado. Su presencia o ausencia en un punto de posición perfectamente definida puede ser detectada, lo que permite establecer un sistema binario "burbuja/no burbuja" o, en otros términos,- "uno/cero". Pueden cumplir además funciones lógicas o de memoria. Las burbujas formadas en la capa delgada de ortoferrita, sobre la que se imprime un circuito de material conductor, pueden ser movidas siguiendo dicho, circuito, ya sea por medio de pulsos de corriente o utilizando un campo magnético externo. Si se desea desplazar las burbujas por pasos discretos, se necesita disponer de campos altamente localizados; esto se logra utilizando las técnicas de capas delgadas para formar pequeños círculos conductores sobre el sustrato de ortoferrita. Con ortoferritas que contienen samario y terbio como tierras raras, se logra acumular una densidad de información del orden de 100.000 bits por pulgada cuadrada. Una burbuja puede ser desplazada una longitud igual a su diámetro en menos de 100 nanosegundos ( 1 0 0 X 1 0 ~ 9 segundos), lo que supone que pueden construirse dispositivos capaces de transferir información a una velocidad mayor que 1.000.000 de bits por segundo. En experiencias ya realizadas se han logrado velocidades tres veces superiores a la indicada.
El heclio de que las burbujas puedan ser observadas directamente es una gran ayuda, pues permite saber qué está pasando. Esta visualización es posible porque las ortoferritas son suficientemente transparentes al infrarrojo muy cercano e incluso al rojo del espectro visible, como para permitir una visualización directa aprovechando el efecto Faraday (al iluminar con luz polarizada el campo magnético, rota el plano de polarización ). Este nuevo dispositivo magnético microminiatura, podrá reemplazar en el futuro a circuitos de semiconductores utilizados en las funciones digitales de las computadoras, sistemas de comunicación y de switching. La posibilidad de combinar las funciones de memoria y lógica permitirán quizás un mayor orden en las programaciones. La alta velocidad y la gran densidad de información sugieren que podrían desarrollarse archivos con discos de estado sólido.
3 El litio: u n posible alivio para los maníaco-depresivos De un 20 a un 25 por ciento de los enfermos que llegan a los hospitales psiquiátricos son maníaco-depresivos, es decir, que sufren periódicamente de manías o depresión, en muchos casos alternadamente. Hace unos seis años, varios médicos daneses encontraron que la incidencia de tales ataques se veía reducida suministrando a los enfermos sales de litio, y muchos psiquiatras escandinavos están ya convencidos de la potencialidad profiláctica del litio en esta enfermedad. En otros países las reacciones han sido más cautelosas, entre otras cosas porque el litio, en grandes dosis, es tóxico, y se conocen casos de fallecimiento por envenenamiento con litio. Pero dada la importancia de la cuestión, se están llevando a cabo muchas investigaciones sobre la misma. Uno de los proyectos más ambiciosos es el que desarrollará la Universidad de Leeds, Inglaterra, que ha recibido un subsi-
dio de 70.000 libras esterlinas del Medical Research Council de Gran Bretaña. Los trabajos en Leeds ya habían comenzado en 1964, bajo la dirección del Dr. R. P. Hullin, y los primeros resultados confirmaron la tesis de los daneses y de investigaciones anteriormente efectuadas en Australia y en los EE. UU. acerca de la efectividad de las sales de litio en el tratamiento de las manías depresivas. El efecto del litio parece ser "normalizador", y no tranquilizante, como el de ciertas drogas que se están utilizando actualmente para tratar esta enfermedad (por ejemplo la clorpromazina). El grupo de Hullin ha atacado el problema desde el punto de vista bioquímico, partiendo de la base de que la manía, y probablemente también los estados depresivos asociados a ella, es el resultado de un desorden bioquímico; lo que se trata de hallar es el papel que juega el litio en los metabolismos cerebrales. Si bien estas investigaciones tienen un aspecto más bien teórico, se espera de ellas muchos resultados prácticos, en particular dilucidar la cuestión, muy controvertida, de si el litio puede jugar un papel preventivo. Los primeros resultados, basados en un exhaustivo estudio sobre 20 pacientes internados y 75 pacientes externos, parecen dar una respuesta afirmativa. Pero los investigadores de Leeds han sido hasta ahora muy cautos en sus afirmaciones y en la publicación de sus resultados, temiendo que se puedan despertar esperanzas infundadas y que se haga abuso de los compuestos de litio antes de que la cuestión esté totalmente aclarada.
dica. Tres diodos de arseniuro de galio colocados cerca de la curvatura del mango de un bastón de 700 g, emiten pulsos de radiaciones infrarrojas coherentes. Estos pulsos son reflejados por cualquier objeto que se interponga en su camino y la radiación reflejada es detectada por 3 fotodiodos situados debajo de los emisores. La información referente a la posición de los objetos detectados se transmite al usuario del bastón mediante 3 estímulos diferentes; una señal en el dedo indica que el objeto está directamente al frente, 2 sonidos distintos indican si está arriba o abajo. El rango de detección en lo referente a "directamente al frente", puede ser variado por el usuario. Desde el punto de vista de la seguridad debe tenerse en cuenta la máxima radiación emitida que puede tolerar una persona que esté frente al bastón. Para ello se toma en cuenta la tolerancia de la retina, que es la parte más sensible. De acuerdo a estimaciones la máxima exposición a que estaría sometida la córnea es de 13,5 watt/cm 2 . La densidad de energía sobre la retina sería de 17,6 milijoule/cm 2 , valor muy por debajo de las normas de seguridad establecidas (70-90 milijoule/cm 2 ). De todos modos, en las peores condiciones de operación, el bastón trabajaría por debajo de las normas más estrictas actualmente en vigencia.
5 4 Bastones láser para guiar a los ciegos Un bastón láser diseñado para prevenir a los ciegos de los obstáculos que pueden presentárseles delante, arriba y abajo, ha sido desarrollado por una empresa de electrónica mé-
El Instituto Salk estudiará la influencia de las ciencias biológicas en la sociedad En febrero último el Instituto Salk anunció la creación del "Consejo para el estudio de la biología en relación con las actividades humanas", encomendando su dirección al doctor Jacob Bronowski, profesor en el mismo Instituto en La Jolla, California. El Consejo fue descripto como "una organización internacional que estudiará las implicancias humanísticas, presentes y futuras, de los
19
- .
<!> u1 r • L i t *> en h» concias bio• h '•> i ' i o-, -j » In t i b í > ido ya seis , u i ¡! t Biología y A - u1 i í Huí <» i í p i n estudiar I p it i ) [ iK i li ictual re1i , i! n i í n ¡ 11 fera de las ?! l ! i i n i ptnblemas dei i i 111 q 11 ni 'c i y bactes i i 11 2 1 Bio'i 'i i, Etica y i i 1 ! 11 d i ¡vados de i r ti ini-i como la n ,íi i * < 11 ontrol del , , i 'n i I 1 >io ía, Apreni i 'i un viito ( abuso de L U !' ' i u D (J Biología f i t , ( ,ri np i i.ii' (impacto ' ( i uu ipo- tiadicional¡ , i n i ¡ tu ( i c uno los relatii < 't i ií ->1 i Ilumina"); 5) F t ívÍ 1 i \mbiLiitc y Pobla.... i i( ii n italidad, implii' is J 1 di> mí -.tico genético prer . ' if, c u . ) ; 6) Biología, Medicina y t< j'fibnJad (cambios económicos, I ilr.uf*- v sociales necesarios para irtliirai Li asistencia médica). (Ja3.i Comisión consta de un prek nít. v cuatro o cinco miembros tvit. luientes al Consejo. Este último t s f i integrado por 25 miembros, entre los cuales se cuentan a personalidades como Paul Doty, Robert Holley, Salvador Luria, Sir Peter Medawar, Jacques Monod y James Watson. Las comisiones desarrollarán estudios, conferencias, seminarios y programas de investigación sobre temas específicos, y los resultados que se obtengan, luego de un cuidadoso análisis, serán hechos públicos, informándose acerca de los mismos a los gobiernos y a las academias científicas.
6 ACHEMA
1970
Del 17 al 24 de junio se desarrolló en Frankfurt, Alemania, la exhibición ACHEMA 1970, la más importante en el campo de la ingeniería química, y la decimosexta de su serie (la primera ACHEMA se realizó en Hannover en 1920, hace exactamente medio siglo).
20
"fTOTÍ
La exhibición se llevó a cabo en la "Ciudad de los Congresos Achema", que ocupa, en el centro de Frankfurt, una superficie total de 330.000 ni2, que incluyen la Sala de Congresos, el Hall de Recepción, el Club de Visitantes Extranjeros, el Instituto Dechema, 6 salas de conferencias y proyecciones con una capacidad total de 4.000 personas, y 23 salas de exposición que ocupan 130.00 n r cubiertos y 12.000 m 3 para exhibiciones al aire libre. Los campos que abarca la ACHEMA incluyen: química, ciencia y tecnología nucleares, técnicas' de laboratorio, técnicas de medición, control y automatización, métodos de ensayo de materiales, equipos para la industria química e industrias relacionadas, investigación básica, y literatura especializada. Prácticamente todos los países del mundo estuvieron presentes, ya sea a través de firmas comerciales que expusieron sus productos, como por medio de delegados oficiales o de asociaciones profesionales. En el acto inaugural pronunció una conferencia el profesor E. Seibold, de la Universidad de Kiel, sobre "Los océanos como fuente de materias primas", luego del discurso inaugural a cargo del Prof. E. H. K. Winnacker, actual Presidente de la ACHEMA. En los días subsiguientes se desarrollaron alrededor de 250 conferencias, a cargo de importantes especialistas. Paralelamente se llevaron a cabo otras manifestaciones: la Reunión Anual del Instituto DECHEMA, un Simposio de la Asociación Internacional de Seguridad Social, el Congreso de la Sociedad Alemana de Tecnología, el Congreso de la Sociedad Química Alemana, un simposio sobre "Química y tecnología de los elementos transuránicos", el 95° Congreso de la Federación Europea de Ingeniería Química, y alrededor de 100 visitas a fábricas. El número de firmas expositoras superó los 2.000 stands, el número de congresistas inscriptos fue de 26.000, el número de estudiantes inscriptos fue mayor de 20.000, y hubo alrededor de 100.000 visitantes extranjeros. Durante el Congreso se distribuyó el "Anuario ACFIEMA 1968/70", en 3 tomos con un total de 2.300 páginas, que incluye, entre otras informaciones, un resumen de los principales adelantos de la tecnología química en el período mencionado, los progra-
m a s de actividades de los institutos educacionales y de investigación teórica y aplicada en química e ingeniería química, una guía de fabricantes de equipos, aparatos y materiales, y diccionario técnico en cinco u n idiomas.
7 A c u e r d o para un nuevo c o h e t e europeo L o s países miembros del organismo e u r o p e o de construcción de cohetes " E l d o " —Alemania, Bélgica, Francia, Italia y Países Bajos—, han acord a d o las bases de un ambicioso prog r a m a de construcciones espaciales: Se han destinado 600.000 dólares a los estudios del cohete "Europa I I I " , d u r a n t e los meses de mayo y junio, y 5 0 0 . 0 0 0 dólares — e n 6 meses— a los de un "remolcador" espacial encargado de transportar cargas ent r e dos órbitas terrestres. E l abandono del "Blue Streak" c o m o primera etapa (lo fue del " E u r o p a I I " ) obliga a desarrollar un sustituto que tomará como base las técnicas francesas desarrolladas en el " D i a m a n t - B " y que contará con cuat r o o cinco motores de un empuje t o t a l de más de 100 toneladas (o sea semejante al del Blue Streak). La segunda parte del cohete es aún más a u d a z ya que será un motor a hid r ó g e n o y oxígeno líquido a alta pres i ó n que técnicos alemanes han comenzado a estudiar pero que la N A S A (que cuenta sólo con motor e s a baja presión) nunca ha intent a d o . "Europa I I I " podría colocar d e 700 a 900 kilos en órbitas semej a n t e s a las de los satélites estacionar i o s de comunicaciones, es decir, del o r d e n de 36.000 km de altura. E l costo del "Europa I I I " se aprox i m a r á a los 750 millones de dólar e s . Es más difícil apreciar el del remolcador que es uno de los cuatro elementos que los EE. UU. quieren desarrollar antes de 1985 y en cuyos estudios seguramente se aceptaría k colaboración de Gran Bretaña, que si bien no forma parte de la "Eldo" n a manifestado interés.
8 ¿ S e acaba el oxígeno? Eti un artículo publicado recientemente en "Scientific World" (n? 5, 1 9 6 9 ) , V. I. Vulfson, profesor de química en la Escuela Superior de Ingeniería Marina Almirante Maleara v, de Leningrado, analiza el problema de la producción y el consumo de oxígeno natural, y el empobrecimiento de sus fuentes, debido a la creciente industrialización. El homb r e moderno obtiene la mayor parte de la energía que necesita quemando combustibles (petróleo y carbón, principalmente), con oxígeno. Se han hecho muchas estimaciones sob r e las reservas mundiales de combustibles y sobre la posibilidad de su agotamiento, pero muy poca atención se ha prestado al oxígeno, admitiéndose comúnmente que sus fuentes son inagotables. Según Vulfson, esta opinión no se justifica, y existe el riesgo, a largo plazo, de una disminución peligrosa de las reservas de oxígeno. Las fuentes naturales de oxígeno son fundamentalmente dos: las biológicas (fotosíntesis clorofiliana por las plantas verdes), y las no biológicas (descomposición de substancias que liberan oxígeno bajo la acción de la radiación solar y otros agentes como la radiactividad natural y las temperaturas elevadas). La fuente principal es la biológica; ha sido justamente gracias a la fotosíntesis vegetal que se llegó a la actual composición de nuestra atmósfera. Esta última contiene el 99 % del oxígeno libre de todo el planeta, correspondiendo el 1 % restante al disuelto en los océanos, y que sólo es aprovechable por la flora y la fauna marinas. Se estima que la producción anual de oxígeno por fotosín- tesis clorofiliana es de 5,3 X 1010 toneladas, mientras que la producción por otras fuentes (exceptuando los océanos) es sólo de 1,3 X 107 toneladas.
este equilibrio tendría consecuencias catastróficas para la vida sobre la tierra. Para mantener este equilibrio, es decir, para mantener constante esa concentración de oxígeno en la atmósfera, es necesario que su consumo no supere a su producción. Esto significa que sólo podemos considerar como reserva de oxígeno a la cantidad que se produce continuamente. Y todo indica que esta reserva tiende a disminuir. En base a numerosas estimaciones estadísticas, propias y de otros autores, Vulfson presenta una tabla, que ya de por sí es suficientemente ilustrativa. Como resultado del consumo cada vez mayor de combustibles, el porcentaje de anhídrido carbónico (COa) en la atmósfera está experimentando un aumento, aumento que ya en la actualidad los procesos de fotosíntesis no son capaces de asimilar, lo que indica que ya hay un con-
sumo de oxígeno irreversible. Evidentemente, la actividad humana está modificando los equilibrios naturales de nuestra Tierra. Sí bien las cifras que presenta en su artículo son estimativas. Vulfson considera que son lo suficientemente alarmantes como para justificar la adopción ele medidas contra el consumo incontrolado de oxígeno, que llega a calificar de "piratesco". La difusión de centrales eléctricas alimentadas con energía atómica (que no consumen oxígeno), será sólo un paliativo y no justifica ninguna posición optimista, ya que !;'centrales térmicas, las industrias, Iíi;.automóviles y el consumo doméstico utilizan cada vez más oxígeno \ producen cada vez más CO2. I'<jí este motivo, el estudio a nivel internacional del problema de las fuentes de oxígeno, de su conservación y su reproducción se hace cada vez más urgente.
DINAMICA DEL CONSUMO ANUAL DE O X I G E N O POR QUEMADO DE COMBUSTIBLES
Año
1860 1960 1980 2000 2050
Consumo anual Consumo anual de combustible de oxígeno (miles de millo- (miles de millones de ton.) nes de ton.)
0,6 5,2 11 25 100
1,38 12,0 25,3 57,5 230
Porcentaje de oxígeno consumido anualmente del producido poi fotosíntesis De plantas Total terrestres
2,6 22,7 47,7 109 434
0,6 4,1 10,5 23,7 95,0
La cantidad total de oxígeno en la atmósfera es de unas 1,2 X 1015 toneladas, pero, como lo hace notar Vulfson, esta cifra no puede tomarse como la reserva de oxígeno, ya que este oxígeno libre está en equilibrio con el oxígeno combinado en diversas formas, en especial en los compuestos que forman los seres vivientes, de modo que una alteración de
21
Cursos y reuniones científicas
Séptimo Congreso Internacional de Diabetes Entre el 23 y 28 de agosto próximos, se realizará en Buenos Aires el V I I Congreso Internacional de Diabetes en el que participarán más de 2000 invitados extranjeros así como numerosos profesionales e investigadores de nuestro país. El encuentro es organizado por la Sociedad Argentina de Diabetes, de acuerdo con lo resuelto en la reunión celebrada en Estocolmo, en julio de 1967, polla Federación Internacional de la especialidad. Es la primer reunión de su tipo que se celebra en América latina y tendrá carácter de homenaje al profesor Bernardo Houssay, premio Nobel de Medicina, quien ocupa la presidencia honoraria de la FID. Además de las sesiones para médicos, se prevé la realización de reuniones con asistentes sociales, pacientes y todas aquellas personas que estén interesadas en el tratamiento de los problemas humanos, sociales y económicos derivados de esta enfermedad. El Comité Ejecutivo encargado de la organización del Congreso es presidido por el doctor Virgilio Foglia, ocupando la presidencia y vicepresidencias honorarias los doctores Bernardo Houssay, Pedro Landabure y Luis F. Leloir. La secretaría, que funciona en Paraguay 2155, 7? piso, tel. 898419, suministra información acerca de la actividad de las Comisiones Internas encargadas de las tareas de preparación del encuentro.
Segundo Congreso Nacional de Petroquímica Organizado por la Asociación Química Argentina, la Asociación de Ingenieros Químicos, y el Instituto Argentino del Petróleo, y con la adhesión de autoridades nacionales y provinciales, instituciones universitarias y empresas privadas, se llevará a cabo en Rosario, del 26 al 31 de octubre próximo, el Segundo Congreso Nacional de Petroquímica,
22
de acuerdo con una resolución del Primer Congreso, que tuvo lugar en Mendoza en 1966. Bajo el lema: "Ciencia y técnica industrializando al país", los trabajos se dividirán en cuatro comisiones, a saber: Materia prima; Mercado argentino de productos finales y destino; Desarrollo y promoción, y Evolución tecnológica. En el Congreso no se considerarán problemas técnicos en particular, sino temas generales de gran importancia que hacen a la evolución futura de la industria petroquímica en el país, como la estimación de la evolución de la producción y el consumo de gas natural y petróleo para el período 1970/80; demanda estimada para la producción de la industria petroquímica; relaciones entre la petroquímica y otras industrias; política de desarrollo industrial; comercio interior y exterior; posible participación del estado en la industria petroquímica; estado actual de la tecnología petroquímica en la Argentina y posibilidades de desarrollo tecnológico; formación de especialistas; etcétera.
Se concreta así el objetivo principal de los Estatutos del CIMAE, que es el de promover, estimular y apoyar las investigaciones médicas en la Argentina.
REVISTAS ARGENTINAS "Ciencia e Investigación" cumple 2 5 años
Inauguración de los Laboratorios del C.I.M.A.E.
La revista "Ciencia e Investigación", órgano de la Asociación Argentina para el Progreso de las Ciencias, y actualmente también órgano de información del Consejo Nacional de Investigaciones Científicas y -Técnicas, y de la Comisión de Investigaciones Científicas de la provincia de Buenos Aires, ha cumplido 25 años de vida. Fundada por el doctor Eduardo Braun Menéndez, quien fue su director durante muchos años, "Ciencia e Investigación" cumplió una importante tarea en la divulgación, promoción e información de la actividad científica en nuestro país, pasando por diversas alternativas, pero siempre con el elevado nivel de calidad y seriedad que la caracteriza. Sus actuales directores son los doctores Venancio Deulofeu y Alberto C. Taquini.
El día 7 de mayo pasado fueron inaugurados oficialmente los laboratorios de la Fundación Centro de Investigaciones Médicas Albert Einstein (CIMAE), con asistencia de personalidades oficíales y universitarias, directivos de la Fundación, y numerosos invitados. Durante el acto hicieron uso de la palabra el Dr. A. E. Finkelstein, creador del CIMAE y actual Director del mismo, el sefior Simón Mirelman, presidente de su Consejo Directivo, el Prof. Eduardo de Robertis, miembro de su Consejo Científico, y el Prof. Nathan Trainin, investigador del Instituto Weizmann de Israel, y pronunciaron breves alocuciones el Prof. Bernardo A. Houssay y el Ing. H . A. Einstein (hijo de Albert Einstein, bajo cuya advocación se desarrollan las actividades de este instituto).
El número 11-12, correspondiente a los meses de noviembre-diciembre de 1969, recientemente aparecido, trae colaboraciones de Néstor J, Carlisky: "Más de dos mil millones de años en lucha contra el amoníaco" (premio "Estela A, de Goytía", 1969, al mejor artículo de divulgación científica); Jorge A. Bolzan: "Polarografía moderna y algunas técnicas relacionadas"; E. Rotstein y A. Rivas: "Evolución de los requerimientos para el ingeniero químico"; Emilio A. Caimi: "La fusión de mezclas de ioduro de plata y ioduro de potasio"; y, como es habitual, las secciones permanentes de Organización de la enseñanza y de la investigación, Mundo científico, Bibliografía científica, y noticias de los consejos de investigaciones mencionados más arriba.
Juegos Matemáticos
Las Permutaciones Manuel Risueño
Quienes vean la figura de esta página, pensarán a primera vista que las dos figuras reproducidas nada tienen que ver entre sí, ni con el número de siete cifras que las acompaña. En la primera figura algunos verán un círculo con siete cuerdas con sus extremos comunes dos a dos; los más experimentados dirán que se trata de un heptágono inscripto, no convexo. La segunda figura parece el modelo de un mosaico de cuadrados blancos y negros, bastante escasos estos últimos; quienes tienen experiencia en el ajedrez tal vez reconozcan una solución del problema de las n torres (colocar n torres en un tablero de n filas por n columnas de tal manera que ninguna de ellas ataque a ninguna de las otras) para el caso de n = 7. Muchos, sin duda, relacionarán directamente el título del artículo con el número de siete cifras, que es, efectivamente, una permutación de los números 1 al 7; pero se quedarán pensando la relación que pueda haber entre esta permutación y las dos figuras. Después de haber tocado un tema casi exclusivamente geométrico en nuestro primer artículo sobre los polióminos y uno "rabiosamente" aritmético en el segundo, dedicado a la reina de las matemáticas, nos ha parecido interesante en este tercer artículo tocar un tema que pone de manifiesto algunas de las muchas vinculaciones que existen entre dos ramas aparentemente tan diversas de las matemáticas, como son la geometría y la aritmética. Y para ello seguiremos al distinguido matemático francés, Dr. A. Sainte-Lagué, cuyo libro "Avec des nombres et des lignes (Récréations mathématiques)", publicado en París en 1946 y que aún se encuentra en venta, contie-
ne un interesante capítulo sobre el tema que nos proponemos abordar. Las permutaciones forman un tipo muy especial de las llamadas "combinaciones" y "variaciones": son aquellas combinaciones que no tienen elementos repetidos y que incluyen a todos los elementos. Una permutación de n elementos queda así definida como el conjunto de todas las listas posibles que se pueden formar ordenando n objetos, sin omitir ninguno, de todas las maneras posibles. Los objetos pueden ser letras, números, símbolos matemáticos o cualquier otro objeto susceptible de distinguirse de los demás del grupo; en este artículo, como pensamos restringirnos a valores de n pequeños, tomaremos como elementos los números dígitos, del 1 en adelante. Así, por ejemplo, las permutaciones de 3 elementos serán las seis siguientes: 1 2 3, 1 3 2, 2 1 3, 2 3 1 , 3 1 2 y 3 2 1. Una fórmula muy conocida y de demostración casi evidente enseña que el número de permutaciones de n elementos está dado por el producto I x 2 x 3 x . . . x n , que se abrevia n!, abreviatura que se lee
como " n factorial". Así, para 1 objeto hay una sola permutación; para 2 objetos, 2 permutaciones; para 3, 6; para 4, 24; para 5, 120; para 6, 720, para 7, 5040; para 8, 40320; etc. Como puede apreciarse, estos números crecen muy rápidamente y pronto escapan a las posibilidades de examinar individualmente cada permutación. Pero un estudio de los diversos casos para los valores pequeños de n nos permite obtener una serie de relaciones, cuya extensión a valores mayores se hace muy fácil. Como punto de partida de nuestro comentario, tomemos la parte derecha de la figura 1, o sea, la solución allí reproducida del problema de las 7 torres. Fácil es darse cuenta, dado que las torres en ajedrez se mueven únicamente en sentido horizontal o vertical, que bastará asegurarse de que se ha colocado exactamente una torre en cada columna y exactamente una torre en cada fila, para obtener una solución del problema. Esta circunstancia permite una anotación muy resumida de cualquier solución. Como sólo hay una torre por cada columna vertical, y debe
E 2 5 7 4 6 1 3 23
V. "I"1
1
11 6 4 7 5 2 ' i ». •
5724136
i r - i-i, i i,' i columna, i , • iti >i'i. Je n cifras .i i.i t'M b«i indique en , í,l i ! i iir ti f la torre que i i] {'inru'ii <t'lunilla, la se¡i .jüa i.i íila iK.Mp.nia por la *-••, • v Li relinda columna, y asi i .< 'in/tiSs'. I.i elución indicada ,i "¡ fi.>utj 1 se paule así repre- ¡'c j • -i 2*>74&H, o sea, precisai • «i.- p it d ímnifti» indicado en ('.' ¡, i fi",iita. í orno por otra parte, i .¡>«>n.o purt.L- hdicr más de una to" » fi r ii'.i. t¡> evidente que las n • ' i ' qn<" indican una solución, dei< !• --.t rodas distintas. Una breve 'tí!eMi«n confirmará que el número d * MMicint-s del problema de las n I k í í v s tu,acide así con el número de y. !.: !• Je: n cifras, o sea, asv.'itde a n!. i , I,
I>e UPA wtlunon es fácil obtener ,-rr.ii íia-bd.indo sucesivamente l.i • 1 d,v extrema izquierda a 't di'-echa del tablero; esto
es cquiv,liento, en el ejemplo dado, a í c . i p p l ' / . i r Miresivamente la so-
! h 'liti 2574613 por Lis siguientes: *¡M<>1 ^ 74í)H25, 4613257. 613JV?. 3257461, después !i> iti.i! -.e repiten, como en un i h,•':!>!, Íj*. u.iitrus soluciones; se d i . " p-T ello que «e ha determinado 'if * -i'tic VtVhra" J e permutaciones.
I'-iri t'sptvs.ir más visiblemente < ¡•rotikd.il!, puede imaginarse un i i ! . i disidido en n Hí.'YÍi>nes ígtult n nu'ra.l.M dtl " 1 " al "n", y i "¡.r lü-, ("citos en ti urden indica>' p-it oijíq-sh-ra .lo las penrnit.ii i ' f - 1 ' i'ii !o, n|>t<'T¡ién.!iNe en to•i». L>-> , iSkn } i t i c u n di* la izquierd ' d.» tvui.t 1, s¡ s.ijx«nemes que el IV ,im 1 ' o e! > i¡;vrior dtl círculo ' 'ji" ; diííij'. eq.íti numerados -¡i 'iit-mi.' t ' ordm) A» 1j s aguj.H del
í''!H¡
I'< » 11 í unirá n(h da aún mis. ••'1 u problonu de las n torres, en v - d o ir tr.¡il»idtudo las columnas,
6 3 1 4 275
pueden también trasladarse las filas, del es tremo superior al extremo inferior, por ejemplo; eso equivale a disminuir en una unidad cada una de las cifras de la permutación, remplazando el " O " que se obtendrá, por " n " . En el ejemplo dado, la solución indicada, 2574613 nos dará sucesivamente: 1463572, 7352461, 5241357, 5137246, 47261.35 y 3615724, repitiéndose luego cíclicamente las mismas soluciones: 2574613, etc. Cada una de estas 6 nuevas soluciones n«s da, a su vez, por trasposición de columnas o por cambio cíclico de las cifras en el número representativo, que en el fondo es ¡o niiMTio, una serie de 7 soluciones. Si se traza una figura análoga a la de la izquierda de la figura 1 para representar cada uno de estos seis nuevos grupos de soluciones, se les reconocerá a todas un marrado aire "de familia"; efectivamente, es en todos les casos el mismo polígono dentro de un círculo, sólo que girado, sucesivamente, una, dos, . . . posiciones en el sentido contrario a las agujas del reloj. Puede verse así que las n! soluciones del problema de las n torres o las n! permutaciones de n cifras, se agrupan en n grupos de n soluciones que se pueden resumir todas en una Ü£ur« poligonal igual. Podría de aquí concluirse que el número de estas figuras diferentes debería ser — pero no siempre se obn x n tendrá un número entero, Por ejemplo, para n ~ 7. 5040 no es divisible por 4'X ¿Qué ha pasado? Muy sencillo, que hay casos en que no todas estas n x n permutaciones son diferentes. Por ejemplo, si partimos de la permutación 1234567, que corresponde j un heptágono regular inscripto o
olución del problema de las :n que éstas están agrupauna sola diagonal del tablevez de obtenerse 49 solucionen tes, sólo se obtendrán 7, la traslación de un número :ra de columnas, digamos x, lerda a derecha, seguida de slación de igual número x de arriba hacia abajo, reprodusolución inicial. Otro tanto con las permutaciones 13571473625 que forman los dos jnos regulares estrellados, no 3S.
analizar los diversos casos pueden presentar, conviene a la representación del prode las n torres. De una sodeterminada, por lo general sndrán otras tres, formando po de cuatro en total, por reen el eje vertical o en el eje ital del tablero o combinando Así la solución de la figura 1 rigen al grupo de cuatro sos que mostramos en la figura lúe hemos indicado para cada n la respectiva permutación, esulta ver que para pasar de nutación correspondiente a su ca verticalmente, basta inel orden de los números que ponen, como entre la primera ;gunda, o entre la tercera y la de las indicadas en figura 2. nbio, para pasar de una perón a la correspondiente a la >n simétrica en sentido hori, es necesario restar de n + 1 de 8 en el ejemplo que heegido) cada una de las cifras permutación, como ocurre enprimera y la cuarta, y también a segunda y tercera posiciones rigura 2. a una de estas cuatro da, a su acimiento a todo un grupo de uciones por las permutaciones s ya explicadas, y nuevamente i fácil comprender que todas iluciones simétricas vertical, por ejemplo, de las que forn grupo de 49, coinciden exacte con el grupo de 49 obte. partir de una solución simé:ualquiera, por ejemplo, de la la de la figura 2. Si se trazan lígonos respectivos, en el caso íetría vertical, se vuelve a obel mismo polígono, sólo que ido en sentido inverso; en que para el caso de simetría ntal, se obtiene un polígono ico del anterior.
Resulta así que, salvo los casos especiales como el ya indicado y algún otro que señalaremos, todas las soluciones pueden agruparse en series de 196 (4 x 49) soluciones, que corresponden todas a un mismo polígono (considerando como uno solo dos polígonos que se pueden superponer o bien directamente o bien por reflexión). Pero si aplicamos este método a una solución que puede simbolizarse por la permutación 1247536, el lector que trace las figuras respectivas (casillero y polígono) podrá apreciar en el polígono un eje de simetría, que hace que las soluciones coincidan dos a dos. En este caso, el grupo de soluciones comprende sólo 98 miembros, por reducirse a la mitad el total de 196 como consecuencia de la coincidencia indicada. Para un valor de n primo, como en el ejemplo que tomamos, no hay otras posibilidades que las ya indicadas: un eje solo de simetría, o la completa regularidad del polígono, con 7 ejes de simetría y sólo 14 soluciones por grupo; pero para valores de n que sean números compuestos, puede haber otros casos de simetría. Dejamos al cuidado del lector experimentar un poco con lo que dejamos dicho, terminando, a modo de resumen, con algunas cifras y con una pregunta. Las cifras, que damos para que los lectores puedan verificar sus resultados, son las siguientes: Para n = 6, las 720 soluciones se agrupan como sigue: 1 grupo de 144 permutaciones 144 5 grupos con un eje de simetría de 72 permutaciones cada uno 360 3 grupos con dos ejes de simetría, de 36 permutaciones cada uno 108 1 grupo con centro de simetría 72 1 grupo con simetría ternaria 24 1 grupo regular 12 720 Para n = 7, las 5040 soluciones se agrupan más simplemente, según lo indicado: 15 grupos sin simetría de 196 permutaciones cada uno 2940 21 grupos simétricos de 98 soluciones cada uno 2058 3 grupos regulares de 14 soluciones cada uno 42 5040
Y la pregunta: ¿cuál será el primer lector que nos indique cómo se agrupan las 40320 soluciones del caso n = 8? En nuestro próximo artículo daremos la respuesta.
Respuesta a Juegos Matemáticos N" 2: En el artículo anterior dejamos planteada la búsqueda de parejas de números "amigables", en que cada uno de ellos es igual a la suma de los divisores del otro, tal como ocurre con 220 y 284, por ejemplo. Indicamos a continuación algunas soluciones a este problema: 1184-1210; 2620-2924; 6232-6368; 17296-18416; 9.363.584-9.437.056
El Dr. Manuel Risueño es miembro fundador y ex-vicepresidente de la Asociación Argentina de Derecho Fiscal y miembro de la International Fiscal Association, del Institute des Finances Publiques, del Instituto Latino-americano de Derecho Tributario, y de la Federación Interamericana de Colegios de Abogados, de cuyo Comité Permanente de Impuestos fue presidente en varias oportunidades y es actualmente vice-presidente. Es miembro del Consejo Consultivo Económico-Financiero de la Cámara de Sociedades Anónimas desde su fundación. Es además miembro de la Association for Computing Machinery (ACM) y del grupo de la misma especializado en las aplicaciones de las computadoras a tareas y estadísticas comerciales (SIGBDP).
25
Investigación en clínica médica Reportaje a Alfredo Lanari
Ciencia Nueva: V a m o s a empezar con ini poquito de historia. ¿Cómo se f o r m ó Ud. como médico y como científico? Tenemos entendido que su formación presenta algunas peculiaridades.
Alfredo Latutri: M e gustaría empezar diciendo algo con respecto a las entrevistas con personas que estén en la actividad médica. Y o me presto a hacer un entrevista en la que aparezca mi nombre, porque no soy un médico que ejerce la profesión. Pero creo que los médicos que la ejercen, y que pueden beneficiarse económicamente de alguna manera, aunque sólo fuera desde el punto de vista de Ja difusión de su nombre entre potenciales clientes, tendrían que ser entrevistados guardando el anonimato. C. A*..- D e acuerdo. L o que nos interesa particularmente en Ud. es justamente el hecho de que no sea un clínico clásico, o sea su concepto de la investigación médica, y las actividades del Instituto de Investigaciones Médicas que Ud. dirije aquí, en el Hospital Tornú.
A. L.: Contestando su pregunta, le diré que yo provengo de una familia de médicos; mi padre fue el primer decano elegido en 1918, después del movimiento de la Reforma Universitaria. Seguí medicina no con mucha vocación, un poco porque era el camino que se seguía en mi familia. La vocación no creo que tenga demasiada importancia; cada individuo elige lo que sea y lo hace bien, regular o mal, de acuerdo a la capacidad de cada uno, siempre que la vocación sea la de servir para algo. Luego de seguir el colegio nacional, primero en el Champagnat y después en el Buenos Aires, entré a la Facultad de Medicina, donde por primera vez empecé a estudiar algo en serio. Estudiar algo en serio no significa estudiar bien. En mi caso, estuve tal vez demasiado dominado por la idea de querer ser u n buen estudiante, más que por saber. Y sólo a posterior! uno se da cuenta del tiempo que perdió estudiando pavadas. Después de recibido, pensaba hacer medicina "académica", es decir, ejercer la profesión y al mismo tiempo dedicarme a la docencia dentro de la Facultad. Recuerdo que en esa época fui a verlo al profesor Houssay, a quien ya conocía porque había participado en una de esas comisiones especiales para estudiar fisiología. Hice la tesis en el Instituto de Fisiología con un tema —sugerido por Lloussay— que me pareció que podía ser interesante. Como la mayor parte de las tesis que se hacían en el Instituto, no sólo era inspirada por Houssay sino que, mucho de la parte práctica, sobre todo al principio, estaba hecha por él mismo. Pero lo importan-
26
te es que uno se daba cuenta en qué consistía el método científico y qué era posible investigar en nuestro país. Terminada la tesis, hice el consabido viaje al exterior. Aquella época era bastante diferente a la actual, pues no existían sino muy escasas oportunidades de perfeccionarse con financiación externa; por ejemplo, en los Estados Unidos, no había residencias abiertas pata todo el mundo, ni tampoco "fellowships" como las que actualmente otorgan muchas instituciones; había sólo una beca de la Guggenheim y algunas de la fundación Rockefeller, sumadas a otras dos de la Comisión Nacional de Cultura. Yo me presenté a estas últimas, pero nunca conseguí ninguna. Entonces viajé por mi propia cuenta: tenía una pequeña herencia, y me fui con ella. Fui primero a Alemania, donde, desde el punto de vista, médico, la estadía no fue muy fructífera, pero aprendí por lo menos a hacer esquí, lo cual para mí era importante porque siempre tuve una marcada propensión hacia la vida deportiva; (mientras era estudiante fui campeón de golf en el Mar del Plata Golf Club —sigo todavía con el golf—, y después fui integrante durante tres años del equipo argentino de rugby). Además aprendí otra cosa interesante: a ver exactamente lo que era un régimen totalitario, tal como el régimen hitlerista. A Austria fui inmediatamente después del Anschluss donde pude observar al régimen en acción. En septiembre de 1938 viajé a Estados Unidos, y ahí trabajé —y esto fue muy importante para mí— en forma casual (pues no encontré ningún otro lugar en que me admitieran ) en la Cátedra de Fisiología de la Universidad de Harvard con el Profesor Cannon, bajo la inmediata dirección de Arturo Rosenblueth, un investigador mexicano que en aquella época trabajaba en Harvard como profesor asociado y que ahora es el director del Instituto de Altos Estudios en México y una de las eminencias más grandes en neurofisiología y cibernética. Yo trabajé con él, y puedo decir que después supe exactamente lo que quería hacer. Trabajé con Cannon y Rosenblueth no'más de ocho o nueve meses, se publicaron algunos trabajos, y volví a Buenos Aires con la idea de que me dedicaría en forma full-time a la investigación clínica. AI llegar a Buenos Aires no tuve posibilidad de hacer investigación clínica ni fisiológica full-time porque no había puestos full-time. Trabajé primero en lo de Castex, en forma parcial, por la mañana, mientras por la tarde concurrí al Instituto de Fisiología. Luego entré al Hospital Muñiz, con el profesor Raúl F. Vaccarezza, y conseguí un puesto que aunque no era full-time, tenía un sueldo
que correspondía al doble de los habituales de los médicos que trabajaban tres horas. Además, me desempeñaba como médico en la Dirección General Impositiva de 12 a 14.30. Claro que requería un poco de desplazamiento, pero esto me permitía trabajar como si fuera un full-time y así seguí hasta 1949. En el 53 ya estaba bastante harto de la situación política del país y tenía dificultades en mi trabajo; me ofrecieron un puesto en Estados Unidos y me fui. En este segundo período en Estados Unidos trabajé unos tres o cuatro años, en el Hospital Judío de Denver, donde fui Jefe del Laboratorio Cardiopulmonar, y Profesor Asistente en la Universidad de Colorado. A mediados de 1956 supe que había en Buenos Aires un concurso para Profesor Titular de Clínica Médica, me presenté, y salí. Y desde ahí es historia moderna. C. N.: Es decir que Ud. nunca hizo clínica privada.
A. L.: Hice, sí, desde el 49 al 53. En realidad hice clínica privada pues me dejaron cesante en Réditos, porque no quise firmar una nota para pedir el cambio de la Constitución del 53. Y así, ante la disminución de las entradas —además me había casado en el 4 9 — hice clínica privada. C.N.: Hubo hasta un. intento de creación de una clínica privada...
A. L.: Sí, exacto. Y trabajé también en una clínica privada, el Instituto del Tórax, con el Dr. Vaccarezza, con el grupo que trabajaba en el Muñiz. C. N.: Su posición en la medicina argentina nos parece extremadamente peculiar. Visto de afuera, resulta difícil encasillarlo como clínico o como fisiólogo.
A. L.: Bueno, yo creo que la diferencia entre el investigador clínico y el fisiólogo se hace cada vez menor. En una época, los métodos fisiológicos no eran aplicables al ser humano, por razones éticas, porque eran métodos cruentos. Pero a medida que los métodos se perfeccionan, en especial los métodos de medición (simplemente con una aguja colocada en una vena o en una arteria uno puede tener prácticamente todos los elementos que le permitan hacer una investigación clínica), la investigación clínica se acerca a la fisiológica, y eso es consecuencia, en cierto sentido, del adelanto de las técnicas auxiliares. C.N.: ¿Cuál f u e el origen de su interés en la fisiología respiratoria?
A. L.: Ah, fue totalmente casual. En realidad, en lo de Cannon, había trabajado en el mismo tema sobre el cual había hecho mi tesis en lo del Profesor Houssay en neurofisiología clínica. Y yo no sé si Uds. están bien enterados de quién era Walter B. Cannon. Cannon fue el fisiólogo posiblemente de más prestigio que hubo en los Estados Un-idos en los últimos cincuenta años; no fue un premio Nobel porque nunca tuvo la casualidad de descubrir una cosa extraordinariamente importante, pero fue el individuo que más huellas dejó en la fisiología americana y mundial; era evidentemente un hombre de excepción, así como Rosenblueth también lo es. Junto a ellos me di cuenta de que la única forma de hacer investigación en serio era haciéndola full-time. Como teoría,
por lo menos, uno debe pretender que el investigador que se dedique a la investigación clínica vea y asista a los enfermos en el mismo lugar de trabajo, y que no tenga las preocupaciones que requiere la práctica privada. En realidad, ser full-time es una posición mental, es estar desprendido de muchas otras cosas que lógicamente el médico que ejerce la profesión, aunque sea como consultor, tiene que tener. Yo, que hago investigación, sigo creyendo que lo más importante en la medicina es la práctica asistencial, y que un médico no puede dejar de ver a un enfermo porque en ese momento esté trabajando con un animal o en una investigación cualquiera. Evidentemente las dos cosas son incompatibles, pero simplemente por esas razones, porque tanto ser investigador como ser médico asistencial son actividades que no se pueden hacer bien sino full-time. C. N.: Para la creación y la organización del Instituto de Investigaciones Médicas, ¿usted se inspiró en la experiencia de Denver?
A. L.: No. En realidad esto es igual a cualquier buen servicio, de EE.UU. o de cualquier otro lado donde se haga investigación; no tiene ninguna característica particular. Uds. me preguntaban recién por qué me interesaba la fisiología respiratoria; simplemente porque cuando llegué a la Argentina, el único lugar donde podía trabajar de tarde (nunca conviene decir único, porque siempre hay algún otro), era el servicio del Profesor Vaccarezza en el Hospital Muñiz, y en donde por acción personal del Dr. Vaccarezza se podía encontrar un ambiente modesto pero apropiado para la inspección neumonológica. C.TS¡.: ¿Cuándo fue creado el Instituto de Investigaciones Médicas?
A.L.: Esto fue una cosa también muy casual. Yo no conocía el Llospital Tornú; creo que fue el único hospital de Buenos Aires al que no entré hasta el año 1956. En ese mismo año el Dr. Cucchini Acevedo, que era en aquella época Director interino, me invitó a dar una conferencia. Me llamó la atención ver un Centro tan grande; sabía que era un centro de investigaciones tisiológicas, pero no lo conocía físicamente. En 1957 me hice cargo de la tercera cátedra de Clínica Médica en uno de los edificios que está contiguo al Clínicas, durante siete u ocho meses. Mientras tanto, el Rector interino de la Universidad de Buenos Aires, Dr. Alejandro Ceballos, decidió crear un centro de investigación médica en lo que era el C.I.T. Cuando se abrió el concurso, a mediados del 57, me presenté; el concurso exigía k dedicación exclusiva (fulltime) para el Director del Instituto. Fui el único candidato: es relativamente fácil tener un puesto de este tipo, simplemente porque no se presenta nadie ya que los clínicos no quieren hacer full-time. A mediados de diciembre de 1957 me hice cargo de la Dirección del Instituto. C.N..' ¿Cómo está estructurado el Instituto de Investigaciones Médicas?
A. L.: La mayor parte de los médicos de la 3? cátedra de clínica médica vino conmigo, es decir, del Hospital de Clínicas se trasladaron al Instituto de Investigaciones Mé-
27
¡ I f 1 i ¡; \
dicas. Había, en esa época, dos o tres médicos full-time, que eran los Jefes de Trabajos Prácticos. Así seguimos dos años al principio sin ningún residente y con muchas dificultades para la investigación porque aunque el edificio era bueno y las salas también buenas, muy buenas para •nuestro medio, la planta de investigación estaba desprovista completamente de aparatos y de material. Durante los dos primeros años, bastante difíciles, yo estaba muy preocupado porque solamente pudimos presentar uno o dos trabajos, en los cuales había intervenido personalmente, porque todo estaba todavía en la etapa de organización y los investigadores en ciernes. Esto fue hacia principios del 60; después las cosas empezaron a marchar mejor. ¿Cómo está organizado el Instituto? Bueno, está mal organizado. Porque en teoría un instituto de investigación no debe tener muchas ramas, sino que debe concentrarse en un determinado problema o dos, como máximo, y esto por una razón muy sencilla:, los medios siempre son, sobre todo en nuestro país, relativos y limitados. Entonces, la lógica sería que un instituto de investigaciones, aparte de sus salas de internación donde puede atenderse a cualquier tipo de enfermos de medicina interna, tendría que tener un tema, y concentrar en él todos los esfuerzos y el dinero. Eso es lo que debería ser, y es lo que pensaba, en teoría, hacer, pero el problema que se presenta en la Argentina, es que hay médicos que quieren realizar investigación clínica full-time, y no encuentran dónde hacerla. Y tuvimos que abrir algunas secciones, porque alguien venido de Estados Unidos con el propósito de dedicarse en forma full-time a investigar se encontraba con que no tenía lugar; entonces, para evitar la pérdida que significa dejar ir un elemento bien entrenado, por falta de lugar, se abría una nueva sección. Y así nacieron secciones que no figuraban en la idea original, como por ejemplo nutrición, neumonología, endocrinología, etc. C. IV.; ¿Cuántas secciones tiene el Instituto?
A. L.: Tiene muchas. Desde el punto de vista asistencial, un lugar que tiene cien enfermos internados debe tener todas las secciones, ya que se admiten enfermos con cualquier enfermedad, siempre que sea medicina interna. Dentro del ámbito de la investigación, hay una sección nefrología, una sección de hemodinamia y aparato circulatorio, una sección neurofisiología —que me interesa especialmente, porque es en la que yo actúo personalmente—, una sección patología, y aquí creo imprescindible recordar que aunque la medicina ha andado mucho, rige todavía un concepto que regía también hace cien años, es decir, que la clínica tiene que estar basada en la anatomía patológica, en los hallazgos de la autopsia. La patología es importantísima y juega un papel definitorio en muchos aspectos. C.N.: La autopsia ocupa también una posición peculiar en el Instituto, ¿no es así?
A.L.: Simplemente el sentido es que a todo individuo que fallece se le hace la autopsia. Porque esta es la única forma, primero, de que los médicos se den cuenta de los errores que pueden cometer, de la necesidad de ser modestos delante de los diagnósticos y no pretender más de lo que la medicina da, y, segundo, de perfeccionarse. Si no hay autopsia no hay perfección posible. Porque todo el
28
mundo queda muy contento ya que lo que dice siempre es cierto. Si el médico no tiene esa posibilidad de darse cuenta de que está equivocado, entonces se queda muy conforme con su error. C.N.: ¿Con cuántas camas cuenta el Instituto? ¿Y con cuántos médicos?
A. L,: Hay alrededor de cien camas. En cuanto a los médicos, el problema es distinto; la asistencia se encara en base al sistema de residentes, y, si bien en la actualidad hay muchos hospitales del país donde se aplica este sistema, al principio era casi el único, si bien no fue el primero. Los médicos residentes, que son, naturalmente, full-time, y de los cuales ingresan seis cada año, duran tres años en sus funciones, y junto con su jefe de residentes tienen a su cargo toda la atención médica de los pacientes. Existen los jefes de sala y los consultores, que son especialistas dentro de la medicina interna. Pero lo que hay que recalcar es que no existe ese médico llamado "médico de sala", que tiene algunos enfermos a su cargo, etcétera; no, eso no existe. El especialista es un clínico general que sabe algo más en determinada rama de la medicina interna. Quien ejecuta las cosas, quien está todo el día con el enfermo, es el residente. La atención, en esta forma es, naturalmente, continuada. El consultor tiene todos los enfermos que quiere para examinarlos, para mantener su preparación, y participa en las consultas para las cuales es requerido, pero no es el médico que viene sólo por tres horas. El consultor da su opinión, pero quien va a seguir ejecutando sus indicaciones, etc., es un médico residente que está todo el día. C. IV.; ¿Entonces son dieciocho los residentes?
A. L.: No, un poco menos, porque es un sistema piramidal; en realidad eran seis, dos y dos, pero hace dos años la Secretaría de Salud Pública nos dio la posibilidad de que sean seis, cinco y cinco, es decir seis del primer año, cinco del segundo y cinco del tercero; el primer sistema (seis, dos y dos), era excesivamente piramidal, porque excelentes residentes tenían que salir del Instituto. Y era un error muy grande, ya que la Facultad exige, para otorgar el título de especialista en medicina interna, que se hayan hecho tres años de residencia. Siendo éste un Instituto de la Facultad, resulta que un residente tenía que irse porque no había más lugar. Con los nuevos cargos de residentes creados por Salud Pública, tres y tres, la situación es más aceptable. C. N.: Y los especialistas, ¿cuántos son?
A. L.: Alrededor de veinte. Claro, la mayor parte son especialistas part-time, que trabajan dieciocho horas, dieciocho horas reales, porque aquí todo el mundo, inclusive yo, firmamos la entrada y la salida. Y hay también algo muy importante, casi diría fundamental: el hecho de la existencia de la carrera de investigador del Consejo de Investigaciones. Por ejemplo, tenemos un grupo de diez personas que trabajan full-time, y cuatro o cinco becarios, que también trabajan full-time; todo esto sin contar los residentes que no hacen investigación sino asistencia. De todas estas personas que hacen investigación full-time, sólo cuatro son pagadas totalmente por la Universidad; todas las demás son miembros de la carrera de investigador. Es decir, la Universidad paga un puesto de dieciocho
m
horas, y el resto lo paga el Consejo de Investigaciones. Esto hay que recalcarlo porque es una cuestión muy importante: no sería posible que el Instituto de Investigaciones Médicas fuera lo que es sino por la carrera de investigador. C.N.:
siglo
veintiuno editores sa
¿Qué son los "ateneos"?
A. L.: Se hacen ateneos, tres por semana: un ateneo quirúrgico, donde se discuten los casos que van a ser operados; un ateneo clínico, donde se discuten los enfermos que presentan problemas, y un ateneo anatomopatológico, donde se discuten los resultados de las autopsias con presencia de los clínicos que han atendido al enfermo y el resto del staff. Es importante el hecho de que los clínicos ignoran completamente el resultado de la autopsia hasta que se hace el ateneo; el clínico presenta su caso, sin saber qué van a decir los patólogos. C. N.: ¿Y en este ateneo participan los residentes?
A. L.: Participa todo el mundo, y se discute qué es lo que ha pasado con el enfermo, y asisten los alumnos de la unidad. Y esto sirve para quitarle al alumno la idea de que la enseñanza es una especie de recepción pasiva, lo que se dice en inglés "spoon-feeding", o sea darle la comida en la boca. Los alumnos tienen que sacar las conclusiones y ver los errores que indefectiblemente se cometen. C. IV.: Si bien el Instituto de Investigaciones Médicas es conocido como un centro de excelencia en clínica médica, se lo asocia con el riñon artificial. ¿Por qué este énfasis es la nefrología clínica y experimental?
A. L.: Lo que sucede es que el Instituto fue el primer lugar donde hubo un riñon artificial gratuito, aunque "gratuito" hay que decirle "cum grano salis". Existía un riñon artificial cuando se compró el del Instituto, que estaba en el Instituto del Diagnóstico, así que el segundo, que fue el primero qué tuvo una aplicación gratuita, fue éste. Pero digo gratuito en cierto sentido: es gratuito, por ejemplo, para todos los enfermos que vienen con una insuficiencia renal aguda y que no pueden pagar los gastos que ocasiona su aplicación. El énfasis en la investigación nefrológica ha sido puramente circunstancial; simplemente fue el hecho de que al tener un riñon artificial, vinieron muchísimos enfermos que lo necesitaban, enfermos renales, con insuficiencia renal, aguda y crónica. Entonces, lógicamente, la investigación se hace de acuerdo a las necesidades que surgen: se puede planificar, en cierto sentido, la investigación, pero si las necesidades requieren que uno cambie los planes, se cambian. Con respecto al riñon, quisiera decir lo siguiente. El riñon artifical cuesta bastante. La Universidad provee técnicos, médicos, etcétera; inclusive el gasto del celofán que requiere el aparato para funcionar. Esto representa para la Universidad una erogación de unos cuatro a cinco millones de pesos por año. Los enfermos que llegan con una insuficiencia renal aguda son de varios tipos. Y es importante recalcarlo: en nuestro país, la principal causa de la insuficiencia renal aguda es el aborto séptico; es semejante a lo que ocurre en Francia y a lo que ocurre en Chile, por ejemplo; en otros países es distinto (países
SUCURSAL PAí*A
ARQKNTmA
INDEPENDENCIA 820 T. E . 2 7 - 8 6 4 0 BUENOS
AIRES
NOVEDADES Foucaulf, M. Foucault, M. Kaliler, E.
E L N A C I M I E N T O DE I A C U N I C A
L A D E S I N T E G R A C I O N DE L A E N LAS A R T E S
labastida, J. Rossi, A. Baran, P, A., y Sweezy, P. M. Fromm, E.; Marcu5", H.; Gorz, A; Horowitl, I. L., y Floras Oleo, V. Pardillas, F. Marfner, G. Kuntiman, J. Malmberg, B.
15/10 FORMA 11,25
P R O D U C C I O N , CIENCIA Y S O C I E D A D : DE D E S C A R T E S A MARX
8,55
LENGUAJE
Y SIGNIFICADO
7,25
EL CAPITAL MONOPOLISTA
9/5
LA
SOCIEDAD
INDUSTRIAL
CONTEMPORANEA
8,00
METODOLOGIA Y TECNICAS DE INVESTIGACION EN C I E N C I A S SOCIALES
10,00
PLANIFICACION Y POR PROGRAMAS
38,00
PRESUPUESTO
¿ A D O N D E VA LA M A T E M A T I C A ? L O S N U E V O S CAMINOS LA
Tribunal Russe!
W.
Ondarza, R. V. Parin, V. V., y Bayeski, R. M. Tinbergen, N. Trajtenbrot, B. A. t.
DE
13,00
ESTOCOLMO 13,00
ROSKILDE
PSIQUIATRIA LA
MEDICINA
ATOMO Y
39,60
ANIMAL CONTEMPORANEA
7,20
ORGANISMO
GENETICA
ELEMENTAL
10,15
BIOLOGIA
MODERNA
20,95
I N T R O D U C C I O N A LA C I B E R N E T I C A Y A LA C O M P U T A C I O N M E D I C A S
25,60
EL E S T U D I O DEL I N S T I N T O
16,60
INTRODUCCION
A LA
TEORIA
M A T E M A T I C A DE LAS C O M P U T A D O R A S 6,50 Y D E LA P R O G R A M A C I O N
Varios autoras
EL C O N C E P T O DE I N F O R M A C I O N LA CIENCIA CONTEMPORANEA
Frankef, E. Iwaff, A. Whiiraw, E. Wiener, N.
D N A , EL PROCESO DE LA
tange, O.
I N T R O D U C C I O N A LA E C O N O M I A
VIDA
E 1 N S T E I N , E t HOMBRE Y S U
OBRA
D I O S Y G O L E M , S. A.
BIOLOGIA Y
EN 15,25 2,20
1,60
E L O R D E N BIOLOGICO
2,80
1,60 11,40
CIBERNETICA
Piaget, J.
7,90
DE
LINGÜISTICA
SESIONES Y
Brion, A., y Ey, H. Djian, J. Elsasser, W. M. George,
$ 10.50
L A S P A L A B R A S Y LAS C O S A S
CONOCIMIENTO
14,56
29
mm f - »** " * ' , AV > i j
Alteraciones vasculares en injertos de riñon
^ÁA - ^
nórdicos y EE.UU), en los cuales la'principal causa son las complicaciones quirúrgicas. En nuestro caso, el aborto séptico constituye un 35 por ciento de las insuficiencias renales agudas, es decir, es la principal causa. Y es una causa que antes de aplicarse el riñon artificial, producía un ochenta por ciento de mortalidad. La segunda causa, en orden de importancia, es la transfusión incompatible, que es una causa vergonzosa, desde el punto de vista médico, porque la transfusión incompatible es siempre un error técnico, salvo rarísimas excepciones. Sin embargo, hay una cosa que hay que decir porque es muy favorable: en los últimos tres años ha disminuido netamente la incidencia de los casos de transfusión incompatible. Hasta el 65/66, iban muy parejos, no se sabía quién ganaba, si las transfusiones incompatibles o los abortos. Ahora la insuficiencia renal por aborto séptico priva netamente, no por aumento de los abortos, sino por disminución de los casos de transfusión incompatible. C, N.; ¿Qué porcentaje de enfermos de riñon tiene el Instituto?
A. L,: Se puede decir, un veinticinco por ciento de los enfermos que entran. Con respecto al 35 por ciento de los enfermos de insuficiencia renal debida al aborto séptico, lo interesante es que ahora el 85 por ciento se salva, después de un tratamiento adecuado con el riñon artificial. Y se salva definitivamente, es decir, que no queda con lesión renal; es generalmente gente joven, que puede restituirse a la sociedad en perfectas condiciones o para tener más abortos, como pasa a veces, que vienen de nuevo por si acaso se complica el aborto. C.N.: ¿Cuál ha sido la experiencia del Instituto en trasplantes de riñón?
Glomerulonefritis proliferatha
30
A. LEsta es una experiencia que empecé con el Dr. Molins en el año 48, primero haciendo injertos de aorta, y luego haciendo injertos de riñón y de pulmón, esto ya por 1950. No teníamos mayores conocimientos inmunológicos, y suponíamos al principio que los fracasos tenían que ver con la técnica; entonces hicimos muchísimos experimentos hasta que dominamos la técnica, para darnos cuenta que la técnica era una parte del problema, la parte más fácil de resolver. Lo principal, y más difícil, es el problema inmunológico. De todas maneras ya en el año 53 publiqué varios trabajos, con el Dr. Molins y e í Dr. Croxatto, en revistas argentinas y extranjeras, sobre injertos de riñón y de pulmón. Luego me fui a Estados Unidos, y a la vuelta, cuando me hice cargo de la Tercera Cátedra, hicimos un injerto, con el Dr. Molins y el Dr. Ruiz Guiñazú, partiendo del supuesto de que si injertábamos un riñón de un recién nacido muerto, por ejemplo, a lo mejor producía menos intolerancia inmunológica, pero el trasplante fracasó. En el 60-61, cuando aparecieron algunos resultados más favorables, con métodos de supresión inmunológica, retomamos el problema. ¿Cuál es el estado actual de los trasplantes en el Instituto? Actualmente tenemos seis enfermos, vivos, algunos de ellos con más de cuatro años desde la operación, viviendo y trabajando, en buenas condiciones. Al principio tuvimos una mortalidad muy elevada, sumamente elevada, porque no nos animábamos a realizar el. injerto hasta que el receptor estaba semimuerto. Claro, así las cosas no podían tener éxito pues es imprescindible que el individuo con insuficiencia renal crónica esté en buenas
rendiciones para resistir la operación. Con las diálisis crómicas se consiguieron enfermos que estaban en condicioles apropiadas para injertarse, con lo que la mortalidad disminuyó grandemente. Ahora el injerto de riñon técni:amente no es mayor problema, el problema es el problema inmunológico. Ahora bien, ¿cuáles son las dificultades nuestras, en el país? La dificultad mayor es la legislación; no se puede sacar ningún órgano a una persona muerta por accidente, o que se ha suicidado, hasta que no se haga la autopsia judicial. Hasta ese momento no se la puede tocar. Entonces uno no puede usar, por ejemplo, individuos que se mueren por ejemplo en un accidente automovilístico, o sea individuos que tienen los ríñones en perfectas condiciones. En el caso del riñon no hay ningún problema ético puesto que el riñon, si se lo extrae durante la primer hora posterior a la muerte y se lo enfría, clura dos o tres horas más; no se puede comparar con el problema del corazón. Sin embargo, en nuestro país, por inercia o incapacidad de comprender, no se puede usar ese tipo de dador. Respecto a los dadores voluntarios, hay muchos menos ofrecimientos familiares que en otros países. De los seis enfermos que cité que viven, cuatro son con dador vivo, y el resto de cadáver. Evidentemente, desde el punto de vista de la compatibilidad inmunológica, el dador-familiar es mejor que el dador muerto, porque los miembros de la familia están mucho más relacionados genéticamente con el enfermo. Pero lo más importante no son los dadores vivos, pues éstos siempre serán un grupo pequeño. El problema futuro hay que considerarlo con dadores muertos y hay que esperar un cambio en la legislación y en el espíritu de los familiares. Por otra parte hay que recordar que cuando uno habla de riñon cadavérico como donante hay que eliminar a todos los enfermos que mueren de causas renales, infecciones generalizadas o cáncer. Respecto a esto último hemos tenido ya la mala experiencia del desarrollo de un cáncer en el riñon injertado porque el dador era canceroso. C. IV.: ¿Esta experiencia de trasplante renal puecle considerarse positiva y alentadora, en el país, a diferencia del caso de los trasplantes cardíacos?
A. L.: No, no es así. El trasplante cardíaco ofrece problemas en cualquier parte. El trasplante de riñon no es una aventura; en este momento es un procedimiento establecido. En los lugares donde se puede elegir mejor a los dadores, porque hay muchos dadores disponibles, se elije, por métodos de histocompatibilidad, cuales son los mejores, y entonces las chances son de un 60-70 por ciento de sobrevida al año. En esos casos el injerto de riñon, hecho en condiciones apropiadas, tiene mejor pronóstico que la mejor cirugía cancerosa. Hay que pensar así que para un individuo que está con insuficiencia renal crónica, que se va a morir en menos de un mes (eso se puede predecir bien en el caso del riñon, al revés del corazón en que el individuo puede mejorar espontáneamente) el injerto renal no es más un experimento terapéutico, sino que es una cirugía con bastantes posibilidades. C. N.; Volviendo al sistema de los ateneos, Ud. decía que había uno en el cual se discutían los casos a operar. Es decir que la decisión de operar no la toma sólo el cirujano la toman también los clínicos.
A. L.: Sí, en última instancia, la decisión la tengo que tomar yo, aunque esa decisión tengo que tomarla oyendo
P E D R E G A L Y PERAL, ing. civiles florida 835
of. 321
te. 31 - 7 8 3 5
CADICOM 835 pedregal y peral realizan con su programa CADICOM 835 en una computadora electrónica IBM 1130 el cálculo de estructuras de hormigón armado según el siguiente esquema del proceso de cálculo proyecto numeración de elementos pasaje de datos a lenguaje de máquina > perfoverificación listado control —
1
entrada en computadora verificación consistencia de datos corrección de consistencia procesamiento del algoritmo de cálculo
i cálculo estático,
losas dimensionado, igualación, armaduras impresión de resultados • cómputo • superficie volumen acero por diámetros
y por
vigas dimensionado, cálculo estático, determinación de cargas actuantes <igualación por requerimientos arquitectónicos o de cálculo de armaduras impresión de resultados • cómputo volumen por nivel acero par diámetros y por nivel archivo de datos en disco
i
igualaciones,
i
columnas armaduras
impresión de resultados
4
•
cómputo volumen acero por diámetros y por nivel encofrado, superficie por pisos
I
bases cálculo aproximado volumen y acero • •
l
cómputos finales • volumen de hormigón, acero, totales por diámetro relaciones, características, cuantías, espesor medio, etc.
Proyecto y cálculo de estructuras resistentes Hormigón armado, hormigón pretensado, puentes, obras civiles
32
C. 2V.: Volviendo de nuevo atrás, Ud. dijo que cada residente tiene a su cargo unos diez pacientes, que además existen especialistas, y que existen médicos consultores. La responsabilidad por la marcha del paciente, sobre las medicaciones, etcétera, ¿recae sobre el médico residente? A. L.: No. El residente es el ejecutor. Hay distintos escalones. El jefe de sala es el responsable de cada sala, y actúa de consuno con los especialistas, que opinan sobre cada enfermo, según la especialidad que corresponda, y esta opinión queda escrita en la historia clínica del enfermo. El jefe de sala también opina, y generalmente opinan lo mismo; en caso de discrepancias yo tengo que intervenir, porque tiene que haber una tercera instancia, y por el hecho de ser el Director del Instituto tengo que ser yo, no porque sepa más del problema, porque muchas veces sé mucho menos que el especialista, sino porque en el caso de discrepancia tiene que haber una tercera persona. El residente actúa en todo lo inmediato; aumentar o disminuir la medicación, de acuerdo a la evolución del enfermo; actualmente las medicaciones son muy activas, aunque el residente sigue de cerca la evolución del paciente y aumenta o disminuye la dosis, pero en cuanto a la prescripción de la medicación, bueno, hay distintos escalones: primero el Jefe de Residentes, después el Jefe de Sala, después los consultores clínicos.
nivel
archivo de datos en disco —
dimensionado,
a todas las partes; esto es más formal que otra cosa, porque en la práctica la decisión es tomada en conjunto por el cirujano, el clínico y el especialista, Claro que finalmente tiene que haber una persona que diga que se opera, así que después que se oyen todas las opiniones yo tomo la decisión, la cual es la de todos, porque generalmente todos opinan lo mismo, salvo rarísimas excepciones,
C. N.: ¿Ud. considera ideal que todo hospital sea u n centro de investigación clínica?
A. L.: Así debe serlo, pero deben cumplirse ciertos requisitos. Hay que recordar un hecho real: que se puede ser un excelente médico sin hacer investigación clínica; una cosa no tiene nada que ver con la otra. Hay médicos excelentísimos en nuestro país, que no han hecho nunca investigación clínica. Pero yo me estoy refiriendo a la conveniencia de la investigación clínica porque ella abre campos insospechados para mucha gente que tiene curiosidad científica. Además, el que hace investigación es mucho más modesto, menos autoritario, que el que no la hace, y esto es muy importante para los residentes y para la docencia. La autopsia entra también en este mecanismo. Volviendo a los problemas renales, otra cosa importante que quería decir es con respecto a la diálisis crónica. La diálisis crónica es un problema importantísimo, aunque su importancia social es reducida con respecto al número pequeño de gente al cual se puede aplicar. Pero individualmente es extraordinariamente importante. Se puede calcular que en el país hay entre tres mil y cuatro mil personas que sufren de insuficiencia renal crónica, y esta enfermedad tiene una evolución necesariamente mortal en un plazo más o menos largo, generalmente menor de un año cuando hay retención ureica. Esos enfermos, tratados con diálisis crónica pueden vivir indefinidamente; lo de indefinidamente es relativo, primero porque son enfermos graves, muchos hipertensos, y porque nadie
puede vivir indefinidamente; digamos que pueden vivir C. 2V.: Una última pregunta, doctor Lanari, ¿Qué es la mucho tiempo, y hay enfermos en los Estados Unidos Unidad Modelo? que llevan ya ocho o nueve años dializados, es decir, viviendo gracias a la diálisis, porque sus ríñones no tienen A. L.: Esto es una empresa muy nueva, tiene apenas dos la capacidad de eliminación. Sin embargo, eso no se pue- meses de vida; es un embrión aún. En realidad, fue una de hacer en nuestro país sino en forma limitada porque sugerencia del Dr. Santas la que motivó este proyecto. es muy caro. Como dijimos antes, tenemos un aporte de Se trata de ver si se puede llevar a cabo algo que se conla Universidad de unos cuatro millones por año, además siguió con las llamadas Unidades hospitalarias, es decir, ;: la Secretaría de Salud Pública de la Nación, la Municipa- la descentralización de la enseñanza para evitar la masilidad de la Ciudad de Buenos Aires, la cooperadora del ficación de la enseñanza. En las unidades hospitalarias, la Instituto, algunas fundaciones, como por ejemplo CAER, cantidad de alumnos por unidad disminuye aunque el que es una sociedad de ayuda al enfermo urémico, dan total de alumnos sea el mismo. Anteriormente, en las subsidios. Hay que considerar que se gasta, en total, con- cátedras oficiales de clínica médica teníamos 600 alumtando lo que aportan los enfermos, alrededor de unos nos, ahora tenemos cincuenta o sesenta en 5° y 6° años. En quince millones de pesos (moneda nacional) al año. La las materias básicas el problema es similar. El proyecto Universidad aporta en sueldos, etc., alrededor de cuatro, de la "Experiencia Pedagógica Curricular", que así se delos enfermos y la cooperadora contribuyen con alrededor nomina, consiste en enseñar, mejor dicho aprender, las de seis, los subsidios que mencioné serían de unos cin- materias básicas en grupos pequeños, con una enseñanza co millones más; digo que los enfermos ponen seis mi- más directa. Es posible o probable que los docentes no llones, porque aunque el tratamiento de diálisis en la sean de la calidad de los que existen en la Facultad, pero insuficiencia renal aguda no se cobra si el enfermo no es preferible un docente que no sea tan bueno pero que tiene dinero, en el enfermo crónico, que nunca más va enseñe de cerca, a un docente muy bueno pero que tenga a poder dejar de dializarse, el problema es muy distinto. un gran número de alumnos y enseñe a distancia. Este El agudo, en un mes, se cura; tres, cuatro o cinco diálisis proyecto es posible realizarlo en el Instituto de Investiy se terminó. El crónico, una vez que entra al tratamiento gaciones Médicas, porque había ya diez o doce personas que trabajaban full-time en las materias básicas y en inya no sale mientras viva, y puede vivir muchos años. vestigación clínica, y ellos serán los futuros docentes de la unidad piloto o modelo. Ella vendría a ser, en cierto C. IV.: ¿Y con qué periodicidad tiene que hacerlo? sentido, una pequeña facultad de medicina dependiente de la Facultad madre. No es un "invento" de nuestro A. L.: En los que están mejor, una vez por semana, y los país porque en Londres se hace lo mismo y ahora también que están peor dos veces por semana. Es decir, se requiere en Francia. El inconveniente en el momento actual es que una erogación de ochenta mil pesos por mes, en el mejor no hay, en la mayoría de los hospitales, la infraestructura de los casos, solamente de gastos de diálisis. Nosotros tenemos enfermos que cuestan, como uno que falleció de investigación y de laboratorios que existe en el Instirecientemente, un millón y medio de pesos. Es decir, tuto y que permite este proyecto. Si da buenos resultadesde el punto de vista social, no vale la pena gastar un dos, creo que va a ser un acicate para que poco a poco se millón y medio para mantener a una persona viva por haga en otros hospitales. dos años, por ejemplo; más útil sería gastar esa suma en tratar las diarreas infantiles, etc. Evidentemente, esto es así, desde el punto de vista del rendimiento del dinero. Este problema tampoco se ha resuelto en los Estados Unidos ni se puede resolver fácilmente, porque el número de casos dializados es siempre muy pequeño comparado con el número total de enfermos que necesita la aplicación del riñón artificial. Nosotros tenemos en el Instituto siete u ocho enfermos con diálisis crónicas permanentes, de los cuales la mitad contribuye porque es gente que puede hacerlo, y los otros están mantenidos por los subsidios que sobre todo se destinan a la insuficiencia renal aguda. C. N.¡ ¿Cuáles son los temas principales de investigación en los que se trabaja en el Instituto?
A. L.: Desde el punto de vista de su aplicación o de la importancia práctica tendría que mencionar el estudio del mecanismo del rechazo de los injertos y el de la inmunología de la enfermedad de Chagas. De interés científico hay muchos, tal vez más transcendentes que los que mencioné. Lo importante es que en el Instituto han publicado artículos en revistas de la mayor importancia mundial. Esto da una idea de la significación de los trabajos, porque el Instituto publica un número apreciable de artículos en revistas internacionales donde los artículos son seleccionados. Esto es, cuantitativamente, la mejor evaluación de la labor.
C.N.:
¿Es la única unidad modelo que existe?
A. L.: Es la única que en el momento actual podría hacerse, repito, por el hecho de tener un gran número de gente haciendo investigación, básica y clínica.
Que es la Teoría de la Información Iiiff. Sinfrie!o Lichtenthal o o El Ing, Sigfrido Lichtenthal fue director del Seminario de Cibernética de la Sociedad Científica Argentina. Actualmente es miembro de la Society for General Systems Research, de los Estados Unidos, y gerente de Análisis y Planeamiento de Mercado para América Latina de la IBM World' Trade Corp.
Introducción Uno de los principales atributos que diferencian al hombre de los irracionales es la gran diversidad de mensajes que aquél es capaz de comunicar a sus semejantes. El lenguaje articulado y, en una etapa posterior de su evolución, la escritura, le confieren el don de formular abstracciones y de dar cuenta y tomar conocimiento de sucesos y experiencias ocurridos en otro lugar y momento. Sería impensable la idea de Sociedad sin la posibilidad de los individuos de establecer contacto entre sí. No puede concebirse organización ni acción coordinada alguna sin la existencia de medios de comunicación. El progreso tecnológico nos ha dado muchos medios para comunicarnos cada vez mejor y a distancias cada vez mayores: telégrafo, teleimpresor, teléfono, radiotelefonía, facsímil, televisión, etc. Pero también nos comunicamos a través del tiempo, mediante mensajes conservados bajo la forma de palabra manuscrita o impresa, discos fonográficos, fotografías, películas cinematográficas, grabaciones magnéticas, etc. Es ésta otra de las cualidades que diferencian al hombre de las demás especies; éstas sólo cuentan con los instintos, su propia experiencia y la enseñanza directa de sus contemporáneos. El hombre, en cambio, es capaz de aprovechar, además de la suya propia, las experiencias adqui-
34
ridas a través de muchas generaciones y por innumerables individuos. Reúne así conocimientos que jamás podría coleccionar en el transcurso de su propia vida. Sin esta cualidad acumulativa que los medios de comunicación confieren a la experiencia, todo avance cultural y tecnológico sería imposible. De todo ello se desprende la enorme importancia de las comunicaciones y, en consecuencia, la necesidad de estudiar a fondo el proceso comunicatorio, a fin de poder utilizar los medios disponibles y crear nuevos medios de comunicación en forma racional y sistemática, adecuados a las crecientes exigencias de la sociedad. Por eso, paralelamente al auge de los dispositivos destinados a transmitir, manipular y almacenar informaciones, se desarrolló una teoría matemática que refleja la unidad conceptual de estos procesos. Esta teoría, conocida con el nombre de "Teoría de las comunicaciones" o, en su forma más generalizada, "Teoría de la información", establece medidas cuantitativas de la información en sí y de la capacidad de los sistemas destinados a transmitir, almacenar o procesar informaciones. Algunos de los problemas tratados son: a) Cómo utilizar con un máximo de eficiencia los medios disponibles; b) Cómo separar las señales de las interferencias o "ruidos";
c) Hallar los límites máximos de lo que es posible lograr con un sistema de comunicación de características dadas. Aunque los resultados obtenidos interesan principalmente al ingeniero en comunicaciones, muchos de sus conceptos y conclusiones han prestado valiosos aportes a otras disciplinas, tales como la psicología, lingüística, neurofisiología, sociología; etc. Por otra parte se aplican también a las computadoras, que no son otra cosa que complejas máquinas para el procesamiento y manipulación de información. La teoría de la información se basa en los trabajos del matemático Norbert Wiener —padre de la Cibernética— y de Claucíe Shannon, investigador de los laboratorios Bell.. Si bien está siendo continuamente ampliada y complementada con las contribuciones de destacados matemáticos, sus conceptos básicos permanecen invariables, y son estas nociones fundamentales las que nos proponemos tratar en lo que sigue,
Comunicación de ideas Supongamos que una persona X, desee comunicarse con otra Y, y que dispone para ello de los siguientes elementos: una- fuente de energía (batería)., interruptor, conductores eléctricos y; en el otro extremo de la línea, una lámpara que emite luz mientras X mantenga cerrado el interruptor.
La idea formada en la mente de X y que éste quiere hacer llegar a Y, primeramente debe ser formulada mediante frases convenientemente seleccionadas. Estas son sucesiones de palabras, que a su vez están constituidas por letras del abecedario. Hasta aquí todo es aún abstracto. Pero para poder utilizar un medio físico como lo es el sistema descripto, para transportar el mensaje, es menester que éste tome una forma tangible, concreta. Sabemos que, por ejemplo, el Código Morse nos brinda esta posibilidad, pues establece para cada letra una combinación de rayas y puntos, susceptibles de ser transmitidos en forma de impulsos de mayor o menor duración, separados por intervalos. Para que el mensaje "llegue" a Y, y suponiendo que X realice correctamente las manipulaciones de su interruptor, deben satisfacerse una serie de condiciones: a) El sistema debe funcionar correctamente, es decir, Y debe percibir la luz cuando y solamente cuando X cierra el interruptor; b) Y debe conocer el código empleado por X, o sea, tener en la memoria las combinaciones correspondientes a las 27 letras del abecedario, cifras y signos de puntuación, en total, unos 50 grupos. Podrá anotar las letras a medida que van llegando, formando las palabras y frases del mensaje original; c) Y debe dominar el idioma en que X está transmitiendo, es decir, conocer el significado de cada palabra y sus relaciones sintácticas; d) Y debe comprender la intención de X, para poder. contestar o actuar correspondientemente. De manera que el mensaje tiene que atravesar cuatro etapas: a) representa los aspectos físicos del proceso comunicatorio; b ) las características formales; c) el nivel semántico y d) el nivel que podríamos llamar cognoscitivo o pragmático. Desde luego, una gradación similar puede aplicarse al caso de una comunicación escrita, verbal, etc. Ahora bien: la Teoría de la Información se limita aLpunto b ) , es decir que da por sentadas las propiedades físicas del sistema y no toma
en cuenta el significado de lo que se transmita, sino exclusivamente los problemas de la codificación y la composición estadística de los mensajes.
El concepto de "canal" Por supuesto el mecanismo descripto es solo un ejemplo elemental. Desde tiempo inmemorial se vienen empleando los más diversos métodos para comunicar mensajes: desde los gruñidos del hombre de las cavernas al lenguaje articulado; de los tambores de la jungla africana y las señales de humo de los indios norteamericanos, al semáforo, las señales de tránsito, la sirena de alarma, los banderines de "mar bueno", "dudoso" y "peligroso" de nuestras playas veraniegas, y aun la flor blanca en el ojal de las citas "a ciegas" . . . Podríamos citar miles de ejemplos por el estilo. Todos estos medios de comunicación tienen ciertas características en común, que son precisamente las que constituyen el objeto de estudio de la Teoría de la Información. Veamos cuáles son: a) Primeramente, ambos participantes, transmisor y receptor, se ponen de acuerdo sobre determinado repertorio de mensajes a transmitirse, que pueden ser las letras del abecedario, o bien palabras, frases y aun ideas completas. Los llamaremos, en general símbolos. Este repertorio "prefabricado", que se denominará alfabeto de símbolos, deberá estar presente en ambos extremos de la vía de comunicación antes de poder iniciarse la transmisión. b) Se necesita luego un sistema físico de comunicación, que debe poseer dos o más estados o condiciones, que estarán bajo el control del transmisor y serán observables y discriminables por el receptor. A un sistema de esta índole lo llamaremos canal. Los estados sucesivos del canal reciben el nombre de señales. c) Finalmente, ambos participantes deben ponerse de acuerdo sobre la forma de hacer corresponder a cada símbolo del alfabeto una señal o combinación distinta de señales. Esta correspondencia biunívoca en-
tre símbolos y señales se llama código. Los puntos a) y c) hacen surgir el siguiente interrogante: si los participantes en la comunicación deben ponerse de acuerdo previamente sobre el alfabeto y código a utilizarse, ello implica que debió existir alguna comunicación anterior, ya sea directa o indirecta (por ejemplo, el haber aprendido el mismo idioma). Esta consideración nos lleva al aparente absurdo de que nunca p u d o existir una "primera comunicación". El dilucidar esta cuestión nos conduciría directamente a una polémica filosófica en torno a la Teoría del Conocimiento, pero como hemos dicho, tal problema no concierne a la Teoría de la Información, si bien actualmente se realizan muchas tentativas para extender sus nociones al terreno semántico y aun al pragmático. La condición de que un canal debe poseer como mínimo dos estados, enunciada en b), es fácilmente comprensible. En nuestro ejemplo, X cuenta con dos posibilidades: interruptor cerrado o abierto, y esta circunstancia le permite transmitir mensajes en código. Si solamente existiese una condición, por ejemplo interruptor cerrado, evidentemente no podría transmitirse nada. Las señales de tránsito no tendrían objeto si hubiera una sola luz y ésta estuviese siempre encendida; y la "flor blanca en el ojal" no identificaría a nadie en particular si todo el mundo usase este adorno. Dadas las condiciones de a ) , b) y c) estipuladas, el proceso comunicatorio se realiza de la siguiente manera: el transmisor selecciona, sucesivamente, ciertos símbolos del alfabeto que tiene a su disposición y los transforma por medio d e l código convenido en una serie d e señales, que transmite a través del canal. En el otro extremo de éste, el receptor sigue un proceso inverso: las señales que llegan son descifradas, seleccionándose del alfabeto los símbolos correspondientes, para reconstituir el mensaje original. En otras palabras: Las señales no transportan el mensaje propiamente dicho, sino las instrucciones necesarias para seleccionar determinados símbolos de entre un conjunto limitado ya existente en el extremo receptor del canal. La fig. 1 muestra, en f o r m a esquemática, el proceso descrito.
35
Liodmcacion Supongamos que, en un sistema dado, el alfabeto comprenda cuatro símbolos: A, B, C y D y que el canal posea dos estados posibles (señales): 0 y 1. Cada señal representa una elección entre dos posibilidades: 0 ó 1. Con dos señales consecutivas, pueden formase 22 = 4 combinaciones diferentes: 0 0 - 0 1 - 1 0 - 1 1 , así que ya contamos con una por cada símbolo de nuestro alfabeto, por ejemplo: A = 00 B = 0 1 C = 10 D = l l Este código nos permite entonces utilizar el canal disponible para transmitir CUALQUIER sucesión de símbolos, utilizando dos señales para cada uno de ellos. Veamos ahora, en detalle, cómo se desarrolla el proceso de la comunicación: El transmisor (X) transmite una serie de símbolos, valiéndose del código convenido. Supongamos que el receptor (Y) no tiene el menor conocimiento previo sobre lo que le comunicará (X), o sea que en un instante cualquiera ignora por completo cuál será el próximo símbolo de la serie. Lo único que sabe es que será uno de los cuatro que figuran en el alfabeto prefabricado. Podemos expresar esta situación diciendo que Y se encuentra en INCERTIDUMBRE entre cuatro posibilidades. Supongamos ahora que X quiera transmitir el símbolo C para lo cual, de acuerdo con el código, deberá generar sucesivamente las señales 1-0. Cuando Y recibe el primer " 1 " se entera de que el símbolo de que se trata no puede ser ni A ni B, ya que éstos comienzan con "0". Por consiguiente, gracias a la primera señal recibida, la incertidumbre de Y se ha reducido a 2 o sea, a la mitad. La segunda señal, "0", indica que el símbolo puede ser solamente C. Ha desaparecido totalmente la incertidumbre al reducirse ésta nuevamente a la mitad y quedar una única posibilidad. Podemos decir también que cada señal imparte a Y una instrucción para seleccionar, al darle respuestas "sí" (1) o "no" (0) a preguntas tales cómo: ¿Será C o D?, y luego: ¿Será la D? El proceso de estrechamiento de la incertidumbre queda representado en el diagrama "árbol" de la Figura
:Í6
•alfabeto
A L F A B E T O DE SIMBOLOS A
A
B
-0
C
i 1 i i ¡•O— i
CODIFICACION
X
de
51M SOLOS
S PARA s e l e c c i o n a r ) SEL.I
(INSTRUCCIONES (INSTR
c I I -—t>l I X
Y
Y
2
7
ESPACIO
ESPACIO
TRANSMISOR
RECEPTOR
FIGURA
2, donde a cada señal le corresponde una bifurcación: cero significa seguir hasta la izquierda, uno hacia la derecha. Ya podemos ahora definir la noción de información: "INFORMACION ES AQUELLO QUE HACE DISMINUIR LA INCERTIDUMBRE DEL RECEPTOR". Es muy importante recordar esta definición, que puntualiza claramente que el contenido de información de un mensaje no es una magnitud absoluta, sino que depende de cómo su llegada modifica los conocimientos del receptor. Habiendo definido qué es lo que entendemos por Información, podemos ahora dar el paso siguiente: fijar un patrón de medida que nos permita asignar valores numéricos a la CANTIDAD DE INFORMACION.
Cómo se mide la información De acuerdo con nuestra definición, una señal lleva información si su llegada reduce la incertidumbre del receptor. Para establecer una base de comparación, se ha definido la UNIDAD DE INFORMACION como aquella que hace disminuir la incertidumbre del receptor A LA MITAD. Esta unidad recibe el nombre de "bit", palabra derivada del término inglés "binary digit" (dígito binario). Por consiguiente, en nuestro ejem-
1
plo, cada señal transporta UN BIT de información. La cantidad de información contenida en un símbolo se mide por el número de instrucciones necesarias para individualizarlo. Como hemos visto, habiendo 4 símbolos se necesitaban 2 señales BINARIAS, de manera que cada símbolo de un alfabeto de cuatro equivale a DOS BITS de información. Obsérvese que con una señal más, podría lograrse una bifurcación adicional, dando 8 combinaciones para 3 bits. En general, con H señales binarias se pueden formar 2 n = N combinaciones diferentes. Inversamente para codificar un alfabeto de N símbolos, se necesitarán, para cada símbolo, H = loga N (bits)* (1) Si calculamos, por ejemplo, la cantidad de información contenida en cada letra del abecedario castellano de 27 letras, resulta: H = loga27 = 4,76 bits/letra No tiene sentido interpretar este resultado diciendo que "para codificar cada letra se requieren 4,76 señales de 1 bit cada una", ya que no es posible emitir fracción de una señal. Cuando se establece un canal de comunicación, no es por lo general para transmitir un único mensaje, sino una larga serie o CADENA de mensajes. El valor 4,76 representa él PROMEDIO correspondiente a un gran número de letras, de manera que los resultados numéricos obtenidos deben ser interpretados ESTADISTICAMENTE. En realidad, para codificar 27 le-
4
I
4
1
4
FIGURA tras con grupos de longitud uniforme, hace falta como mínimo 5 bits, ya que la potencia de 2 inmediata superior es 5. Con 5 bits es posible obtener 2B — 32 combinaciones posibles. (El código de los teleimpresores se basa en este principio.) En el caso del código Morse, todas las letras pueden representarse con no más de cuatro signos (rayas o puntos), en aparente contradicción a lo arriba enunciado. Lo que sucede es que para ese razonamiento no se ha tenido en cuenta la existencia de ESPACIOS entre letras, que hacen posible formar también grupos de 1, 2 y 3 signos sin peligro de confusión. En realidad, el código Morse, referido a un canal binario (0,1) emplea 5 signos básicos a saber: Punto: 1 Raya: 111 Espacio entre signos: 0 Espacio entre letras: 000 Espacio entre palabras: 000000 donde cada señal, 1 ó 0 tiene una duración unitaria, de modo que una raya dura tanto como tres puntos.
Probabilidad e información Hemos mencionado casi al pasar dos aspectos que deberemos examinar más a fondo antes de seguir adelante: 1) que en la Teoría de la Información no interesa tanto el mensaje individual, sino la composición estadística de un gran número de mensajes, y 2) que en lo expuesto hasta aquí, el receptor no poseía ningún conocimiento previo acerca de los mensajes a recibirse, es decir que no hay preferencia por ninguno de los símbolos que figuran en
2
el alfabeto;, ello implica que todos ellos fueron considerados como equiprobables. Supongamos que me encuentro en cierta ciudad por primera vez. El tiempo se presenta dudoso y para saber si me conviene llevar paraguas al salir, pregunto a un viejo nativo del lugar, de quien me han asegurado que sus pronósticos meteorológicos son infalibles: ¿lloverá esta tarde? Hay evidentemente, dos posibilidades; mi desconocimiento del lugar hace que cualquiera de las dos contestaciones posibles sea para mí igualmente probable. Me contesta que SI, y esta información me permite adaptar mis planes. Pero la misma respuesta, tiene significado muy diferente para un nativo de la ciudad, pues resulta que en esa época del año, casi todas las tardes caen chaparrones en esa zona. Los habitantes, merced a su EXPERIENCIA con este fenómeno, conocen perfectamente dicha circunstancia y, por las dudas, salen siempre con paraguas; por eso la afirmación "sí, lloverá", no es ninguna novedad para ellos y su valor informativo es prácticamente nulo, ya que esperaban esta respuesta. En cambio, si la contestación hubiera sido "no", se mostrarían sorprendidos, su conducta se modificaría (dejarían el paraguas en casa) y quizás la noticia hasta sería mencionada en el diario local. Con este ejemplo queremos destacar que el contenido informativo de un mensaje está íntimamente ligado a su IMPROBABILIDAD o "valor sorpresa". Al considerar una larga cadena de símbolos, pueden calcularse las frecuencias relativas de los mismos, o
sea, sus probabilidades. En el caso más general, éstas no serán todas iguales y puesto que, como hemos visto, existe una estrecha relación entre la probabilidad (o improbabilidad) de un suceso y su valor informativo, el caso de una cadena de símbolos con probabilidades desiguales ha de ser de especial interés para la teoría de la Información. A mediados del siglo pasado, Samuel Morse, al confeccionar su código telegráfico, ya tomó en cuenta el hecho de que las distintas letras del abecedario aparecen con frecuencias muy desiguales (por ejemplo, las letras A, E, T, ocurren mucho más a menudo que la Q, X o Y ) e intuía que podría economizarse mucho tiempo de transmisión asignando códigos más breves a las letras más frecuentes y dejando las combinaciones más largas para las letras menos usadas. Como Morse no disponía de los datos estadísticos necesarios, apeló al ingenioso recurso de visitar la imprenta de un periódico (la composición se efectuaba aún a mano, con tipos sueltos) y contar el número de caracteres de cada letra utilizados allí. Obtuvo así valores de frecuencia relativa muy cercanos a la realidad. Es de mencionar que, para obtener una estadística valedera sobre las frecuencias relativas de las letras en un idioma dado, es necesario contar las ocurrencias en un gran número de textos, a fin de tener una muestra representativa del idioma en su totalidad; seguramente si se hiciera ese cómputo tomando como base solamente un artículo sobre "Yerbas y Yuyos", aparecería una proporción de " Y " muy superior al promedio de esta letra en castellano.
Entropía Continuemos ahora desarrollando nuestro ejemplo, en el que contábamos con un alfabeto de 4 símbolos: A, B, C, D. Supongamos que al cabo de una larga cadena de mensajes se han obtenido los siguientes valores para las probabilidades: P a = 1/2 PB = 1 / 4 Pe = 1 / 8 PD = 1/8 Una muestra representativa de 8 símbolos contendría, entonces, cuatro A, dos B, una C y una D. La situación se presenta muy distinta a la supuesta en el capítulo
37
Codificación de este artículo, a pesar de que en ambos casos tenemos igual numero de símbolos. Allí, suponíamos que no existía para el receptor preferencia por uno u otro símbolo; en cambio ahora, si bien tampoco está en condiciones de predecir cuál será el símbolo siguiente, su EXPERIENCIA (condensad» en la distribución estadística indicada) le indica que es mucho más probable la llegada de una A que de una C o D; de manera que los diferentes símbolos poseerán valores informativos desiguales. Numéricamente, se expresa^ esta desigualdad asignando a cada símbolo un valor informativo (logarítmico) inversamente proporcional a su probabilidad: FIGURA
Hi = loga ^ i - j = — loga P¡ (bits) (2)
La codificación óptima En nuestro ejemplo, tendríamos: HA = — log2 1 / 2 = 1 bit H b = — loga 1/4 = 2 bits Ha = HD = — log 2 1/8 = 3 bits La información total contenida en la muestra representativa antes mencionada, será: H total = 4 . 1 + 2 . 2 + 1 . 3 + 1 . 3 = 14 bits, dando un promedio de 14/ 8 = 1,75 bits por símbolo. Este promedio, como veremos en seguida, es un valor sumamente importante en Teoría de la Información. Su expresión matemática generalizada es: H = — - S P , . loga Pi (bits/símbolo) (3) y recibe el nombre de Entropía (por su semejanza con la expresión de entropía termodinámica en la mecánica estadística, según Boltzmann). La entropía alcanza su valor máximo cuando todas las probabilidades son iguales: PA = PB = . . =
en cuyo caso:
Hmáx = loga N, que es el valor dado por la fórmula ( 1 ) que representa, entonces, al valor límite superior de la información por símbolo. En cambio, se hace H = 0 cuando una de las probabilidades es igual a uno, mientras que todas las demás se anulan. Ello equivaldría a repetir continuamente un mismo símbolo, por q'emplo . . , AAAAAA . ., con lo cual la información transmitida es nula: podríamos tranqui-
38
lamente interrumpir el canal e instalar en el extremo del receptor una fuente local de Aes, sin que el destinatario se percatase de la sustitución. Observemos que, en distribución equilibrada, cada uno de los símbolos de un alfabeto de cuatro, contiene dos bits de información, mientras que, utilizados en proporción desigual, sólo "rinde", en promedio, 1,75 bits por símbolo. Necesitamos 8 símbolos para transmitir una cantidad de información equivalente a tan sólo 7 símbolos. El hecho de "gastar" más símbolos que los estrictamente necesarios, recibe el nombre de redundancia, a lo que se asigna un valor numérico porcentual de acuerdo con la fórmula. — H 100 f 96) ( 4 ) ; Hmáx en nuestro ejemplo: 2 1 75 Ra
R =
H m á x
2
X 100 = 12.5 %
En la sección anterior hemos mencionado que, tratándose de un esquema de probabilidades desiguales, se utiliza un exceso de símbolos para transmitir una cantidad determinada de información. Shannon ha demostrado que es posible compensar en parte (o, en el caso ideal, totalmente) este exceso, utilizando un código adecuado, en el cual el número de bits empleados para representar los símbolos se hace, en lo posible, proporcional a la cantidad de información de cada uno de ellos.
3
Continuando con nuestro ejemplo (en el que previsoramente, hemos supuesto valores de Pi que den valores "redondos" para -Hi) vemos que, de acuerdo con el principio de Shannon, deberíamos emplear una señal para la A, dos para la B y tres para la C y D; por ejemplo: Símbolo Codif. Codif. anterior nueva A 00 0 B 01 10 C 10 110 D 11 111 La figura 3 muestra el "árbol" asimétrico correspondiente a la nueva codificación. Compáreselo con el de la figura 2. Empleando este nuevo código, los ocho símbolos de una muestra representativa ocuparían 14 señales binarias, en lugar de las 16 que resultan de la codificación primitiva. Mensaje correspondiente a una muestra representativa: A B A C B A A D Codificación primitiva: ...00/01/00/10/01/00/00/11 ... Codificación nueva: . . . 0 /10/0 /110/10/0/0/111 . . . (14 señales) En otras palabras: merced a la recodificación se logra una compresión de los mensajes, que en este caso es de un 12,5 % (equivalente a la redundancia ). Naturalmente, en la inmensa mayoría de los casos, no se tendrá la suerte de que las probabilidades sean potencias enteras de dos. La recodificación servirá entonces meramente para lograr una cierta economía en
la transmisión, sin alcanzar jamás la condición ideal. Hay que tener en atenta, además, que la recodificación trae aparejada generalmente una mayor complicación —y en consecuencia, encarecimiento— de los equipos. Obsérvese que en el ejemplo dado, con el código primitivo el receptor debe "esperar" dos señales para cada símbolo, mientras que al recodificar, para algunas de ellas necesita esperar hasta tres señales antes de conocer el símbolo de que se trata, requiriendo para ello una mayor capacidad de memoria. Por eso, siempre habrá que sopesar los factores pava llegar a un compromiso aceptable.
Predicción y redundancia Hemos visto que una distribución estadística despareja de los símbolos hace disminuir, en promedio, su valor informativo. En general, puede afirmarse que cualquier restricción impuesta a la utilización de los símbolos disponibles reduce la incertidumbre del receptor (quien, por supuesto ha de conocer dichas restricciones) y, por consiguiente, le facilita predecir correctamente los símbolos venideros. Lo que se puede predecir, no cs necesario transmitirlo. (Recuérdese el caso extremo de una cadena como . . . AA A A. . . ) . Si observamos un texto redactado en castellano corriente, veremos en seguida que existen numerosas restricciones: por ejemplo, que a una H sigue siempre una vocal (reduciendo la incertidumbre a 5 en lugar de 27) y que después de Q siempre viene una U (en cuyo caso, no hay incertidumbre alguna y podría suprimirse la U después de Q sin que se pierda información). Para determinar Ja redundancia total del lenguaje, y en consecuencia, la proporción en que podrían —teóricamente—• comprimirse los mensajes, no bastaría entonces considerar solamente la proporción estadística de letras aisladas, sino que habría que tener en cuenta, también, probabilidades de transición, computando las frecuencias relativas de grupos de 2, 3, 4 . . . letras y aun palabras o frases enteras, tarea harto larga y tediosa. Shannon empleó un ingenioso procedimiento para estimar la redundancia del idioma inglés: construyó una oración con un total de
.102 letras y espacios, que comenzaba así: "There is no reverse on a motorcycle. . . " (Una motocicleta no tiene marcha atrás. . . ) , y propuso a una persona adivinar el texto de la misma letra por letra. Los números indican la cantidad de tentativas hasta dar con la letra correcta: T H E R E IS NO 1 1 1 5 11 2 11 2 11 R E V E R SE... 15 1 17 1 1 1 2. . . Se necesitaron en total 198 intentos (dando lugar, cada uno, a la alternativa sí/no), o sea, un promedio de menos ele 2 bits por letra, en lugar de 4,76 (inclusive espacios) cs decir, una redundancia de aproximadamente 60 % . Más adelante veremos que la redundancia es necesaria para combatir los errores.
Capacidad de canal La importancia' de un análisis matemático del proceso comunicatorio recién se pone en evidencia al considerar sus aplicaciones prácticas. Ante todo, el hecho de poder medir la información como si fuese ua ente físico, tangible, permite establecer comparaciones cuantitativas entre los diversos sistemas o dispositivos de comunicación, del mismo modo que pueden compararse dos recipientes de distinta forma midiendo su capacidad en litros, o dos tuberías en base al caudal de fluido que son capaces de conducir. Con el creciente desarrollo de las comunicaciones, en especial las radiotelefónicas, nos encontramos ante el abarrotamiento cada vez mayor de los canales disponibles, cuyo número y amplitud no son ilimitados. Por eso, debe tratarse de aprovecharlos lo mejor posible, manteniendo la calidad y confiabilidad de las transmisiones dentro de valores aceptables. ¿Cómo se mide la capacidad de un canal o de un depósito de informaciones? Supongamos tener un teleimpresor capaz de transmitir 100 caracteres por minuto, con un teclado de 50 símbolos (letras, números, signos y espacio). Cada símbolo transmitido es una elección entre 50 posibilidades y equivale, por consiguiente, a log2 50 = 5,65 bits. En un minuto tendremos 100 X 5,65 bits, o sea 565/60 ~ 9,41 bits/segundo. Esta es la medida de la capacidad de
nuestro canal. Para transmitir, por ejemplo, un mensaje de 5.650 bits se necesitarán 5.650/9,41 = 600 segundos = 10 minutos. Consideremos ahora una hoja de papel en blanco y preguntémonos: ¿cuánta información cabe en esta hoja? La pregunta formulada de este modo, no tiene sentido; equivale a preguntar: ¿cuántas piedras caben en este balde?, sin indicar el tamaño ni. la forma de las piedras. Pero si especificamos que la hoja se llenará con la escritura de una máquina de escribir ele 50 caracteres, en 25 renglones de 40 espacios cada uno, ya contamos con los datos suficientes para medir su capacidad: 2.5 . 40 . 5,65 = 5.650 bits. Como vimos, esta información podría transmitirse a través del teletipo en 10 minutos. El número "5.650" determina el límite superior de la cantidad de bits que pueden registrarse en dicha hoja, con la máquina especificada. Pero sabemos que, si lo que escribimos en ella es lenguaje corriente, la gran redundancia del mismo hace que la información real sea mucho menor. A un promedio de 2 bits/ letra tendríamos tan sólo 25 por 40 X 2 = 2.000 bits, que a través del canal disponible podrían transmitirse en aproximadamente 4 minutos, mejorando considerablemente el aprovechamiento del canal. ¿Será posible lograr efectivamente esta economía? Teóricamente, debería poder recodificar.se el mensaje, comprimiéndolo en la proporción indicada, siempre de manera que en el otro extremo sea posible restaurar en su totalidad el mensaje original. En los medios de comunicación donde el tiempo o espacio nos cuesta dinero —telegramas, avisos clasificados, etc.— tratamos siempre de hacer economías, eliminando palabras innecesarias e introduciendo abreviaturas; eso sí, cuidando evitar ambigüedades y aprovechando los conocimientos previos que el destinatario tenga sobre el tema, que le permitan suplir lo que falta. Pero por más que logremos comprimir el texto, jamás alcanzaremos el límite indicado por ía redundancia teórica, que constituye un ideal inalcanzable en la práctica. Relacionando la compresión efectivamente lograda con la teórica, obtenemos un coeficiente que permite valorar la eficiencia de la codificación empleada.
39
Informaciones en señales continuas Hasta aquí nos hemos referido siempre a mensajes y señales de tipo discreto, numerable. Pero cuando observamos la forma de una onda correspondiente al lenguaje hablado, música, imágenes de televisión, etc., surge la pregunta: ¿Cómo se medirá la información en este caso? Una onda continua puede considerarse como una sucesión de ordenadas muy próximas entre sí y de amplitud variable en pequeños escalones. Mediante esta cuantificación trasladamos el problema al caso de los sistemas discretos. El logaritmo en base 2 del número de valores que puede tomar la amplitud nos daría entonces el contenido informativo de cada "símbolo" y multiplicando este valor por la cantidad de ordenadas en un segundo, obtendríamos la cantidad de información en bits por segundo. Tratándose de una onda continua —en el sentido matemático— su contenido de información debería ser infinito. Teóricamente, la amplitud puede tomar infinitos valores, y también las ordenadas sucesivas están infinitamente próximas entre sí. En este supuesto, no habría canal capaz de transportar este tipo de mensaje. Pero en la práctica, las cosas suceden de manera muy distinta. La cuantificación, tanto en el tiempo como en la amplitud, no necesita ser "afinada" indefinidamente, sino que queda limitada por las características físicas del receptor y, por ende, las peculiaridades fisiológicas de los sentidos del hombre, destinatario final de muchos sistemas artificiales de comunicación. Al definir el "canal", dijimos que sus estados deben ser discriminables por el receptor. Por lo tanto, la capacidad discriminatoria de los sentidos humanos podrá servir de límite superior a lo que se necesita transmitir. Un ejemplo aclarará este concepto. Gracias a la persistencia de la imagen en la retina, percibimos una sucesión de fotografías inmóviles, a razón de más de 15 por segundo, como escenas de movimientos naturales. Este es el fundamento de la cinematografía, y también de la televisión, que en nuestro país trabaja con 25 cuadros por segundo. Por otra parte, el poder separa-
40
dor del ojo es limitado, bastando las 525 líneas de exploración para formar una imagen suficientemente coherente como para no resultar molesta. Estas limitaciones han hecho físicamente posible la transmisión de imágenes por un canal, si bien aun así la cantidad de información es muy elevada y exige el empleo de altísimas frecuencias. (En fotografía y cine, la cuantificación está dada por el "grano" de la emulsión). De acuerdo con el análisis armónico de Fourier, una onda de forma cualquiera y frecuencia / puede descomponerse en una suma de ondas sinusoidales de frecuencia /, 2f, 3f, etc. En acústica, las tres cualidades del sonido —intensidad, altura y timbre— están dadas, respectivamente, por la amplitud, frecuencia y forma (o sea, composición armónica) de la onda. Cuanto mayor sea el número de armónicas transmitidas correctamente, tanto más se asemejará la onda recibida a la transmitida y, en consecuencia, tanto mejor será la calidad de la transmisión. Por ejemplo, para transmitir hasta la 5' armónica de una onda de 2.000 ciclos/segundo, se requiere un canal apto para transportar hasta 10.000 ciclos/segundo. Como datos ilustrativos mencionaremos que los equipos de "alta fidelidad" reproducen hasta 15.000 c/s, en radiotelefonía se transmiten hasta 5.000 c/s y la telefonía, puesto que la voz humana no necesita transmitirse con tanta fidelidad como la música, se conforma con 3.500 c/s. En cambio, la televisión requiere 4.000.000 c/s. Los ingenieros en telecomunicaciones tienen el mayor interés en limitar la información transmitida a lo estrictamente necesario, pues la calidad de la transmisión tiene un precio: el ancho de la banda. Cuando a una emisora se le asigna, digamos, una frecuencia de 1000 Kc/s, y se desean transmitir audiofrecuencias de hasta 5000 c/s, o sea 5 Kc/s, ello significa que ocupará un canal de 1000 ± 5 Kc/s, es decir, una banda de 995 a 1005 Kc/s. Para que no haya interferencias con una "broadcasting" y otra, los canales vecinos no deben superponerse; de ahí que las frecuencias básicas asignadas tengan que guardar una cierta distancia entre sí y esta circunstancia limita el número de licencias que puedan asignarse dentro de un rango de frecuencias.
A esto nos referíamos al hablar del abarrotamiento de las vías de comunicación, y ello explica también el interés de mantener el ancho de banda lo más reducido posible. Se demuestra que para definir la forma de una onda hasta un ancho de banda W (ciclos/segundo), basta con tomar ordenadas sucesivas con un intervalo de 1 / 2 W , o sea, a razón de 2W ordenadas por segundo. He aquí la cuantificación temporal buscada. Estudiemos ahora la cuantificación en amplitud. Para ello, necesitamos introducirnos en otro capítulo esencial de la Teoría de la Información.
El ruido Hasta ahora habíamos supuesto, tácitamente, que lo recibido por el destinatario era idéntico a lo emitido por el transmisor. En la vida real las comunicaciones están sometidas a perturbaciones que por ]o general están fuera del control de los participantes. Estas perturbaciones, que se designan "ruido", ya sean acústicos o no, pueden asumir diversas formas. En la radio, todos conocemos los diversos ruidos esporádicos (atmosféricos, estática); en el teléfono hay ruidos de fritura o sibilantes, o interferencias con otras líneas; en televisión, la imagen puede ser perturbada por manchas blancas, etc. Un tipo especial de ruido es el debido a la agitación térmica dentro de los elementos amplificadores, que siempre existe y no puede ser eliminado. Todos estos ruidos son los que limitan, en último término, la cuantificación S de la amplitud de onda, ya que introducen un elemento de incertidumbre en cuanto al valor real de las amplitudes. Evidentemente, ya no pueden distinguirse entre sí dos señales cuya diferencia de amplitud sea menor que la del ruido superpuesto. Si la amplitud máxima es S, podrán transmitirse entonces S 1 + amplitudes diferentes A S (incluyendo la amplitud "cero") y la capacidad máxima del canal será, en bits/segundo:
S
H = 2W — log2 (1 +
) A S' (6)
donde XV es el ancho de banda, en ciclos/segundo, S la amplitud máxima de la señal y AS la menor diferencia discriminable, que dependerá de la amplitud y características del ruido. De esta fórmula se desprende que es posible mantener constante la capacidad de un canal con más ruido, a costa de un aumento del ancho de banda W. En la figura 4 se ve que una onda con 4 niveles discriminables (A, B, C, D) puede transmitirse a través de un canal de 2 niveles, duplicando el ancho de la banda y mediante una codificación adecuada. Este tipo de transmisión a dos niveles se denomina " P C M " (Pulse Code Modulatión = modulación por impulsos codificados) y es muy eficiente para combatir, los ruidos, ya que aun con una fuerte mutilación de los impulsos es posible reconstruir la onda original. Las señales "ruidosas" recibidas consisten de dos partes: a) Las instrucciones correctas provenientes del transmisor, y b) Las instrucciones falsas provenientes de la fuente de ruidos, que son casuales, y aumentan la incertidumbre del receptor, por lo cual pueden considerarse como información negativa. Para que la comunicación se desarrolle satisfactoriamente aun en presencia de ruidos, se recurre a la redundancia, que al brindar un exceso de información, compensa en mayor o menor grado las pérdidas debidas al ruido. Una de las consecuencias más interesantes de la teoría de
Shannon es precisamente el hecho de que sea posible transmitir a través de un canal ruidoso con una proporción de errores tan pequeña como se desee, utilizando códigos con redundancia apropiada. Sin embargo, no es fácil llevar a la práctica las predicciones de la teoría, y además, una mayor redundancia resulta en una mayor complejidad de los equipos y un incremento del ancho de banda. Por eso, también a este respecto habrá que buscar un compromiso viable entre fidelidad y economía. La enorme redundancia del lenguaje nos permite conversar aun en una fiesta «ruidosa o a través de un teléfono defectuoso. Pero nótese que cuando queremos comunicar un nombre o palabra difícil, que no puede deducirse del contexto, recurrimos al deletreo, que no es otro cosa que introducir artificialmente una fuerte redundancia.
les como la cantidad y confiabilidad de los datos que pueden obtenerse de un satélite artificial o una sonda espacial. Sus derivaciones día a día encuentran nuevas aplicaciones en diversos campos; así, por ejemplo, ha dado un novedoso enfoque a problemas de la neurología, psicología, etc., al estudiar los sentidos y efectores del organismo como canales de entrada y salida de datos, que son elaborados por el sistema nervioso central. En biología, los problemas de la herencia y evolución se comienzan a encarar bajo el aspecto de mensajes entre una generación y otra, y entre las especies y el medio ambiente. Estos pocos ejemplos indican que la Teoría de la Información, sin lugar a dudas, ha abierto un inmenso y fructífero campo a la imaginación científica, al ocuparse de un tema que parece constituir la característica más esencial de los procesos vitales: la comunicación.
Conclusiones La Teoría de la Información ha logrado dar formulación matemática y tratar en forma concreta y cuantitativa elementos que previamente se manipulaban de manera vaga e intuitiva. Permite determinar el grado de eficiencia de los medios utilizados para el almacenaje y transmisión de informaciones, y lograr importantes economías de tiempo y materiales. Es una valiosa herramienta para atacar los nuevos problemas que plantea el manipuleo de enormes cantidades de datos en las computadoras electrónicas, y cuestiones ta-
41
Libros nuevos Endocrinología H. Gardiner-Hill
actual
Versión española de J. K. Masolivat del original inglés. Ediciones Toray S. A. Barcelona, 1970, 3 9 6 páginas.
Sumario: I. La hormona de crecimiento humana en el tratamiento del enanismo; II. El enanismo y su valoración bioquímica; III. Factores heredados y ambientales en la enfermedad tiroidea; IV. Pruebas corrientes de la función tiroidea y sus correlaciones; V. La hormona estimulante del tiroides, y la sustancia productora de exoftalinos en la enfermedad tiroidea; VI. Inducción de la ovulación con gonadotrofinas humanas; VII. Biosíntesis de los esteroides ováricos y sus implicaciones clínicas; VIII. Aspectos actuales de la etiología de la diabetes mellitus; IX. Técnicas actuales de valoración de la función corticosuprarrenal y su interpretación; X. La inhibición de la biosíntesis y la acción de los esteroides suprarenales; XI. Aspectos endocrinológicos de la hipertensión; XII. Dependencia hormonal de los tumores en el hombre; XIII. Esteroides anabólicas y metabolismo proteico; XIV. Procedimientos inmunológicos en el análisis de las hormonas proteicas.
Las estructuras del parentesco
armónicos; XIV. Apéndice de la primera parte. Segunda parte: El intercambio generalizado. I. Fórmula simple del intercambio generalizado; XV. Los donadores de mujeres; XVI. El intercambio y la compra; XVII. Límites externos del intercambio generalizado; XVIII. Límites internos del intercambio generalizado. II. El sistema chino; XIX. La teoría de Granel; XX. El Orden Tchao Mu; XXL El matrimonio matrilateral; XXII. El matrimonio oblicuo; XXIII. Los sistemas periféricos. III. La India; XXIV. El hueso y la carne; XXV. Clanes y castas; XXVI. Las estructuras asimétricas; XXVII. Los ciclos de reciprocidad. Conclusión. XXVIII. Pasaje a las estructuras complejas; XXIX. Los principios del parentesco.
Acta
C l a u d e Lévi-Strauss
Sumario: Introducción: I. Naturaleza y cultura; II. El problema del incesto. Primera parte: El intercambio restrictivo, I. Los fundamentos del intercambio; III. El universo de las reglas; IV. Endogamia y exogamia; V. El principio de reciprocidad; VI. La organización dualista; VII. La ilusión arcaica; VIII. La alianza y la filiación; IX. El matrimonio de los primos; X. El intercambio matrimonial. II. Australia; XI. Los sistemas clásicos; XII. El sistema Murngin; XIII. Regímenes armónicos y regímenes no
42
científica
Con un cierto atraso, apareció el número 4 del volumen 2 (octubre-diciembre de 1969) de esta revista, que contiene los siguientes artículos: Enfermedades del Crecimiento, de Martin B. A. Crespi; Crecimiento dendrítico y mecanismo molecular de solidificación en hielo, de Laura Levi; Fabricación de detectores semiconductores de Si (Li) para reacciones nucleares, de H. J. Erratnuspe; Realización de junturas PN de arseniuro de indio, de R. E. Zeida; Imán deflector para deuterones de 28 MeV y alfas de 56 MeV, de H. J. Erramuspe, M. J. Sametband, S. Mayo y N. A. Fazzini; Aumento de la difusión en volumen debida a la migración de límites de grano y a la recristalización, de C. A. Panpillo y N. W. de Reca; Señales acústicas impulsivas, dificultades en su medición y evaluación, de G. I. Fuchs y C. B. Metzadoor. Además de las secciones permanentes, la revista incluye un resumen de las comunicaciones presentadas a las Jornadas Argentinas de Computación Aplicada a la Ciencia y a la Ingeniería, desarrolladas en la Universidad Tecnológica Nacional del 13 al 17 de octubre de 1969.
elementales
Traducción del original francés: Marie Therése Cevasco Editorial Paidós. Talleres Macagno, Latida y Cía. Buenos Aires, 1969, 576 páginas.
Revistas recibidas
La enseñanza
programada
Flaneáis Hingue (Hacia una pedagogía cibernética) Editorial Kapelusz; Biblioteca de Cultura Pedagógica. Talleres Gráficos La Prensa Médica Argentina. Buenos Aires, 1969, 172 páginas.
Sumario: Introducción; Presentación general; Fundamentos psicológicos y pedagógicos; Programas y soportes; Resultados, valor y campos de aplicación de la enseñanza programada; Los problemas; Los límites; Respuesta a ciertas críticas; Balance de la enseñanza programada; Conclusión; Bibliografía.
Partículas más veloces que la luz J. G. Taylor
XJna nueva clase de partículas, más veloces que la luz, puede ser compatible con las teorías físicas actualmente aceptadas. Sí pudiera detectarse tales partícidas, sería posible explicar el misterio de los quasars.
El Dr. John Gerald Taylor es profesor de Física de Campo y de Partículas en el Queen Mary College, de la Universidad de Londres.
La propiedad de que nada puede trasladarse más velozmente que la luz se ha convertido en una verdad indiscutible. Esta propiedad implica que un viaje de ida y vuelta a la estrella más cercana debería durar más de nueve años, medidos según los relojes terrestres. Significa también que es limitada la utilidad de explorar la galaxia, siquiera localmente, si se pretende que los asombrosos descubrimientos que seguramente se harían en tales viajes, sean comunicados a la Tierra en un razonable período de tiempo. Tantas limitaciones nos llevan a preguntarnos si somos realmente impotentes para viajar más rápido que la luz. ¿Qué nos impide ir a la velocidad que queramos, siempre que podamos pagar el precio necesario? Existe una razón básica que nos inhabilita para viajar más rápido que la luz; ella aparece en el memorable trabajo que Einstein publicó en 1905, con el cual cambió nuestra concepción del espacio y del tiempo. La teoría especial de la relatividad, presentada en el artículo, lleva en sí la semilla de tal limitación, y demuestra cómo la suposición de poder viajar más rápido que la luz conduce a conclusiones absurdas. Una de ellas, por ejemplo, es que se arribaría al final de la jornada antes de haberla emprendido; esta conclusión viola el principio de "causalidad" que requiere que la causa preceda siempre al efecto. Pese a todo, en la última década hombres de ciencia de diversos países han hecho sugestiones serias en el sentido de que existirían partículas realmente más veloces que la luz. Tales partículas han sido apodadas "tachyones" (del griego tachys: veloz) y se está realizando sobre ellas una investigación experimental. En este
artículo quiero discutir la manera en que se puede concebir los tachyones sin que esta idea entre en contradicción con la causalidad, y describir algunas de sus propiedades^así como también la investigación experimental en marcha. Veamos primero qué nos dice la teoría especial de Einstein acerca del movimiento. Einstein propuso su teoría a fin de resolver una dificultad para interpretar el movimiento de la luz surgida del célebre experimento realizado por A. Michelson y E. Morley en 1887. El experimento había sido diseñado para comprobar si la velocidad de la luz de-
El experimento de Michelson-Morley demostró que la velocidad de la luz no depende de la velocidad de la fuente. La luz de -la fuente S está dividida en dos rayos en el fondo semiplateado del espejo A. Un rayo es reflejado por un espejo en B y el otro por otro espejo en C. Los dos rayos se recombinan en la cara semiespejada en A y se reflejan hacia una pantalla en D, donde forman franjas de interferencia. Si la velocidad de la luz dependía del movimiento de la Tierra, una rotación de 90" del sistema completo debería producir un corrimiento en las franjas. Con una precisión de una parte en un millón no se detectó tal corrimiento.
43
pendía de la dirección en que se traslada, respecto del sentido del movimiento de la Tierra; en otras palabras, se trataba de ver si dependía de la velocidad de su fuente. No se halló ninguna variación en esta velocidad, ni tampoco fue hallada en ninguno de los intentos realizados a partir de entonces. Esto produjo una desconcertante contradicción con los conceptos de espacio y tiempo en los que se creía desde la época de Sir Isaac Newton, y en particular con la ley de suma de velocidades.- Esta Ley —que dice, por ejemplo, que la velocidad de una bala disparada desde un arma en movimiento es igual a la suma de la velocidad de la bala en la boca del arma más la velocidad del arma— fue desechada entonces para poder explicar el fenómeno de la emisión de luz desde una fuente en movimiento. Para reconciliar el hecho de que la velocidad de la luz es independiente de la fuente, con la ley de suma de velocidades, Einstein entendió que era preciso interrelacionar espacio y tiempo. Antes de 1905 las leyes de la física tenían un carácter relativo: era imposible aislar mediante experimentos puramente mecánicos a ningún observador "absoluto", de modo que todos los observadores, moviéndose a velocidades constantes uno respecto de otro, observaban al mundo de la misma manera. Diferentes observadores refirieron sus mediciones de posiciones de los cuerpos de un modo natural que es mostrado en detalle en las ilustraciones; en particular, todos los observadores tenían el mismo tiempo "absoluto". Esta propiedad relativa, conocida como relatividad galileana, fue extendida por Einstein para incluir fenómenos que involucran la transmisión de la luz; la extensión se realizó en la relatividad especial. Diferentes observadores, moviéndose a velocidades constantes uno respecto al otro, refirieron distancias y tiempos de cada uno (como medidos por varas rígidas y relojes que llevaran con ellos) por medio de relaciones más complicadas, conocidas como transformaciones de Lorentz, tal como se muestra en esta página. La ley de suma de velocidades también fue modificada; si una partícula se mueve a la velocidad de la luz —simbolizada por la letra c—
44
con respecto a su fuente, y ésta tiene una velocidad u, entonces, de acuerdo con la ley de adición de velocidades de la relatividad especial k velocidad de la partícula seguirá siendo c. Si las velocidades de los cuerpos son pequeñas comparadas con c (que es igual a unos 300.000 km por segundo) existe entonces una diferencia muy pequeña entre la relatividad galileana y la relatividad especial; pero cuando la velocidad de un cuerpo se avecina a c, la diferencia es muy grande. Esto se hace evidente particularmente en la energía y momento que posee una partícula en función de su movimiento. Ambos, energía y momento, crecen indefinidamente según la teoría de la relatividad especial, a medida que la velocidad de la partícula se aproxima a la de la luz. Haría falta entonces una cantidad infinita de energía para incrementar la velocidad de una partícula siquiera hasta la velocidad de la luz. Una magnitud importante que describe la energía de una partícula en reposo es su masa en reposo; la energía de una partícula en reposo está dada por la famosa fórmula de Einstein E = me2, donde m es la masa en tal estado. El desarrollo del poder nuclear y las bombas nucleares ha dado una verificación amplia (posiblemente demasiado amplia) de esta fórmula. Si la masa en reposo de una partícula es distinta de cero, y si la misma se mueve más lentamente que c en cierto momento, debe seguir moviéndose más lentamente que c en todo momento. Si se está moviendo a la velocidad de la luz (y por supuesto, con una cantidad finita de energía) entonces deberá tener una masa en reposo igual a cero, como se piensa que tienen las "partículas'' de luz, los fotones. Se halló también en los aceleradores de partículas de alta energía, que ésta se incrementa de la manera prevista por la teoría especial de la relatividad; los electrones han sido acelerados, por ejemplo, hasta cuatro milésimos del uno por ciento de la velocidad de la luz en el acelerador de electrones del Massachussets Instituí of Technology, y su incremento de energía concuerda con el esperado según la relatividad especial. Han sido verificadas otras predicciones de la teoría; esperamos ahora mirar al mundo a través de anteojos con la marca "Hecho conforme a la Teoría de la Relatividad Especial".
—l¿—o-
—s»
X
Leyes de la mecánica, expresadas en la relatividad galileana y la especial de Einstein. La primera ecuación de la posición de un suceso que ocurre en el punto P, tal como es visto por dos observadores ubicados en O y O', siendo que O' se mueve con una velocidad u con respecto de O. La segunda ecuación muestra cómo la ley de suma de velocidades es modificada por la relatividad especial, y la tercera y cuarta expresan por medio de la relatividad especial el momento y la energía de una partícula cuando la velocidad de la misma es menor o mayor que c.
Relatividad Relatividad Gali. yeana Especial Ley de Suma de • Velocidades (v<c) (v>c) . =»¡¡>MV mvfV{l-v2jc2) MvfV(v2fc*-l) momento energía - EVj tav7 md}V(l-t>2¡c2) mc2V(v*/c?-l)
Vale decir que no podemos encontrar una partícula que se esté moviendo más lentamente que la luz y acelerarla hasta que vaya más rápido que la luz, porque hacer esto requeriría una cantidad infinita de energía. Pareciera, sin embargo, que no hay razones para que no pueda existir una partícula que ya se mueva más velozmente que la luz. Tal partícula sería uno de los tachyones antes mencionados. Su energía y momento serían aparentemente imaginarios, si su masa en reposo fuera real, pero dado que esta última cantidad no es directamente observable, en tanto que la energía y el momento lo son (y son reales) se hace necesario escoger como imaginaria la masa en reposo del tachyon. Una propiedad interesante de estas partículas es que a medida que pierden energía se aceleran, hasta que llegan
Energía y momento de una partícula en movimiento libre, en función de la velocidad de acuerdo con Newton y con Einstein. En la mecánica newtoniana (arriba) el momento es directamente proporcional a la velocidad (p — mv) mientras que la energía sigue una función cuadrática
l
(E = — mv2). La relatividad especial mo2
difica estas ecuaciones y produce las curvas que se indican en la figura inferior, en las que las funciones momento y energía se aproximan sin alcanzar nunca la asíntota donde v = c, la velocidad de la luz. Las partículas normales están a la izquierda de la asíntota, mientras que las que son más veloces que la luz, como los tachyones, están a la derecha. Cuando declina la energía de los tachyones, su velocidad aumenta.
a velocidad infinita cuando pierden toda su energía. ¿Cómo se pudo manejar las paradojas, las conclusiones absurdas? La más inmediata es la relacionada con la violación de la causalidad. Aparentemente esto se relaciona también con la posibilidad de que un tachyon parezca tener energía negativa. Consideremos un observador vien-
do a un tachyon moverse de un punto A a otro B; otro observador que.se mueva suficientemente rápido con respecto al primero (aunque más lentamente que la luz) verá al tachyon trasladándose aparentemente con energía negativa, y también como si fuera emitido luego de ser absorbido. No obstante, este segundo observador puede reinterpretar lo que ve diciendo que la emisión de una partícula de energía negativa es equivalente a la absorción de una partícula de energía positiva. En otras palabras, el segundo observador podrá interpretar lo que vio como la emisión de una partícula de energía positiva del punto B y posteriormente su absorción en el punto A. Tal reinterpretación elimina dos paradojas de golpe, por cuanto evita tanto la violación de la causalidad —resultante de la observación del segundo observador— como la energía negativa en el tachyon —también vista por el segundo observad o r — L a suposición de un viaje al pasado se evita entonces reinterpretando el orden de emisión y absorción de los tachyones de energía negativa; esta reinterpretación no conduce a ninguna otra contradicción, por lo tanto no habría ninguna otra razón por la cual estas partículas no puedan ser detectadas, y es por eso que se han llevado a cabo y se realizan actualmente experimentos destinados a encontrar tachyones. ¿Cómo pueden producirse tachyones? La respuesta a esta pregunta dependerá de la interacción que exista entre los tachyones y las partículas que tenemos a nuestra disposición actualmente. Pero desde el momento en que nada se conoce acerca de esta interacción, parece que estamos en un círculo vicioso. Un modo de romper este círculo es suponer que los tachyones interactúan con algunas partículas conocidas, puesto
t negativo - ••
•—rrr emisión
Absorción
A
E negativo
• causalidad violada 4
t positivo E positivo ;—— c/tnsalidad no violada.
que si no lo hacen no hay posibilidad alguna de detectarlos. El problema es entonces la barrera de la velocidad de la luz: ¿Puede transferirse información a través de esta barrera? Dicho de otra forma ¿puede existir interacción entre partículas que se trasladan más lentamente que la luz y los tachyones? Las interacciones entre partículas conocidas se describen como mediatizadas por el intercambio de otras partículas: la interacción de Coulomb entre dos partículas cargadas está mediatizada por el intercambio de fotones (partículas de luz) entre ellos; las fuerzas nucleares, que mantienen unidos los componentes del núcleo, están mediatizadas por el intercambio de mesones; etc. E n principio no hay nada que impida el intercambio de un tachyon entre dos partículas, produciendo así un nuevo tipo de fuerza. Puede ser entonces que una de las partículas al estar en movimiento emita un tachyon, vale decir, que los tachyones podrían ser creados de esta manera. E n estos términos, no parece imposible romper la barrera de la velocidad de la luz. E n
La violación de la causalidad se evita inviniendo dirección y carga del tachyon. En el diagrama superior los tachyones se emiten desde A y son absorbidos en B con el tiempo transcurrido indicado en el reloj. Puesto que los tachyones se trasladan más rápido que la luz, la partícula llegó a B antes de abandonar A, violando aparentemente la ley de causalidad, ley física que señala que el efecto sigue siempre a la causa y jamás la precede. El tiempo de viaje, t, es negativo, lo cual implica que la energía E del tachyon es negativa también. El observador puede eludir la paradoja si se da cuenta que la emisión de una partícula de energía negativa es igual a la absorción de una partícula de energía positiva. En otras palabras, en vez de ver un tachyon de energía negativa moviéndose de A hacia B, ve un tachyon de energía positiva moviéndose de B hacia A. Esto evita tanto la contradicción con la causalidad como el tachyon negativo.
• absorción
emisión
B 45
realidad, la dificultad que esta barrera implica es que transportar información a la velocidad de la luz (y no por la luz misma) requiere una cantidad infinita de energía. No precisamos una trasmisión de información de este tipo, sino su transferencia instantánea desde una partícula menos veloz que la luz hacia un tachyon. Uno de los supuestos más simples es que los tachyones lleven carga eléctrica, de modo que pueden entonces ser creados de a pares (con cargas iguales y opuestas) por un haz de fotones. Esta hipótesis ha sido la base de una experiencia de T. Alvager y M. N, Kriesler en la Universidad de Princeton, que rodearon una fuente de fotones (cesium 134) con una cobertura de plomo. Se supuso que los fotones' con energías de 605 ó 797 kev crearían tachyones T + , T— en la cobertura y podrían ser detectados entonces por la radiaciones de Cerenkov que emitan. Esta radiación, que fue analizada detenidamente y por primera vez por P. A. Cerenkov en 1934, es la onda de choque de la radiación emitida por una partícula que se mueve en un medio a mayor velocidad que la luz; es equivalente al boom sónico o a la onda de arco de una nave que se traslada a mayor velocidad que las olas de la superficie del agua. Tal radiación es emitida a lo largo de la superficie de un cono y, como un tachyon emitirá su energía rápidamente, trasladándose entonces infinitamente rápido, el cono tendrá un ángulo semivertical de 90°. No obstante, puede demostrarse que un tachyon con carga unitaria pierde casi toda su energía, de este modo, en una distancia de un milésimo de centímetro. Puede demostrarse también que hay una probabilidad muy pequeña de capturarlo en una órbita cercana al núcleo. Esto significa que casi la única manera de observar un tachyon cargado sería por la radiación de Cerenkov emitida; pero el hecho de que el tachyon pierde la mayor parte de su energía muy próximo a su punto de producción, significa que la emisión de Cerenkov debe ser detectada directamente en el punto donde se crean los tachyones, con las dificultades que provienen de tener que separar las observaciones del trasfondo de fotones de procesos sin interés; o bien debe ser detectada después que los tachyones entren en un área con bajo trasfondo de foto-
46
nes, cuando la menor energía de los tachyones produce la radiación de Cerenkov principalmente en la región de microondas y afrontando las dificultades para la observación que surgen de la baja eficiencia de los métodos de detección. Dado que pareció imposible eliminar el trasfondo de fotones en las proximidades del punto de producción, se incrementó la energía de los tachyones lejos de su origen aplicando un campo electrostático de tres ldlovoltios por centímetro en un vacío de 10~° torr fuera cíe la cobertura de plomo que rodea la fuente. Los fotones emitidos como radiaciones de Cerenkov por un tachyon que atravesara este campo electrostático, podrían ser observados en un fotomultiplicaclor. Los resultados del experimento no dieron evidencia de ningún fotón de la energía esperada y, por lo tanto, no se tuvieron evidencias ele la existencia de tachyones. Una discusión cuidadosa de los resultados mostró que la sección transversal de producción (fue necesario encontrar el área a fin de que ocurra una reacción) para un par de tachyones cargados en plomo por fotones de 0,8 Mev es de cuatro órdenes de magnitud inferior que para la producción de un par electrón-positrón. Este límite depende del supuesto de que los tachyones ganan energía en un campo electrostático de la misma manera que las partículas comunes, que la emisión de luz en un vacío lio es suprimida por ninguna regla de selección, y que los tachyones no tienen una alta probabilidad de ser capturados en materia. Aunque estos supuestos son razonables, el fracaso (el error) de cualquiera de ellos cambiaría drásticamente los resultados del experimento. Existe además otra dificultad: es energéticamente posible que un único tachyon se destruya en tres tachyones. Si este proceso tiene una alta probabilidad, los tachyones tenderán, seguramente, a perder energía por estos medios antes que por radiación de Cerenkov El experimento está siendo perfeccionado actualmente y también está siendo considerada otra experiencia para detectar la existencia de tachyones neutros. Los razonamientos iniciales indican que los tachyones pueden no estar cargados. ¿Pueden aun interactuar con la materia, pero ahora directamente en lugar de hacerlo a través del campo electromagnético
Dos maneras posibles de producir tachyones. En una el protón se transforma en neutrón más un tachyon cargado positivamente, mientras que en la otra se produce un par de tachyones con cargas opuestas durante el decaimiento de un protón único.
mediante partículas cargadas? Dos científicos norteamericanos hicieron una interesante sugerencia en este sentido cuando visitaban el Imperial College de Londres. Señalaron que si los tachyones pudieran ser intercambiados entre los núcleos de átomos entonces la materia tendría la estructura de un cuerpo rígido (si se perfora un extremo de una varilla rígida, la señal se transmite instantáneamente al otro extremo, tal señal sería conducida por los tachyones). El problema que Bludman y Rudetman plantearon fue ¿bajo qué condiciones puede la materia aproximarse a la estructura de un cuerpo rígido? Es evidente que un posible conjunto de condiciones serían aquellas en que bajo una gran compresión la materia podría tener propiedades casi rígidas; el potencial de repulsión entre núcleos atómicos es un rasgo en común de los modelos analizados. Es interesante señalar que se conjeturó que tales estados de alta compresión de la materia existían en los quasars; más aún, para explicar la producción de gran energía de estos objetos quasi-es telares se ha sugerido un proceso de colapso gravitadonal a presión y densidad infinitamente altas. Es también una notable coincidencia el hecho de que 14 quasars conocidos tengan un corrimiento al rojo numéricamente igual a 2. En tanto es usual explicar el corrimiento al rojo de la luz emitida por un objeto como causado por el efecto Dup-
y
ÉgpÉgÉtt
juente
s x
de protones dm cesto
placas cargadas eléctricamente producen un campo electrostático para cargar de energía los tachyones.
<kli Uin
m¡lmu'n wfcjsfa
tí fífrtó,. áf íD frííc'í
ailis? Dos' hicieron áa en este el Imperial faron que si ir intercamde átomos a la estrile(si se per- , '¡tilín rígístantáneai señal sepes), El Rudertnan ontlidones liarse a la rígido? Es onjiinto deas en que la materia ¡ casi rígiIsión entre isgo en cq< zados. que se con,e alta com¡tíanenlos . explicar la 5¡a de estos : k SUgeti-
gravíianoníinitamen;„a notable 1 3ue 14 quí-" corrimiento nal a 2. En 0
corrí»®' porunobefectoDop-
pler, parece demasiada coincidencia que 14 objetos tengan un corrimiento con un valor muy similar. Parece más razonable que en estos casos se deban principalmente a cambios gravitacionales en los objetos, dando así corrimientos similares si se tienen campos gravitacionales semejantes. Esta coincidencia puede realmente ser considerada como la evidencia de la existencia de tachyones en las regiones internas de los quasars; evidentemente es muy difícil reproducir tales condiciones en un laboratorio en la Tierra. Es los pulsars, descubiertos últimamente, puede encontrarse materia aún más condensada, y se ha sugerido que puede tratarse de estrellas neutrones en rotación. Su corrimiento al rojo puede demostrarnos que tiene valores muy interesantes. Hay varios modos de llegar a detectar tachyones. Uno muy importante es a través del intercambio de un tachyon entre dos partículas: para las dos partículas ordinarias habrá una tendencia a dispersarse en una dirección preferencia! que variará según la energía de las partículas de una manera predecible. Estos efectos direccionales ocurrirán tanto para tachyones neutros como cargados, aunque el alcance de los efectos dependerá de la fuerza del apareamiento de las partículas ordinarias. Si están sólo débilmente apareadas (mediante fuerzas que producen declinaciones radiactivas) será difícil observar tal acrecentamiento en procesos que involucran dispersión de neutrinos. Será interesante observar los experimentos con neutrinos que se llevarán a cabo en el acelerador de fotones de 70 Gev en Serpukhov, en la Unión Soviética. Esta situación de la investigación experimental, más bien confusa, se
combina con dificultades teóricas ulteriores que aparecen cuando se intenta construir una teoría más completa y fundamentada sobre tachyones de interacción. El marco usual en el que se encuadraría tal interpretación es la teoría cuántica de campos, que admite que ocurran procesos discontinuos de creación y aniquilación de partícula sub-nucleares hasta las distancias más pequeñas que hayamos ensayado. H e mostrado recientemente (junto con Michael Broido de la Universidad de Oxf o r d ) que este marco de la teoría cuántica de campos, en su forma normal, no puede incluir tachyones en interacción y es necesario, por lo tanto, infringir alguno de sus principios básicos para ampliar el marco a fin de incorporarlos. Es completamente posible que tal marco de referencia deba ser ampliado, en todo caso antes de poder ser aplicada a la interpretación de la materia en el interior de u n quasar; es menos probable, aunque también posible, que deba ampliarse igualmente para describir la materia en esta Tierra. Se ha sugerido una posible extensión de la teoría; ésta requiere una reinterpretación muy cuidadosa de la emisión de energía negativa de tachyones, como la absorción de energía positiva por ellos mismos, pero es aún muy pronto para afirmar si tal extensión será completamente satisfactoria. P o r ahora, he considerado si es posible que existan partículas más veloces que la luz, y en tal caso cómo se las podría detectar. Las conclusiones son que tales partículas, los tachyones, pueden existir realmente, aunque requieren una ampliación de nuestro marco actual para entender partículas: la teoría cuántica de campos. Además, hay modos definidos
Aparato experimental para probar si un par de tachyones de carga contraria pueden ser producidos por un solo fotón. Se rodea una fuente de fotones (cesio) con una cobertura de plomo en la cual podrán crearse un par de tachyones. Los tachyones, si son emitidos, pueden ser detectados mediante la radiación de Cerenkov. Esta radiación es la onda de choque emitida por cualquier partícula que viaja más rápidamente que la lux. Dos placas eléctricamente cargadas, fuera de la cobertura, suministran energía a uno de los tachyones, y tos fotones emitidos como radiación de Cerenkov son detectados por un tubo fotomultiplicador. Hasta ahora no se han hallado tachyones.
de detectarlos, se ha creado ya un experimento para-producir y detectar tachyones —-aunque sin éxito—- y se están planeando nuevas experiencias. Finalmente, hay alguna evidencia de la existencia de tachyones en el interior de los quasars, donde la materia • se halla en estado de alta compresión. ¿Haría posible los viajes espaciales rápidos la existencia de tachyones? Dije anteriormente que la barrerá de la velocidad de la luz es un límite real para aquellas partículas que se trasladan a menor velocidad que ella. Esta barrera no puede ser atravesada del mismo modo que la barrera del sonido; no seremos nunca capaces de subir a una nave espacial y viajar a una velocidad cinco veces mayor que la de la luz hacía la • estrella más cercana, al menos no en nuestra forma actual. Sólo es posible ; que podamos transferir información a tachyones trasladándose a mayor ; velocidad que la luz, y transmitir así esa información muy rápidamente a ' lugares muy distantes. Tal información deberá enfrentarse con muy graves dificultades aun si se hallaran los tachyones. En particular, si se ; usan tachyones, éstos perderán tan : velozmente su energía por radiación i de Cerenkov, que puede ser difícil; transmitir por medio de ellos cual-j quier pauta o estructura, desde el ¡ momento en que se transformarán: muy rápidamente en tachyones libres. Así pues, el problema de los; que construyesen una nave espacial a: tachyones, o cualquier forma de má-; quina transmisora de información,: no sería el de aumentar la velocidad i de estas partículas sino el de dismi-; nuirla, precisamente lo opuesto a lo> que uno pudiera esperar. Estas y otras dificultades concernientes a los tachyones, en particular la existencia misma de la barrera
47
R. E D E S
RECURSOS, ECONOMIA E INGENIERIA DEL DESARROLLO S. R. L. Estudios tecmcoeconómicos de obras y proyectos públicos AV.
R. S A E N Z PEÑA 846 - PISO 3° OF. 304 - 40-6294/6375 BUENOS AIRES
CUETO HAMAK,
RUA,
MORDUCHOWICZ
y Consultores Asociados
Consultorio económica y financiera
Corrientes 4 5 6 Tei. 4 9 - 0 7 2 1 / 0 7 2 4 y
45-6950/7146
Cables: Consultant - Baires
de la velocidad de la luz, se basan en la teoría especial de la relatividad de Einstein. Puede ser, inclusive, que esta teoría no sea válida en algunas regiones del espacio, como por ejemplo, en el interior de un quasar. En tanto debe tenerse en cuenta tal posibilidad, es más bien difícil saber cómo descartar la teoría hasta tanto no se tenga una buena razón para hacerlo, Como dije anteriormente, las predicciones de la teoría especial de la relatividad están muy bien satisfechas. Esperamos que la barrera de la velocidad de la luz permanezca como un límite real por un buen tiempo; la futura nave espacial a tachyones será capaz de transportar sólo pasajeros a tachyones, no a nosotros. Todo lo que podemos esperar hacer es darle el adiós de despedida. Para ir más a fondo en el tema: "Possibility of faster than light particles", por G. Feinberg (Physical Review, 159, 1089, 1967). "Quest for faster than light particles", por T. Alvager y M. N. Kreisler (Physical Review, 171, 1357, 1968). "Possibility of the speed of sound exceeding the speed of light in ultra dense matter", por S. Bludman y M. Ruderman (Physical Review, 170, 1176, 1968). "Does Lorentz—invariance imply causality?, por M. M. Broido y J. G. Taylor (Physical Review, 174, 1606, 1968). "Quantum field theory of interacting tachyons", por J. Dhar y E. C. G. Sudarshan (Physical Review, 174, 1808, 1968).
SRINIYASA RAMANUJAN (18874920)
El hombre que era amigo personal de los números 1729 Estando Ramanujan, ya muy gravemente enfermo, internado en Putney, Htirdy fue a visitarlo. Conociendo el interés por cada número que tenía Ramanujan, Hardy le contó que había viajado hasta el sanatorio en un taxi cuya patente llevaba el número 1729, número que a él le parecía insulso pero que esperaba que, por lo menos, fuera de buen agüero. Ramanujan le respondió de inmediato: "No es de ningún modo un número insulso sino muy interesante: es el menor número que se puede expresar como suma de dos cubos de dos maneras diferentes." En efecto, se puede escribir: 1729 = 1728 + I = 1.2S + V o bien 1729 = 1000 + 729 = 10" + 9". No hay ningún otro número menor que 1729 que tenga esa propiedad. ¿Puede el lector encontrar otro número mayor que 1729 que tenga la propiedad mencionada por Ramanujan? ¿Puede encontrar números que se puedan escribir de dos maneras diferentes como suma de dos cuartas potencias?
Acaba de cumplirse el 50 aniversario de la muerte de Ramanujan, ocurrida en Madras el 26 de abril de 1920, cuando el gran matemático no había llegado aún a los 33 años. El aniversario renovó en mi conciencia el convencimiento de la necesidad de difundir algunas circunstancias de la vida de Ramanujan que me parecen excepcionalmente ejemplarizantes. Para valorarlas, es importante ubicar a Ramanujan en el nivel que le corresponde entre los grandes matemáticos de todos los tiempos y eso no es fácil. Aunque precisamente entre los matemáticos no es posible que quepa ninguna duda sobre quién es creador y quién no lo es, sobre quién es grande y quién grande entre los grandes, dentro de los niveles —muy bien y claramente establecidos— la elección del mejor o de los mejores puede depender de la especialidad, de las afinidades, del valor específico que se asigne a determinadas características de una obra: amplitud, originalidad, profundidad, etc. La "celebridad" fuera de la matemática misma no tiene mucho que ver con el tipo de valoración a que me estoy refiriendo; por ejemplo, que Ramanujan sea poco "conocido" depende especialmente del hecho de que su nombre no esté ligado a ninguna fórmula o teorema elemental lo cual se explica por una parte por la época en que vivió, cuando ya lo fundamental estaba hecho, y, por otra parte, por el tipo de temas especialmente abstractos y superiores que le interesaron.
¡¡ i¡ ¡|
Recuerdo, en cambio, que en ocasión de la visita a Buenos Aires de Alexander Ostrowski, investigador de nota y hombre de gran cultura matemática, se suscitó la pregunia de cuál era a juicio de cada uno el ! más grande matemático de todos los tiempos; me sorprendió que O-- • trowski dijera, casi sin hesitar; "Ra manujan", aunque en seguida agregó: "No, tal vez no, tuvo demasiado poco t i e m p o . . . Fue Cantor". G. H. Hardy, quien además de ser uno de los más eminentes matemáticos del siglo xx, es justamente célebre por la ponderación de sus , juicios —incluso respecto de sí mis- i mo—, es terminante al afirmar que Ramanujan, en términos, de "genio matemático natural" es digno de compararse con Gauss y Euler y que sólo debido a su deficiente educado: i era imposible que contribuyera al
49
desarrollo de la matemática en la misma medida que aquéllos. De Ramanujan dijo Littlewood, gran matemático inglés, que era un amigo personal de los números enteros.. . ¿Por qué Ramanujan tuvo una deficiente educación? ¿Por qué su vida matemática fue tan breve? ¿Por qué a pesar de todo alcanzó el reconocimiento científico de sus contemporáneos y de la posteridad? La respuesta es una triste, extraña y aleccionadora historia. Ramanujan nació el 22 de diciembre de 1887 en la ciudad de Erode al sud de la India, en una familia de brahmanes, de condición modesta. Su madre era una mujer muy" piadosa, rigurosamente observante de los ritos y preceptos de su religión, que consideró a su hijo Srinavasa como un don de los dioses que escucharon sus plegarias después de años de esterilidad matrimonial. La inteligencia excepcional del niño parecía confirmar, muy tempranamente, las milagreras presunciones de su madre y la familia se trasladó a Kumbakonam para poderle dar educación. Ya en la escuela primaria obtuvo una beca que permitía costear sus estudios y hasta los 15 años siguió siendo un alumno sobresaliente particularmente en matemáticas. Al terminar los estudios básicos dio exitosamente el examen de ingreso al College obteniendo calificaciones que habrían de permitirle hacer como becario sus estudios superiores pero las deficiencias de su inglés le hicieron perder puesto y beca. Poco tiempo antes había obtenido como préstamo de la Biblioteca del Estado de Kumbakonam el único libro de matemática superior que conoció en la India: "Synopsis of Puré Mathematíes" de Carr. Este libro fue su refugio después del fracaso de sus esperanzas de llegar a la Universidad, rehaciendo e inventando demostraciones logró construir un notable cúmulo de conocimientos analíticos y hacer algunos descubrimientos propios de su genio. No creemos que Carr, que era un profesor particular de Cambridge, cuyo libro está ya muy envejecido, deje su nombre vinculado a la matemática más que por el asombroso azar de haber tenido lector tan singular. La continuidad de sus estudios solitarios no colmaban las apetencias intelectuales de Ramanujan y tres años después se trasladó a Madras para tentar el ingreso a la Univer-
50
sidad. Un nuevo fracaso le hizo desistir para siempre. Al año siguiente se casó y se vio precisado a buscar un trabajo; un amigo le dio una recomendación para un pariente suyo, aficionado a las matemáticas, quien, por un corto período, habría de convertirse en su Mecenas. Vale la pena transcribir el relato que el propio Ramanchandra Rao hizo, años después, de su primer encuentro con el recomendado Ramanujan: "Hace unos años, un sobrino mío que no sabía nada de matemáticas me dijo: 'Tío, conozco a una persona que siempre habla de matemáticas. Yo no lo entiendo. ¿Puede usted ver si hay algo de importancia en lo que dice?' Y, en la plenitud de mi sapiencia matemática, yo condescendí a permitirle que trajera a Ramanujan a mi presencia. Así se presentó una persona baja, de tosca figura, corpulenta, mal afeitada, desprolija, con facciones sobresalientes —ojos brillantes— y con un cuaderno deshilacliado bajo su brazo. Era miserablemente pobre. Se había ido de Kumbakonam buscando en Madrás alguna facilidad para seguir sus estudios. Nunca imploró una prerrogativa. El quería tener horas libres; quería solamente que se le diera lo necesario para subsistir pero sin exigirle que dejara de soñar. Ramanujan abrió su cuaderno y empezó a explicarme sus descubrimientos. En seguida vi que se trataba de alguien excepcional; pero mis conocimientos no me permitían juzgar si hablaba de cosas sensatas o no. Dejé mi juicio en suspenso y le pedí que volviera a verme, cosa que hizo. El calibró correctamente mi ignorancia y me mostró algunos de sus resultados más simples. Estos trascendían de los libros existentes y no tuve ya dudas de que se trataba de un hombre notable. Entonces, paso por paso, me llevó a las integrales elípticas y a las series hipergeométricas y cuando llegó a darme sus resultados sobre series divergentes me tuve que rendir a la evidencia. Le pregunté qué era lo que quería. Respondió que sólo quería una pitanza que le permitiera vivir y seguir sus investigaciones." Ramanchandra Rao ofreció a Ramanujan su ayuda financiera para que pudiera estudiar sin trabajar
pero Ramanujan aceptó el generoso apoyo sólo por unos meses hasta que consiguió un modesto empleo en el puerto de Madras. Aquí pudo terminar la vida matemática de Ramanujan, como terminan tantas vidas en el desaliento, la incomprensión y la oscuridad. Pero, acosado por el aislamiento y la miseria Ramanujan seguía investigando y obteniendo resultados que le parecían extraordinarios. Le obsesionaba no poder saber si eran o no importantes, nuevos y útiles y la obsesión llegó a tal punto que logró vencer su timidez y decidió escribir a un matemático occidental, enviándole algunos de sus resultados y rogándole su opinión sobre ellos. Hizo un primer envío y sus papeles le fueron devueltos sin comentario. Un segundo envío tuvo la misma suerte y solamente el tercero obtuvo una respuesta. No es difícil imaginar el esfuerzo que debe haber significado para Ramanujan enviar aquellas cartas ni el desaliento que debe haber seguido a las dos primeras experiencias. Más bien es sorprendente que haya llegado a la tercera. No sabemos los nombres de los dos primeros destinatarios que, presumiblemente, habrán sido dos matemáticos conocidos de habla inglesa; sabemos, en cambio, que el tercero fue Hardy. C. P. Snow que fue muy amigo de tlardy y que compartió con él la vida en uno de los núcleos más brillantes de la inteligencia mundial en la Universidad de Cambridge, ha relatado en su libro "Nueve hombres del siglo X X " la llegada de la carta de Ramanujan a las manos de Hardy: "Una mañana, a principios de 1913, encontró entre sus cartas, en la mesa de desayuno, un sobre ancho y sucio decorado con sellos de la India. Cuando lo abrió encontró unas hojas de papel de las que no se podía decir que estuvieran nuevas, en las cuales, con una caligrafía muy poco inglesa, había líneas y líneas de símbolos. Hardy las miró sin entusiasmo. Era, por esa época, a los treinta y seis años, un matemático de fama mundial y ya había descubierto que los matemáticos famosos se hallan expuestos a los mentecatos. Estaba acostumbrado a recibir manuscritos de extraños demostrando la sabiduría profética de la Gran Pirámide, las revelaciones de los Sabios de Sión. . . "
Este episodio, que Hardy habría de calificar más tarde como "el único episodio romántico" de su vida, no sólo fue determinante para la vida de Ramanujan sino importantísimo para el propio Hardy que llegó a hacer, en colaboración con Ramanujan, algunos de los trabajos más importantes de su obra matemática. Pero, volviendo a la carta. . . aquellos papeles sucios que Hardy recibió contenían unas 120 fórmulas sin ninguna demostración, algunas conocidas ya, otras obviamente falsas, muchas extrañas e intrigantes. Hardy pensó primero que se trataba de un fraude, luego debió convenir que, si había fraude, era un fraude genial y ya no pudo eludir su obligación intelectual de analizarlo, Antes de la medianoche del mismo día que recibió la carta estaba convencido del genio del autor de aquellas extrañas hojas. Era imprescindible lograr trasladar a aquel hombre a un ambiente propicio para el desarrollo de sus incultas cualidades y Hardy comenzó a actuar desde el clía siguiente. Obtuvo una beca del Trinity College para que Ramanujan se trasladara a Cambridge. Sin embargo, el viaje fue postergado. Ramanujan, por razones religiosas, no podía viajar sin el consentimiento de su madre y ésta consideraba impío que su hijo atravesara los mares. Se necesitó nuevamente la intervención divina. Afortunadamente la madre de Ramanujan tuvo un sueño: vio a la diosa Namagiri quien le ordenó no poner obstáculos al cumplimiento del destino de su hijo. Y, finalmente, Ramanujan pudo ir a Inglaterra en 1914. Es emocionante la pasión con que Hardy se puso en la tarea de enseñar a Ramanujan lo que consideraba imprescindible que conociera, sobre todo en relación con algunos resultados falsos obtenidos por Ramanujan en teoría de números cuya falsedad estaba demostrada, pero mucho más impresionante es ía seguridad con que Hardy consideró siempre a Ramanujan, desde el principio, como superior a él. Ramanujan hizo en Cambridge importantes trabajos en diversas ramas de la matemática, en particular cinco memorias de primera categoría en colaboración con Hardy. Tres años después de su llegada, en 1917, fue nombrado, miembro de la Roy al Society —distinción inusitada para un matemático de 30 años— y Fellow del Trinity College de Cambridge.
Ese mismo año Ramanujan enfermó gravemente. Tenía tuberculosis y era muy difícil cuidarlo: la guerra impedía que pudiera ser trasladado a un clima más benigno y su observancia de los ritos hacía imposible someterlo a dietas alimentarias apropiadas. Al terminar la guerra volvió a la India y el 26 de abril de 1920 —hace cincuenta años— murió en Madrás. La patética historia de Ramanujan tiene, entre otras, una "moraleja" principal: ni el genio, es decir el nivel superior que la inteligencia humana puede alcanzar y que se da sólo en raros individuos de la especie, puede salvarse de las condiciones adversas creadas en un medio de miseria, atraso e ignorancia. ITabrá seguramente otros Ramanujan entre los millones de seres humanos condenados en el mundo actual al hambre, la miseria y la ignorancia, y habrá muchísimos que sin ser genios posean la inteligencia y aun el talento necesarios para descollar en la ciencia o el arte y que se pierden en el más siniestro derroche que la humanidad hace de sus propias posibilidades de progreso. Dr. Manuel Sadosky
Lecturas complementarias G. H. Hardy: Ramanujan. Twelve lectures suggested by his life and work. Cambridge, 1940. Collected Papers of Srinivasa Ramanujan. Edited by G. H . Hardy, P. V. Seshu Aiyar and B. M. Wilson, Cambridge, 1927, pag. XXIXXXVI. (Reimpreso por Chelsea Publishing, New York, 1962.)
51
La Superioridad de los Dinosaurios El paleontólogo norteamericano Roben T. Bakker publicó recientemente en la revista "Discovery", del Museo Teabody, un articulo que aporta opiniones originales sobre la vida y el comportamiento de los dinosaurios, que aquí reproducimos íntegramente.
"D ivODCrC
T 1.
"RilrlreiJDdKKCl
Si? los consideraba lentos, palurdos y desmesurados. Pero, apelando a argumentos anatómicos y fisiológicos, un paleontólogo norteamericano asume la defensa de los grandes reptiles del secundario y demuestra por qué se justificaba la supremacía que ejercieron durante 120 millones de años. Una nueva corriente aparece actualmente en la paleontología. Desde hace más de un siglo, los paleontólogos descubren fósiles, los describen y tratan de mostrar las relaciones que existen entre ellos. Después de haber encontrado una genealogía verosímil, el estudioso consideraba terminado su trabajo y se abocaba al estudio del árbol genealógico de otro grupo. Hoy existe un interés creciente por la reconstitución de los detalles de la vida de los animales desaparecidos (qué comían, cómo se defendían, cómo se reproducían), y en tomo a estos temas se orientan los estudios de un número cada vez mayor de paleontólogos. Generalmente, sólo las partes duras de los vertebrados (dientes y huesos) se han fosilizado, pero los músculos, nervios y vasos sanguíneos y, excepcionalmente, otros órganos blandos dejan, a veces, también huellas en los huesos. La interpretación de esas huellas permite obtener datos sobre la actividad, la fisiología y aun el comportamiento y las costumbres de animales de los que no conocemos sino los restos fósiles. Este nuevo modo de estudiar a los vertebrados fósiles ha aportado argumentos que contradicen algunas de las teorías sobre la ecología y las costumbres de uno de los grupos más populares entre los animales desaparecidos, el de los dinosaurios. Estos imponentes animales eran reptiles cuyos parientes vivientes más próximos son los cocodrilos. En general, los paleontólogos suponían que los dinosaurios vivían como grandes caimanes o lagartos. Los cocodrilos y los lagartos pasan la mayor parte de su tiempo inactivos, calentándose al sol sobre una roca o un tronco de árbol. Además, en relación con los mamíferos, la mayoría de los reptiles modernos son lentos y haraganes. Por ello, se representa habitualmente al dinosaurio como una montaña de carne escamada cuyos movimientos eran raros y lentos. El grupo predominante entre los vertebrados terrestres, antes de la aparición de los dinosaurios, era el de los Sinápsidos que, a lo largo de 100 millones de años, tuvieron una gran evolución: reptiles raros y muy primitivos al comienzo de su historia, se multiplicaron dando tipos herbívoros y carnívoros, algunos altamente especializados. La mayoría de los paleontólogos consideraron que la fisiología y la locomoción de estos reptiles mami-
52
feroides se parecía más a las de los mamíferos activos de sangre caliente que a la de los perezosos caimanes o lagartos modernos. Era necesario tener en cuenta un hecho sorprendente: cuando los primeros dinosaurios y sus parientes cercanos aparecieron, en el período triásico, los sinápsidos comenzaron a desaparecer hasta extinguirse. Los dinosaurios fueron entonces los reyes indiscutidos de la Tierra durante más de 100 millones de años, mientras que los primeros mamíferos verdaderos, los sobrevivientes de los sinápsidos, eran animales de pequeña talla y seguían siendo poco numerosos. Sólo después de la desaparición repentina de los dinosaurios —hace 70 millones de años—• los mamíferos se desarrollaron hasta alcanzar la gran variedad que hoy conocemos. Se plantea entonces el siguiente problema, si los últimos sinápsidos eran animales tan evolucionados y poseían ya la fisiología evolucionada de los mamíferos, en tanto que los dinosaurios eran lentos y perezosos, ¿por qué desaparecieron los sinápsidos y no los primeros dinosaurios? Para responder a esta pregunta debemos estudiar la anatomía, la fisiología y la ecología de los dinosaurios. Lo que más condiciona la actividad de los vertebrados es su postura. Los pájaros modernos y los mamíferos son animales muy activos y casi todos los pájaros y numerosos mamíferos son bípedos, levantados sobre los miembros verticales. Por el contrario los lagartos y las salamandras caminan arrastrándose; los huesos de sus miembros superiores y el fémur son laterales horizontales, exteriores jal cuerpo. Estos vertebrados reptantes son relativamente lentos e inactivos. Los dinosaurios y los pájaros son parientes cercanos y hace ya mucho tiempo que los palentólogos descubrieron que los miembros posteriores de aquéllos eran verticales como los de los pájaros. Sin embargo, el miembro anterior ha sido casi siempre representado en una posición similar a la de los lagartos, con el hueso superior del brazo (húmero) saliente hacia un costado, en posición horizontal. Los dinosaurios reconstituidos que pueden verse en muchos libros y en los museos son muy extraños: el tren posterior se mantiene levantado como entre la mayoría de los mamíferos, pero los miembros anteriores se inclinan hacia el suelo. Esta desmañada posición
e la de un hombre que, al arrastrarse por el suelo índose en los antebrazos (los clásicos ejercicios del :io militar), quiebra su cuerpo para hacer menos so el esfuerzo. La reconstitución de esqueletos y ^presentaciones gráficas dan a menudo la impresión je los dinosaurios eran torpes y pesados, irante los dos últimos años he estudiado la anatomía mecanismo de los miembros anteriores de los verteDS vivientes y he tratado de interpretar los movitos de los miembros delanteros de las formas fósiles, irticular de los dinosaurios, los reptiles mamiferoides primeros reptiles. El estudio de los huesos, de los "ibros, de los músculos ligados a ellos y de la circulasugiere que las reconstituciones de las posturas de los saurios admitidas hasta ahora son erróneas. Entre agartos y los otros animales reptantes cuyo húmero orizontal, la articulación del hombro está inclinada i abajo. La de los dinosaurios era completamente lar a la de los mamíferos en su disposición: la caviglenoidea donde se inserta el húmero estaba inclinada i abajo y muy poco o quizá nada hacia atrás o al ido. En consecuencia, estos animales desaparecidos :n de haber tenido una posición tan erguida y elegante o la de un mamífero,tanto en lo que respecta a sus nbros anteriores como a los posteriores, lay numerosas y evidentes similitudes entre los miemanteriores de los dinosaurios y los mamíferos. En articulación —hombro, muñeca y codo— el miembro rior del dinosaurio se adaptaba perfectamente a una ción vertical y a una marcha totalmente distinta de e los lagartos modernos. Por ejemplo, los mamíferos en un músculo, el músculo redondo, que va desde el le posterior del hombro hasta el húmero. Este múscu•esulta muy útil cuando el brazo se desplaza hacia s. El músculo redondo está apenas desarrollado entre lagartos, pero las huellas dejadas sobre los huesos os miembros anteriores de los dinosaurios indican que núsculo había alcanzado un desarrollo y una fuerza :pcionales. Por ello, existen pruebas de que estos ides reptiles del Mesozoico eran mucho más activos o que habían creído la mayoría de los científicos, .os parientes cercanos de los dinosaurios que viven , los pájaros y los cocodrilos, pueden aportar más ilinación para interpretar la fisiología de aquéllos, en :icular la del sistema circulatorio. Los pájaros tienen corazón muy potente, compuesto de cuatro cavidades, le los lagartos, serpientes y tortugas tiene tres caviday es mucho menos desarrollado. Puesto que los manáis también poseen un corazón de cuatro cavidades, de deducirse que esta característica es sin duda una dición necesaria para una gran actividad. Los únicos tiles modernos que poseen un corazón de cuatro cavíes son los cocodrilos, aunque está menos desarrollado : el de los pájaros. Además, la posición de los coraos es un poco más vertical que la de los otros reptiles ientes. Así, en dos aspectos, circulación y movimiento, cocodrilos muestran un esbozo de las características los vertebrados más activos, pájaros y mamíferos, -.os antepasados inmediatos de los dinosaurios eran los tiles tecodontes, actualmente desaparecidos; algunos esos reptiles tenían esqueletos muy parecidos a los de caimanes y cocodrilos. La estructura de los miembros muchos de ellos muestra que estaban adquiriendo una lición más vertical y algunos eran sin duda bípedos, demos concluir que su corazón evolucionaba hasta paerse al de los cocodrilos. Como hemos dicho, los miem-
bros de los dinosaurios tenían una posición perfectamente vertical. De acuerdo con los elementos de sus esqueletos, los dinosaurios eran mucho más evolucionados que los tecodontes o los cocodrilos y su sistema circulatorio más complejo que el de estos últimos. Es posible también que hayan tenido un corazón de cuatro cavidades, tan eficaz como el de los mamíferos y los pájaros. Por otra parte, el vuelo demanda una importante y constante actividad. Del gran grupo de reptiles al que pertenecían los dinosaurios y los arcosaurios, surgieron dos tipos distintos de vertebrados capaces de volar, los pájaros y los pterosaurios o reptiles voladores. La evolución de estos dos grupos a partir de sus antepasados arcosaurios es una nueva muestra del nivel fisiológico alcanzado por los arcosaurios y en consecuencia por los dinosaurios. Pese a que aún queda mucho por aprender sobre la anatomía funcional de los dinosaurios, su postura similar a la de los mamíferos me ha convencido de que estos reyes del Mesozoico eran criaturas rápidas, ágiles, enérgicas que vivían en base a un nivel fisiológico elevado que sólo pudieron alcanzar los mamíferos más evolucionados. Después de haber considerado los elementos que permiten explicar la fisiología de los dinosaurios y de los arcosaurios más evolucionados, podemos estudiar ahora la ecología de los dinosaurios. El brontosaurio y el barosaurio son ejemplos típicos de los enormes saurópodos de cuello largo y gran cola que constituían las especies corrientes en épocas del Jurásico y el Cretáceo. Hasta ahora, esos dinosaurios, los más grandes entre los vertebrados terrestres, han sido descritos como habitantes de los pantanos, de marcha lenta, alimentados con grandes cantidades de vegetación de agua dulce. Esas costumbres alimentarias se han explicado diciendo que los saurópodos tenían una dentadura «débil», sus fosas nasales indicaban que tenían hábitos acuáticos y sus miembros no eran suficientemente resistentes como para soportar su peso sobre tierra firme durante largos períodos. Pero, en última instancia, todas estas pruebas son demasiado vagas. Respecto a los clientes de los saurópodos, no puede decirse que eran débiles. Estos dinosaurios no tenían dientes sino en la parte delantera de las mandíbulas, pero esos dientes podrían compararse con los incisivos de los mamíferos. Los incisivos de los gamos y de los caballos son bastante fuertes como para arrancar hierba o para romper pequeñas ramas de árboles y sin embargo son pequeños en comparación con los dientes de los saurópodos. Si bien éstos no tenían ningún diente capaz de triturar, ningún molar, se puede admitir que su sistema digestivo efectuaba la trituración mecánica de los alimentos, de un modo similar al de ciertos pájaros. Los cocodrilos modernos tienen paredes estomacales de musculatura muy desarrollada, capaces de violentas contracciones. Los guijarros que tragan y que se ubican a lo largo de las paredes estomacales permiten aparentemente a los cocodrilos destrozar los alimentos. Se ba descubierto el esqueleto de un pequeño dinosaurio herbívoro, el psitacosaurio, en el que se encontraron más de un centenar de guijarros a nivel de las caja torácica, indicando la existencia de un sistema estomacal similar al de los cocodrilos. Piedras estomacales, generalmente llamadas gastrolitos, fueron encontradas igualmente en los esqueletos de los saurópodos; por lo tanto estos arcosaurios pudieron fácilmente triturar los alimentos en su estómago.
53
LA CIENCIA EN LOS LIBROS DE
Centro Editor de América Latina
€ ULTIMAS
Pastando a 12 metros de altura
NOVEDADES
Probabilidades para médicos y biólogos, Fermín J. Alfonso Introducción elemental a los espectros moleculares, Borge Bak Ciencia, política y cientificismo, Osear Varsavsky ENCICLOPEDIA DE HISTORIA DE I A José Babíni
CIENCIA,
Ciencia, historia e historia de la ciencia La prehistoria de la ciencia La ciencia y el milagro griego La ciencia y el siglo de Pericles La ciencia en tiempos de la Academia y el Liceo La ciencia alejandrina La ciencia helenística La ciencia en el período grecorromano La ciencia en la temprana Edad Media La ciencia renacentista Leonardo y los técnicos del Renacimiento La matemática y la astronomía renacentistas Física y química renacentistas ENCICLOPEDIA DEL P E N S A M I E N T O
ESENCIAL
Algunos títulos publicados: Galilea, José Babini Copérnico, José A. Coffa Arquímedes, J. J. Schaffer y P. L, Heller Lavoisier, Leticia Halperín Donghi C. Eernard, Desiderio Papp Laplace, Luis A. San taló Pavlov, Juan E. Azcoaga Freud, Juan Dalma Mendel, Rodolfo V. Tálice Hudson, Juan E, Azcoaga BIBLIOTECA DE PSICOLOGIA
Algunos títulos publicados: Cultura, salud y enfermedad, Margaret Read El yo y el sí mismo, Aída Aisenson Kogan Psicología de la conducta, José Bleger Introducción a la psicoterapia, .Sideny Tarachow Centro Editor de América Latina mís libros para más Rincón 87 - Capital
54
El diplodocus y otros saurópodos tenían fosas nasales ubicadas sobre el cráneo, cerca de los ojos, pero esto no implica necesariamente que tuvieran hábitos acuáticos. Muchos otros vertebrados modernos y otros acuáticos actualmente desaparecidos tenían esta misma característica. Los cocodrilos, por ejemplo, son animales acuáticos pero sus fosas nasales están en la extremidad del hocico, así como otros mamíferos vivos (elefantes y tapires) y algunos fósiles (Macrauchenia, etc. ) tienen fosas nasales ubicadas más arriba, pese a estar adaptados a una vida totalmente terrestre. La significación funcional de la posición de las fosas nasales entre los saurópodos del tipo diplodocus no es evidente, no bastando por sí sola para justificar hábitos acuáticos.
Los miembros de los saurópodos se adaptaban perfectamente a una existencia totalmente terrestre. Entre los mamíferos modernos de posición vertical, se puede encontrar dos clases de miembros: unos, de tipo activo, que permiten galopar a gran velocidad; otros, de tipo lento, que no permiten una marcha rápida, pero son capaces de soportar un peso importante. La diferencia esencial entre esos dos tipos reside en que en el curso del movimiento de tipo lento, el hueso del brazo superior se balancea más hacia adelante y menos hacia atrás, el antebrazo se dobla menos y todo el miembro se mantiene más derecho que en el tipo activo. Los tecodontes evolucionados y los primeros dinosaurios tenían miembros creados para el galope rápido. Sin embargo, entre los saurópodos, los miembros se modificaron por la locomoción lenta y devinieron muy parecidos a los de los elefantes. Las similitudes entre los miembros de los elefantes y los de los saurópodos son evidentes por numerosos detalles; es indudable que ese tipo de miembro evolucionó para soportar un animal pesado sobre un suelo firme y duro. No sólo los miembros, sino la configuración de todo él cuerpo de esos grandes dinosaurios es totalmente diferente de la que se atribuye a los herbívoros acuáticos. Los hipopótamos tienen piernas cortas, poco cuello y cuerpo ancho en forma de tonel. El rinoceronte indio frecuenta los charcos y pantanos y todos los rinocerontes son más bien rechonchos y de patas cortas. Algunos de estos animales, actualmente desaparecidos, tenían una morfología muy similar a la de un caballo y sin duda eran más acuáticos, Aun los carnívoros que aman el agua y los insectívoros, representados hoy por varios tipos diferentes, tienen las formas de las nutrias, con patas cortas y cuerpos redondos. Ahora bien, los saurópodos tenían cuerpo corto, con largas patas y grandes pechos descarnados. Los músculos de la espalda y los ligamentos de los saurópodos eran extremadamente poderosos. La forma del cuerpo de los elefantes se parece mucho a la de los saurópodos, con sus patas relativamente largas y sus cuerpos cortos y fuertes. Por otra parte, los saurópodos tenían una característica que nunca puede asociarse a un mamífero herbívoro que vive en los pantanos o a un reptil: un cuello muy largo. El hipopótamo puede raer el fondo del pantano por simple inmersión: no necesita un largo cuello. Por otra parte, los mamíferos de cuello largo son aquellos que raen la cima de los árboles, lo que les permite alcanzar alimentos inaccesibles para los otros herbívoros. La jirafa moderna es un buen ejemplo de esta anatomía y la morfología de la jirafa se ha desarrollado con frecuencia entre
El Protoceratops de Mongolia era un dinosaurio primitivo con cuernos que medía alrededor de 2 metros de largo. Esto no le impedía galopar, dice Bakker. En estos dos esquemas, vemos la posición al galope, cuando el animal marcha como un bípedo, o al trote, cuando se desplaza sobre sus cuatro patas.
los mamíferos. Muchos camellos fósiles tenían grandes patas y cuellos largos. El mamífero más grande que haya existido, el baluchiterium, era un enorme rinoceronte de largas patas y cuello largo, que pastaba. Es problable que la posibilidad de raer en las copas de los árboles haya sido un factor de importancia en la evolución de este mamífero gigante. Asimismo, los elefantes poseen un equivalente funcional del cuello largo, ya que con sus trompas pueden alcanzar un follaje muy alto. Por ello, los elefantes modernos tienen siempre un área vertical para escoger su alimento, mayor que la de casi todos los otros mamíferos. En épocas de sequía, cuando la vegetación se reseca, esta ventaja puede ser esencial. El gran alcance de su trompa explica sin duda la supervivencia de los elefantes. Los cuellos de los saurópodos eran extremadamente largos —el barosaurio y el braquiosaurio podían raer a 12 metros de altura— y una mayor variedad de alimentación dio sin duda a estos dinosaurios ventajas que contribuyeron al gran éxito del grupo. Las plantas fósiles provenientes de rocas que contenían saurópodos refutan definitivamente la teoría de los pantanos. Los saurópodos son muy comunes en la formación Morrison del Oeste de América del Norte que data del Jurásico Superior. No se sabe que existieran pantanos en esa formación de sedimentos y sus vegetales fósiles son casi invariablemente coniferas terrestres. Actualmente los paleo-botánicos que conocen bien la flora de Morrison creen que no era ni una vegetación acuática ni una jungla
55
tropical, sino más bien un bosque cubierto de coniferas con un suelo rico en helechos y hierbas. Es muy significativo que los árboles más corrientes fueran las coniferas, que no tienen hojas más que en su copa; de modo que sólo los saurópodos podían alcanzarlas. Al contrario de lo que ocurre con las regiones elevadas, los pantanos no son favorables para los grandes herbívoros. Producen mucho menos forraje por hectárea que las planicies o los bosques. Además, la marcha en los pantanos es a menudo peligrosa; no es raro que los elefantes, sobre todo los jóvenes, queden atascados y mueran de hambre. Sólo algunos grandes herbívoros modernos se adaptan particularmente a la vida en los pantanos. Los hipopótamos y los antílopes Sitatunga son los mejores ejemplos. Hasta los roedores son mucho menos numerosos en los terrenos pantanosos que en los bosques o las llanuras. 10 metros de cola Muchos autores pensaron que los saurópodos huían hacia los pantanos para escapar de los carnívoros. Sin embargo, los dinosaurios carnívoros de esa época, como el alosaurio, sabían, sin duda, nadar mejor que los saurópodos. Pese a ser rígida en su extremo, la cola de estos carnívoros, larga y potente, era suficientemente flexible en su base para ser utilizada como un remo. Además, aunque los dedos del pie no tuvieran forma de aletas, los miembros anteriores y los pies eran muy anchos en relación con el cuerpo, susceptibles de ayudar a la natación con fuertes impulsos. Así como el ñu corrido por las hienas está a su merced desde que penetra en el agua, los ramopodios perseguidos por un alosaurio no podían escapar refugiándose en el agua. Sólo les quedaba defenderse utilizando su cola como un enorme rebenque. Los cocodrilos modernos y los lagartos de larga cola, la utilizan igualmente para defenderse. El enorme desarrollo muscular de la vértebra anterior de la cola de los dinosaurios muestra que era extraordinariamente poderosa. Entre algunos saurópodos (brontosaurio, diplodocus), la cola terminaba en una larga y fina punta de rebenque; así como un cocodrilo de tres metros de largo puede levantar del suelo a un hombre adulto, con un golpe de cola, un saurópodo de 27 metros de largo hubiera podido, sin duda, del mismo modo, quebrar una pierna o fracturar el cráneo de un carnívoro contemporáneo como el alosaurio. Existía todavía otro medio de defensa. Los saurópodos podían probablemente levantarse sobre sus patas traseras, sea para golpear con sus pies delanteros o para aplastar al atacante tirándose sobre él. La mayoría de los mamíferos modernos, incluido el elefante, pueden levantarse de ese modo sobre sus patas traseras, aunque las patas delanteras soportan normalmente más peso que las de atrás. El estudio de las huellas fósiles dejadas por los saurópodos muestra que las impresiones traseras tenían dos veces el tamaño de las delanteras, aunque normalmente las patas traseras debían soportar los dos tercios del peso total del animal: es verosímil suponer que eran capaces de soportar sin dificultad todo el peso del animal en caso de necesidad. Una posición como ésta permitía al animal defenderse y también raer todavía más alto el follaje de los árboles. Aunque las ilustraciones nos muestran generalmente a los saurópodos arrastrando sus colas, las huellas fósiles de
56
dinosaurios no muestran casi nunca marcas de la cola. En una manada de filas apretadas, las colas de 10 metros de largo hubieran sido indudablemente aplastadas, si sus dueños las hubieran dejado arrastrar. Por ello, podemos pensar que las colas de los saurópodos se levantaban por encima del suelo. La musculatura de la cola era lo suficientemente poderosa como para sostener a este apéndice. Los grandes saurópodos debieron representar un factor ecológico considerable. Arrancando las raíces de la tierra y rompiendo los árboles para alcanzar las partes tiernas y comestibles, las tropillas de elefantes modernos del Africa pueden rápidamente transformar una selva en un paisaje de sabana. El elefante africano es un elemento esencial para impedir la multiplicación de selvas frondosas en el continente. Sólo una especie de elefantes recorre hoy el Africa; en la época de la Formación Morrison existían no menos de seis especies diferentes de saurópodos que vivían en Colorado, Wyoming y Montana: barosaurios, braquiosaurios, brontosaurios, camarasaurios, diplodocus y haplocantosaurios; en un solo depósito se encontraron hasta cinco especies. De 2 0 a 6 0 toneladas El peso de un gran saurópodo variaba sin duda entre 20 y 60 toneladas, según la especie (un gran elefante de Africa no pesa más de cinco). Las pruebas aportadas por las impresiones sobre el terreno indican que los saurópodos viajaban en manadas; la cantidad de forraje que debió ser consumido por las manadas de las seis especies de saurópodos supera la imaginación. Cuando escaseaban las hojas, estos dinosaurios utilizaban sin duda sus pies y sus garras para partir el tronco de los árboles en busca del corazón comestible. Solo una región boscosa muy rica podía mantener una población tan grande de herbívoros. Las tropillas de saurópodos debieron desplazarse constantemente a medida que las selvas y los suelos se empobrecían. Puede parecer presuntuoso que esperemos encontrar pruebas acerca de la manera como vivían los saurópodos; sin embargo, una sola huella fósil puede ser rica en enseñanzas. Los jóvenes cocodrilos y los jóvenes lagartos viven generalmente apartados de los adultos; podemos concluir que los reptiles adultos no se preocupan demasiado por su descendencia. Pelean entre ellos por los alimentos y tendrían a veces ciertos instintos caníbales hacia los más jóvenes, aun los más pequeños. Por el contrario, entre la mayoría de los pájaros modernos y entre los mamíferos, el clan, la tropilla, la banda o la colectividad, en su conjunto toma a su cargo a los más jóvenes. En Ranch Davenport, Texas, preservado entre las rocas del Cretáceo Inferior (120 millones de años) se encuentra un campo de huellas dejadas por un grupo de brontosaurios, que permiten suponer que tenían formas de organización elaboradas y que constituían una tropilla. Las impresiones más grandes se encontraron en la periferia de la tropilla y las más pequeñas se observan en el centro. Una estructura social de este género es desconocida entre los reptiles modernos, mientras que es muy común entre los grandes mamíferos que viven en tropillas en las planicies de Africa, Asia y América. Una tropilla de estas características tiene más posibilidades de supervivencia, ya que los recién nacidos y los individuos jóvenes que son en general las presas más fáciles para los depredadores, son protegidos por los miembros más fuertes del grupo. Los últimos grupos de dinosaurios que aparecieron
En el esquema superior podemos ver uno de los últimos dinosaurios con cuernos, el Torosaurio, de nueve metros de largo. En el inferior, Bakker ba querido mostrar el modo en que los paleontólogos representaban tradicionalmente la marcha del chasmosaurio Belli, en los museos y los libros de ciencia natural. Las patas traseras están derechas, mientras que las anteriores parecen hechas para reptar. En realidad, su marcha debía ser tan rápida como la de los animales representados en la página 55.
fueros los ceratopsianos o dinosaurios con cuernos. Toda su evolución se produce en la primera parte del Cretáceo. Las primeras especies, como los protoceratops de Mongolia, eran dinosaurios de pequeña talla que no superaban los dos metros. Sus miembros estaban adaptados para el galope y gracias a sus miembros posteriores, mucho más anchos que los anteriores, los protoceratops y sus parierites cercanos, podían correr a la manera de los bípedos cuando alcanzaban gran velocidad. Las articulaciones de los ceratopsianos indican que el húmero se balanceaba como entre los rinocerontes y no como entre los elefantes y que el desplazamiento del antebrazo también era similar al de los rinocerontes. La cola del dinosaurio con cuernos del tipo protoceratops era bastante larga, muy ancha y pesada; sin duda contrabalanceaba el peso de la enorme cabeza, cuando los reptiles sólo se apoyaban en sus miembros posteriores. Aunque hayan sido totalmente herbívoros, la parte delantera de sus maxilares terminaba en un gran pico que debía constituir a la vez un arma defensiva y un órgano útil para atrapar alimentos. Los primeros ceratopsianos no tenían casi cuernos. Siendo mucho más rápidos que la mayoría de los dinosaurios herbívoros, los pequeños ceratopsianos eran seguramente mucho más lentos que los dinosaurios carnívoros estrictamente bípedos. Para defenderse, es posible que los protoceratops hayan actuado como los cerdos salvajes y los jabalíes, que a menudo cargan sobre sus enemigos y los acuchillan con sus defensas. Así, cuando un atacante aparecía en el horizonte, los pequeños dinosaurios de
cuernos debían cargar, atacando con sus poderosos picos para desencajar al adversario y detener su asalto. Entre los últimos ceratopsianos, muchos alcanzaron un gran tamaño, el chasmosaurio, por ejemplo, era tan grande como un rinoceronte moderno; el torosaurio y el triceratops debieron medir 10 metros de largo y pesar cerca de 10 toneladas. Los miembros de los ceratopsianos, aun los más grandes, estaban adaptados sin embargo al galope sobre cuatro patas. El hecho de que estos dinosaurios hayan conservado esta costumbre de galope se relaciona con una conducta a la vez defensiva y belicosa. A diferencia del protoceratops, los últimos ceratopsianos tenían largos cuernos, de diversas formas, sobre su cabeza. En las reconstituciones propuestas a menudo, se ven generalmente cuernos mucho más cortos. La parte interna de los cuernos huesudos de los ceratopsianos era muy parecida a la de los bisontes y los de otros bóvidos. Entre éstos, la envoltura córnea que protege el centro tiene frecuentemente el doble de largo que la parte central y su extremidad es muy fina y puntiaguda. La articulación entre el cuello y el cráneo de los dinosaurios con cuernos les permitía mover sus enormes cabezas con mucha rapidez en todas direcciones. Armados de largos cuernos sobre una cabeza muy manejable, con fuertes picos y posibilitados de alcanzar al galope velocidades de hasta 50 km por hora, estos grandes ceratopsianos deben de haber sido los más peligrosos herbívoros terrestres que en cualquier época hayan existido. Muchos otros grupos de dinosaurios herbívoros, cuadrúpedos en su origen, produjeron también, en el curso
57
de los tiempos geológicos, animales de gran talla, pero sus miembros, su constitución y sin duda sus formas de vivir debían ser muy distintas de la de los ceratopsianos. Los estegosaurios, por ejemplo, tenían miembros muy lentos, parecidos a los de los saurópodos. El armamento de los estegosaurios consistía en placas de protección a lo largo del cuerpo y en largas puntas en la extremidad de una cola, que podía ser rígida o flexible, pero siempre poderosa. Cuando eran atacados los estegosaurios no podían contar más que con las placas ele protección de su cuerpo y en asestar algún golpe de cola mortal. Sin embargo, sus miembros no les permitían alcanzar sino una velocidad inferior a la de los saurópodos, lo que les impedía cargar contra un atacante a la manera de los ceratopsianos. Los dinosaurios con cuernos
Comparación de los miembros anteriores de animdes reptantes o erguidos. A la izquierda: vista de perfil de los huesos del hombro derecho y del miembro anterior. A la derecha: vistas dorsales de esos mismos huesos. Ett A) miembro de un lagarto, en B) de un elefante y en C) de un dinosaurio saurópodo. El húmero y el antebrazo no están representados en el dibujo del perfil del lagarto. Hay que tener en cuenta que en los miembros de los animales que se tienen parados, la cavidad del hombro está inclinada hacia abajo; mientras que entre los animales reptantes se inclina hacia el costado. H: Húmero. S: Cavidad glenoidea.
58
Los ankylosaurios se parecían a los estegosaurios en varios puntos: sus miembros estaban hechos para un movimiento lento, al ritmo del paseo, y sus colas estaban armadas de puntas o apéndices en forma de verdaderas cachiporras. La armadura del cuerpo de los ankylosaurios, hecha de numerosas placas, era más completa que la de los estegosaurios. Sin duda, los ankylosaurios se defendían como ellos, esperando el ataque y buscando el momento de asestar un golpe de cola fatal. No se conocen más que tres clases diferentes de estegosaurios, todas datan del Jurásico. Los ankylosaurios, que no vivieron sino en el Cretáceo, eran seguramente más variados. Sin embargo, ninguno de esos grupos tuvo la importancia de los dinosaurios con cuernos. El armamento particular de estos últimos y su temperamento debieron constituir los elementos esenciales de su éxito. Los especímenes de allosaurios más conocidos en la formación Morrison nos indican que esos animales alcanzaron los 17 metros de largo; los carnívoros del Cretáceo, como el tiranosaurio, tenían tallas idénticas y pesos de hasta 10 toneladas. Eran tan pesados o aun más que los más grandes de entre sus .atacantes, como los leones y otros grandes felinos. Por ello, podemos admitir que una armadura defensiva, compuesta de cuernos y colas con puntas, haya demostrado ser más importante para los dinosaurios herbívoros que para los mamíferos modernos. Las plantas del Cretáceo Superior indican un predominio de regiones boscosas que se parecen a la de Morrison, aunque las plantas de largas hojas hayan reemplazado ampliamente a las coniferas y las eyeas del Jurásico. En estos terrenos descubiertos, los grandes ceratopsianos podían localizar a los tiranosaurios antes que los carnívoros pudiesen intentar un ataque por sorpresa. Cargando a toda velocidad, con la cabeza baja y los cuernos hacia adelante, un ceratopsiano podía seguramente derrotar al más grande de los dinosaurios. La anatomía, la fisiología y la forma de vida están estrechamente ligadas en todo animal viviente. Los saurópodos, en razón de su gran talla, tenían necesidad de miembros adaptados a su marcha. Su enorme talla, sus largas colas y la formación en tropillas brindaban protección contra los enemigos. Los otros grandes dinosaurios herbívoros, incapaces de correr, no eran suficientemente grandes para desalentar los ataques y necesitaban por lo tanto armaduras. Los dinosaurios con cuernos utilizaban a la vez su velocidad y su cabeza bien armada para defenderse de manera tan activa como agresiva. Sobre la base de estas diferentes observaciones y de-
Reconstrucción de un lystrosaurio, tal como el hallado en Coalsack Bluff, en las Montañas Transantarticas, cerca del Polo Sur.
ducciones, podemos comenzar a responder a la pregunta que nos planteamos al comienzo de este artículo: ¿por qué los reptiles mamiferoides fueron en su tiempo derrotados en la competencia con los dinosaurios? Hasta los reptiles mamiferoides más evolucionados, aunque se los represente generalmente como criaturas totalmente bípedas o medianamente erguidas, tienen una morfología similar a la de los lagartos y otros reptiles. Nunca esos dinosaurios evolucionaron realmente hacia una posición vertical de los miembros, como lo hicieron los dinosaurios. Recientemente tuve ocasión de estudiarlos huesos de miembros de mamíferos del Jurásico americano; estos animales tenían también una morfología de reptiles, como la del lagarto. Aparentemente, los mamíferos no adquirieron una marcha en posición vertical racional antes del fin del período Cretáceo, es decir un centenar de millones de años después que los tecodontes evolucionados y los primeros dinosaurios la hubieran adquirido. Actualmente, consideramos a los mamíferos como criaturas activas y ágiles y a los reptiles como rampantes perezosos. Sin embargo, los dinosaurios y sus parientes alcanzaron a mejorar su locomoción mucho antes que los mamíferos y el gran desarrollo de sus miembros fue seguramente una de las razones importantes del éxito de los arcosaurios y la desaparición de los reptiles mamiferoides.
El Profesor-Barton recibió el premio Nobel de química en 1969 (compartido con Odd Hessel, de Noruega), por sus trabajos sobre la estructura de moléculas orgánicas complejas y, en especial, de su conformación en el espacio tridimensional, siendo uno de los creadores de esta rama de la química orgánica llamada justamente "análisis conformacional". Barton pudo llegar a dilucidar la conformación espacial de moléculas de substancias naturales y sintéticas, entre las que se encuentran vitaminas, antibióticos, alcaloides, terpenoides, etcétera, mediante el uso de las técnicas de resonancia magnética nuclear (RMN), en el Departamento de Química Orgánica del Imperial College of Science and Technology de la Universidad de Londres. Durante su estadía en Buenos Aires, que se prolongó desde el 29 de abril hasta el 2 de mayo, dictó dos conferencias en la Facultad de Ciencias Exactas y Naturales y una en la Academia Nacional de Ciencias Exactas, Físicas y Naturles, en las cuales detalló las técnicas utilizadas y los resultados alcanzados por el análisis conformacional, y su importancia, no sólo para dilucidar problemas estructurales de índole teórica, sino para resolver problemas prácticos en la síntesis de substancias orgánicas y, en particular, de aquellas que poseen interés farmacológico. Tuvimos oportunidad de conversar con el Profesor Barton en el Consejo Británico, y transcribimos a continuación sus respuestas a algunas de nuestras preguntas.
CIENCIA NUEVA: Profesor Barton, ¿cuáles son en este momento las principales tendencias de la investigación en síntesis orgánica?
D. Barton: Bueno, creo que estamos viendo un uso mucho mejor de los principios teóricos, a diferencia del pasado, en que había una brecha entre los químicos que hacían síntesis y usaban métodos ya probados y los teóricos, que trataban de predecir nuevas vías de reacción. Si tratamos de comprender los principios teóricos implicados en una síntesis, podremos llegar a un alto grado de predicción. Tenemos que desarrollar nuevos métodos, nuevas reacciones, nuevos reactivos, para aumentar los rendimientos. Hay que desarrollar métodos de síntesis que usan condiciones de trabajo más suaves: la naturale-
za es capaz de sintetizar moléculas extremadamente complicadas en condiciones experimentales sumamente suaves: temperatura ambiente, pH cercano a 7, etcétera. Esta es la tendencia actual en síntesis orgánica: métodos más. sofisticados, condiciones menos drásticas, mayores rendimientos en los productos que se desea obtener. C. N.: ¿Qué puede decirnos en particular con respecto a la síntesis de sustancias biológicas (proteínas, ácidos nucleicos, etc.)?
D. B.: En la síntesis de proteínas, o de DNA, encaramos el problema de unir entre sí un gran número de unidades de conformación muy similar o idéntica, y esta operación debemos repetirla cientos o miles de veces, en la misma forma y en las mismas condiciones. Estas operaciones pueden inclusive automatizarse, como ya se ha hecho en los EE. UU. con polímeros de alto peso molecular. En estos casos, el rendimiento clel proceso debería ser del 99,99 . . . por ciento, para poder sintetizar en forma eficiente una proteína o un ácido nucleico; esto es algo que la naturaleza puede hacer y nosotros tenemos que tratar de imitarla. C. N.: ¿Se puede aplicar el análisis conformacional a com' puestos inorgánicos?
D. B.: Se han publicado trabajos sobre análisis de estructuras de complejos inorgánicos con ligantes orgánicos, pero a compuestos inorgánicos puros no, casi no es aplicable. C. N.: ¿Puede usted esquematizarnos la influencia del análisis conformacional en la actual tecnología?
D. B,: Sí. En la industria farmacéutica, por ejemplo, se sintetizan compuestos en reacciones de muchas etapas. Por ejemplo, en la síntesis de hormonas esteroides, puede haber 40 ó 50 pasos. En algunos de ellos frecuentemente aparecen o se hacen aparecer sustancias con centros de asimetría. Estos centros representan, en la síntesis, un punto a partir del cual sería posible obtener dos productos en lugar de uno. El análisis conformacional nos enseña cuál es el producto que se obtendrá bajo determinadas condiciones, y da la posibilidad de elegir o modificar las condiciones de la reacción para obtener el producto deseado, y no otro. Por lo tanto, tiene cada vez mayor importancia para la industria de síntesis de productos farmacéuticos y similares.
C. N.s ¿En qué medida es posible el desarrollo ael análisis conformacional en un país como el nuestro, que no tiene un desarrollo industrial elevado ni una ponderable cantidad de físicos, químicos, matemáticos, es decir, científicos en general, que puedan dedicarse a esas técnicas?
D. B.: Yo creo que el análisis conformacional puede desarrollarse en cualquier parte del mundo, como otras técnicas de la química orgánica. La creatividad debe buscar lo nuevo, lo que debe venir. Es importante subrayar la trascendencia que tiene cuál es la parte de los ingresos de un país que se destina a investigación pura, sin esperar un beneficio inmediato desde el punto de vista aplicativo. Yo creo que un país como la Argentina debe hacer investigación pura, seleccionando apropiadamente a los investigadores. Y, naturalmente, investigación aplicada, que ofrece beneficios más inmediatos. C. N.: Pero, ¿cómo deben determinarse los lemas de la investigación científica pura y aplicada para evitar el éxodo do investigadores?
D. B.: Creo que la ciencia es una actividad cultural, como otras actividades culturales del hombre. Las contribuciones de cada país a la ciencia pura deben partir de esta base, y se intercambian entre todos los países por medio de las revistas científicas internacionales. La planificación de la investigación ha sido muy discutida en mi país, Inglaterra, así como los porcentajes que deben destinarse a ciencias puras y ciencias aplicadas. Cada país debe hacer investigación pura de acuerdo a los medios de que pueda disponer, seleccionando áreas de investigación, pero la ciencia pura, como dije, es una actividad cultural, y lo que se pueda hacer depende de los investigadores disponibles y de la elección que éstos hagan de sus temas de investigación.
PARA LA CIENCIA Y LA INVESTIGACION
C. N.: ¿Cuál es, según usted, la posición del físico y del químico en su campo de trabajo?
D. B.: Bueno, no es frecuente encontrar en la Universidad físicos y químicos trabajando juntos estrechamente; en la industria es al revés, por ejemplo en la electrónica, donde la conjunción de ambos es imprescindible. En las. técnicas del análisis conformacional, el físico es insustituible porque desarrolla equipos e instrumentos, como en el caso de la resonancia magnética nuclear, y los principios físicos en que se basan. El químico usa después todas esas herramientas para su trabajo de análisis. Hay una broma acerca de los físicos: los físicos hacen mediciones cada vez más precisas sobre materiales cada vez más impuros, mientras que los químicos obtienen sustancias cada vez más puras sobre las cuales hacen mediciones cada vez más imprecisas.
Reactivos puros y analíticos Materiales para laboratorios Aparatos e instrumental científico QUIMICA EROVNE S.R.L. Córdoba 2552 - Tel. 84-8989 y 84-9191 Buenos Aires 61
Correo del lector
Política Nuclear Sres. Directores: En un reportaje a Jorge Sábalo (Para el Prontuario del Plan Nuclear, Ciencia Nueva n° 1, p. 32-46) se hacen varias apreciaciones sobre la política nuclear que creo importante discutir más ampliamente. En primer lugar, afirma Sábato que "Licitar (la adjudicación de Atucha) hubiera sido un mal negocio porque no licitando teníamos una enorme facilidad de maniobra". Se debe señalar que en cualquier caso la facilidad de maniobra de los encargados de compra es mayor cuantas menores condiciones fijas se impongan previamente al contrato, vale decir, que esta mayor facilidad no se limita al caso de la instalación de un reactor, sino que podría generalizarse hasta la compra de papel para las oficinas públicas, por ejemplo. Sin embargo, la licitación tiene una ventaja que Sábato no analiza y es ésta: un pliego de condiciones, público, puede ser estudiado por cualquiera y la adjudicación subsiguiente puede ser o no impugnada por la opinión pública. Esto no es una garantía, por cierto, pero impone una limitación a cierto tipo de acuerdos entre empresas privadas y funcionarios públicos, que por desgracia han sido bastante frecuentes. El escándalo reciente en torno a un concurso de la Municipalidad de Buenos Aires muestra bien a las claras que vale la pena seguir aplicando el régimen de licitaciones pese a que limita la facilidad de maniobra, o quizás por eso. Respecto a la misma Central de Atucha, creo que conviene aclarar que el reportaje a J. Sábato que ustedes publican es una de las primeras (o quizás la primera) explicación pública de las razones de esta adju-
62
dicación que ya tiene dos años de antigüedad. Es muy difícil entonces juzgar qué relevancia tiene para cuestionar la concesión, la experiencia real de Siemens, los problemas que esta empresa tuvo con el funcionamiento de la pequeña planta de Karlsruhe y los actuales rumores de que habría fallado la prueba de seguridad del recipiente de presión para Atucha. En segundo lugar, Sábato afirma que en la primera carga del reactor "empezaremos con 10 ó 15 (elementos combustibles fabricados en la Argentina) el primer año; llegaremos en el segundo año a 50 ó 60; en el tercer año a 80 ó 100 y en el cuarto año trabajaremos con todos los elementos combustibles argentinos" (p. 42). Cabe señalar que aún no está decidida la adjudicación de la construcción de una planta para producir los elementos combustibles y que la puesta a punto de la misma tarda no menos de tres años desde la firma de los contratos de obra. Esto significa que si la Central de Atucha comenzara a funcionar en 1972 como está previsto, no habría elementos combustibles locales y la afirmación de Sábato no parece realista. Por otra parte, ya se ha comprado a Siemens por lo menos una (y algunos afirman que dos) cargas completas para Atucha. Esta demora en adjudicar la construcción de la planta resulta entonces algo así como una adjudicación indirecta a Siemens, que los importa. Respecto a este problema de los elementos combustibles cabe aún otra reflexión: es posible suponer que se puede redactar un pliego de condiciones con todas las precisiones necesarias, puesto que se trata de elementos para una central dada, ya conocida. Sin embargo, lo que se
está haciendo es solo un concurso de ofertas, sumamente impreciso, y nadie ha dado explicación pública de por qué en este caso también se viola la ley sobre licitaciones. Hoy se deciden cosas muy importantes en la materia, y es realmente imprescindible que esas decisiones tengan tras de sí la mayor discusión pública posible. Eso no sería garantía de verdad, pero al menos, sí se garantizaría que de todos los errores cometidos se obtendría el máximo de experiencia. Las decisiones que están al día, entiendo que son: a) si se construyen o no en la Argentina los elementos combustibles para Atucha; b) la privatización —que ya está en marcha, y como de costumbre sin debate previo sobre si esto es siquiera conveniente, y para quién— de la explotación de los yacimientos de uranio; c) si se construyen o no otros reactores de potencia, el tipo de combustible que usarán y otras características de diseño. Respecto de todas estas decisiones, no es aventurado recordar que la participación de una empresa extranjera en todas las etapas del proceso no siempre significa una incorporación efectiva al país de una nueva tecnología. La experiencia argentina es —lamentablemente— muy rica en demostraciones de cómo las empresas exportan —por pago de dividendos, de royalties y otras formas más o menos sutiles— mucho más capital del que introducen, sin que fomenten, por otra parte, ninguna investigación científica o tecnológica relevante en las áreas de "su competencia".
Gustavo Calcagno Buenos Aires
Pedidos Sres. Directores:' Me dirijo a ustedes en respuesta al pedido de opiniones que aparece en vjrevista. En primer término quisiera felicitarles por la idea de publicar una revista como 'Ciencia Nueva" que viene a llenm una necesidad en nuestro idioma. Comparto totalmente la idea de no incluir publicidad, aunque eso encarezca la revista, pero lamento no se haya publicitado la aparición de la misma, de la que pude enterarme por pura casualidad (viéndola en un quiosco de la calle Corrientes). Conozco mucha gente que podría haberla comprado y que no se ha enterado de la publicación. Además, si quisieran comprar el n° 1 no sé como podrían hacer para encontrarla. Me permitiría pedirles algunos artículos que serían de mi interés: 1. Una serie de artículos (o una sección) sobre Filosofía de las Ciencias, que podría estar a cargo del Prof. Gregorio Klimovsky, Thomas Moro Simpson o algún otro especialista. 2. Un artículo en que se hiciera un análisis del desarrollo actual de las distintas ciencias. 3. Una exposición detallada de los problemas teóricos y prácticos que enfrenta la Psicología (y las ciencias sociales en general) para su desarrollo, particularizando sobre la posibilidad y necesidad de medición cuantitativa. Lic. Carlos M. Bohorquez Psicólogo Buenos Aires
El producido de la venta de la revista no cubre los gastos de producción de cada número. Tenga en cuenta, solamente, que la comisión por la distribución y venta insume el 50 % del valor de tapa de los ejemplares vendidos. En tales condiciones es imposible pensar siquiera en mantener la publicación — n o ya en mejorarla y publicitaria— sin aumentar su precio a valores realmente poco razonables. La alternativa tiene —para nosotros— una salida: incluir publicidad siempre que ello no afecte la calidad del material o la independencia de la revista. Nosotros también lamentamos no haber publicitado la aparición de "Ciencia Nueva" n? 1, pero esta revista se creó sin otro capital que el trabajo personal del equipo que la hace.
Respecto a sus pedidos, ya en el n? 2, apareció un artículo de filosofía de la ciencia: Pseudociencia, por el Prof. Mario Bunge, en el que ataca la diferencia del método científico con el usado por la rhabdomancia, la parapsicología y el psicoanálisis. Sus otros pedidos son más difíciles de complacer, exigen encontrarai especialista en esos temas que quiera colaborar. En principio, compartimos su preocupación e intentaremos responderle. Gracias por su opinión. Ejemplares atrasados pueden conseguirse en nuestra redacción.
Agua Anómala Sres. Directores: Existe un doble motivo para mi carta, en primer y principal lugar el felicitarlos por esa vuestra revista que era necesaria para nuestro país por no existir otra de ese género y de venta al público en general. Debíamos contentarnos con las revistas extranjeras. Ahora tenemos la que llamo nuestra revista hecha en la línea de las mejores. El segundo motivo de mi carta es el que paso a exponerle: en su sección "Novedades de ciencia y tecnología" me interesó particularmente la nota "Agua anómala". Su lectura fue muy satisfactoria para mí que contaba con ciertas informaciones sobre el tema, y con la comparación de los nuevos materiales con los viejos saqué mucho en limpio. Ante todo pude comprobar el sensacionalismo con que había sido tomada la noticia ya que en un periódico se había dicho que la densidad del "polywater" era 40 veces superior que la del agua normal, en la misma forma aseguraban que hervía a 500 grados. Yo les pregunto si es fantasiosa también la siguiente información dada por el periódico (La Razón 12/9/ 69) "estiman que tal vez exista en la naturaleza, acaso en arcillas que contienen agua con densidad superior a la normal. No obstante agregaron que era sorprendente que no haya sido hallada nunca en estado natural". ¿Es verdaderamente sorprendente que nunca se haya hallado en estado natural? ¿Puede existir en tales arcillas? De ser cierta la presunción de los ingleses (la particular estructura del vidrio impone un cierto ordenamien-
Antes de que surjan LOS INGENIEROS DE V A R I A S PIERNAS. A n t e s de que surjan los mutantes que anuncien cambios genéticos imprevisibles, c o n v i e n e planificar la marcha de toda obra; simplificar sus caminos; impedir, en suma, que haya que dirigirse hacia v a r i o s o b j e t i v o s al mismo tiempo. Afortunadamente, los especialistas en organización industrial del país y del exterior han perfeccionado el Método de Camino Crítico: tenemos 15 profesionales y técnicos para asesorarlo sobre él. Aval: 90 obras programadas, que cubren más de 300.000 m 2 , y 15 profesionales y técnicos a su servicio.
Estudio
J&. L S Z Diagonal Norte 8 4 6 , piso 3 9 , Oficina 3 0 2 - Buenos A i r e s Tel. 4 0 - 0 3 7 5 y Ó294
63
to a las moléculas) no sería: lógico encontrarla en estado natural. Una hipótesis que hemos considerado con unos amigos: ¿podría el agua anómala ser utilizada para vehículos y por ende evitar el uso de anticongelantes? (o sus propiedades diferentes influyen para que no sea útil). Me he interesado particularmente en la cuestión y su respuesta contribuirá a ubicarnos mejor tanto yo como mis amigos que hemos hecho de la ciencia nuestra principal preocupación. Les reitero mis felicitaciones y deseo^el mejor de los éxitos para que sigan adelante con esa revista imprescindible. Desde ya gracias y quedo a sus órdenes. Luis Alberto Borrero Buenos Aires
Mucho le agradecemos sus conceptos y su opinión sobre la revista; nuestra mayor preocupación es la de mantener ese nivel de seriedad. Su primera pregunta: ¿puede existir el agua anómala en la naturaleza?, no es fácil de contestar, porque por el momento no contamos más que con hipótesis. Alien y Kollman han publicado recientemente una nota en Science (vol. 167, p. 1443), en la cual, en base a cálculos mecánico cuánticos, llegan a la conclusión de que la estructura del agua anómala (nombre que no les gusta, así como tampoco el de poliagua, proponiendo en cambio el de "agua ciclimétrica"), sería mucho más compacta que la propuesta originalmente por Lippincott: seis átomos de O y seis de H formarían un hexágono, y estos hexágonos se unirían entre sí en varias formas, en las tres dimensiones, formándose una estructura quasi-cristalina. Esto explicaría por qué el agua anómala no se encuentra en la naturaleza: su. entropía muy baja (resultado de su elevado grado de ordenación) haría que su formación natural fuese extremadamente desfavorable. Sin embargo, todas estas son hipótesis. En estos momentos se está desarrollando una aguda controversia. Hay quien sostiene que el agua anómala no existe, que los resultados obtenidos no son concluyentes, y que están viciados de nulidad porque las pequeñísimas cantidades de agua anómala hasta ahora obtenida contienen una cantidad tan elevada de impurezas de todo tipo
64
que no pueden considerarse como "agua pura" (por ejemplo Rousseau v Porto en Science, vol. 167, p. 1715-1719, del 27 de marzo pasado ). En cuanto a su segunda pregunta, creemos que posiblemente el agua anómala pueda ser el anticongelante ideal . . . siempre que su existencia real se compruebe definitivamente, y que pueda fabricarse en grandes cantidades y a un precio que compita con los anticongelantes tradicionales. Dada la importancia de este tema, consultamos al Dr. Roberto Fernández Prini, químico argentino que está trabajando sobre poliagua en la Universidad de Maryland (Estados Unidos), cuya respuesta transcribimos:
"No creo que pueda contestarse su pregunta en forma documentada. Probablemente sea éste el caso en que la publicidad ha superado en mucho los conocimientos, y es difícil establecer una clara distinción entre ciencia y ciencia ficción". "El comentario de 'La Razón' que usted menciona debe ubicarse en el terreno de las especulaciones y presunciones. Probablemente provenga de la traducción de una nota aparecida en The Washington Post ( " . . . L i p p i n c o t t , for instance, speculates on the basis of 'indirect evidence' that polywater is responsible for the plástic quality of clay"). Es decir, es una deformación de una especulación. Muchas se han hecho, hasta llegar a la del Daily Mirror que puso en boca de un conocido cristalógrafo la idea que probablemente el planeta Marte tenga agua en forma de poliagua. Dado que aun faltan evidencias concluyentes sobre la existencia de una especie (HaO),, involucrando un tipo de unión intermolecular que no existe en el agua normal, es obvio que las especulaciones sean habituales entre los científicos preocupados por las propiedades tan raras que se han observado en un material formado por moléculas tan conocidas como H 2 0 . En caso de verificarse que el "agua anómala" es un material nuevo, no hay por ahora razones para suponer que no se encuentre en la naturaleza. Debido a que en el laboratorio siempre ha sido preparada por condensación sobre superficies de vidrio o cuarzo, se puede pensar que estuviera presente en silicatos naturales
(como las arcillas). Debe recorda que las cantidades obtenidas en laboratorios no han excedido ur pocos microlitros; por analogía puede pensar que en forma natu también exista en muy pequei cantidades que fácilmente hubiei pasado inadvertidas. En suma, el tado de nuestro conocimiento sol este material es aun muy reduci y el lector debe tener un poco de ciencia. Realmente lo de la "po gua" se presenta más a una "com sación de café" entre científicos < a su divulgación, puesto que los tretelones de los anuncios son que más hacen pensar sobre la i lidad de la poliagua. Dr. Roberto Fernández Pri
Nota de la dirección: En nuestro primer número de C CIA NUEVA, en el artículo de C Noel Martin "los nueve errores de Verne" se ha omitido por error una aclarando que dicho artículo aparecí ginalmente en la revista Science el con cuya autorización lo hemos publ
Hace más de diez años nos volcamos al diseño y construcción de equipos para ingeniería sanitaria, tratamiento de agua, intercambio iónico, filtración, evaporación y otras ! operaciones de la ingeniería | química. En este lapso hemos consolidado un eficiente grupo de ingenieros argentinos en torno de una idea de calidad: TECNOLOGIA ARGENTINA A NIVEL INTERNACIONAL
Nicoli-Salgado S.A. Lima 187 - 37-0555/38-4687 Buenos Aires