Ciencianueva10

Page 1

Revista de Ciencia y Tecnología N°10 / 1971 / $ 3.50 ($ 350 m/n.)

DIALOGO ENTRE HOMBRES Y MAQUINAS IPM •

|

0

Fisiología

del record deportivo

COSMOLOGIA Biología marina


Elegir un acondicionador es un problema de confianza. Fedders resolvió 8.000.000 de problemas de confianza en todo el mundo.

Aquí se llama Fedders/bgh y es el acondicionador de más venta en todo el mundo. Sólo

la

marca

do

un

acondicionador

p u e d e g a r a n t i z a r c o n f i a n z a ! Y s ó f o FEDDERS/ BGH

puedo

el inundo

citar 8,000.000 de g a r a n t í a s

en

le

es una

marca

Sólo

sistema

otorga

condiciones

Esta

de

el

extremas

razón

sub-enfriarniento

mejor de

más p a r a

frío/calor... confiar

on

instalación

por

menor

la

superficie

frontal! Evita zante

roturas

permite

e x c e s i v a s y su c h a s i s el

más

rápido

acceso

desli-

M A S M O D E L O S . . . Y UD. PUEDE UNO

DE

ELLOS!

de

vei.ta!;

poro

puiu

r.adu

U', t < -1 i.

así

Lo h a c o

BGH

necosiduii.

LLEGAR

Fedders/BGH

le

da

su

prestigio

Aritos d o c o m p r a r , pienso e n los 8.000,000 d o a p a r a t o s v e n d i d o s en l o d o Quién

puedo

decir

Sub-erilriainlento científicamente Descongelador

silencio

automático

en

calculado

Filtra

germicida

Controles

Service

de

de

bgh

calidad

Clima

de

-

exclusivos instantánea

vida aquí

Consulte

feliz , . . y en t o d o a

i

limó.

Mitro

M

-

S'.i

,1 t''.';).'.!!,: 1,1 >.|>F • - ,j I.-

importado

respuesta

f.Vir-

tino.' l i l i Km, I 29?. ujIm V.

los

(rio-calor

ul.i-H.

i o-

modelos

r t Mu I' ti 1 MI

mismo?

Con

muralla de

lo

el m u n d o . . .

para

Service.

A

plan

internacional!

rendimiento

FEDDERS/BGH!

Fácil

un

un n i o d i ' l c

en

entero!

Su e x c l u s i v o calculado

Hay como

su a g e n t e

el

mundo! FEDDERS,'BGH

i

i.


•OOO

í

Revista de ciencia y tecnología

r

Los resultados del trabajo científico están condicionados por factores ideológicos, Gregorio Klimovsky explica y discute ese condicionamiento en las páginas 12 a 21.

3 4 5

Enrique Boschi Gregorio Klimovsky Roger Bannister D . W . Sciama

G. E. C. S. Julio Moreno Luis F. Rocha indo,

Manuel Risueño

6 12 27 33 33 34 37 38 47

54 58 59 60 61 62 63

Planes que no son tales Congresos a granel La Universidad olvidada Biología marina y recursos pesqueros Ciencia e ideología Fisiología del record deportivo El resurgimiento de la cosmología observacional Respuesta a Metegol N 9 5 Metegol N 9 6 Ciencia dependiente en la Argentina Humor nuevo Comunicación oral entre hombres y máquinas Novedades de Ciencia y Tecnología 1. 2. 3. 4. 5. 6. 7.

O t r a "interminable" G u s t o eléctrico E l primer elemento superpesado Manzanas sin manzanos Calcitonina: Una h o r m o n a recientemente descubierta Proteínas primitivas: catálisis por arcillas El diagnóstico d e la leucemia

Cuadrillas El filtro de las noticias Cursos y reuniones científicas Libros nuevos Comentarios de libros Correo del lector Indice analítico 1 9 7 0 - 1 9 7 1

De las opiniones expresadas en los artículos firmados son responsables exclusivos sus autores.


¡Ilili A ñ o II / N" 1 0 / M a y o 1 9 7 1 / B u e n o s Aires Av. Roqne Sncnz Peña 825, 4 * piso, Of. 4 3 - Buenos Aires Tel.! 4 5 - 8 9 3 5

Es una publicación de Editorial Ciencia Nueva S.R.L., Av. R. Sdenz Peña 825, 4? P., of. 43, Buenos Aires, República Argentina, Tel.: 45-8935. Distribuidores: en la República Argentina Ryela S.A.I.C.I.F. y A., Paraguay 340, Capital Federal, Tel.: 32-6010 al 29; en Capital Federal, Vaccaro Hnos,, S.R.L., Solís 585, Capital Federal. Impreso en Talleres Gráficos D I D O T S C A., Luca 2223, Buenos Aires. Precio del ejemplar: ley 18.188 $ 3,50 (m$n 350). Suscripciones: Argentina, ley 18.188 $ 4 0 (m$n 4.000) por año; exterior, por vía ordinaria, u$s. 15 anual. Registro de la propiedad intelectual n° 1.049.414. Hecho el depósito de ley. Derechos reservados en castellano y cualquier otro idioma para los trabajos originales, y en castellano para colaboraciones traducidas.

Ricardo A. Ferraro

Director

Héctor Abrales Daniel Goldstein Ricardo Schwarcz Hernán Bonadeo

Asesores

Horacio Speratti

Secretario de redacción

Lucía Bonadeo Katia Fischer Ana Tedeschi

Redacción

Isabel Carballo Fernando Díaz Julio Moreno

Diseño gráfico Dibujo Humor

Hebe Mitlag María Susana Abrales Caracas: Pascual Llórente F r a n k f u r t : Jan Kovarik Haifa: Eduardo Fischbein Londres: Eduardo Ortiz Nueva York: Roberto Lugo París: Jorge Schvarzer Praga: Jan Rehacek San Pablo: Ricardo Albizuri Santiago de Chile: J. Pablo Schifini New Scientist; Sciences; Science et Avenir; Science-Progrés-Découverte; Science et Vie; Science Journal; Scientific World; Sapere; Cooperaron fechnique; Science Service; Associated PressA P N ; TASS; C T K ; A D N ; Agencia D A N ; ICA press'.

Producción Secretaria Corresponsales

Servicios del exterior

-aa -o 1 * c £ *:2 ¡7> a a> •C c ° U

-Q CS ffS a c 8:§ E. u Ci Cu

ON11N39HV OZMOO


Planes que no son tales

tífica; p o n e en segundo lugar la orientación de los La Secretaría del Consejo Nacional de Ciencia y Técesfuerzos hacia la aceleración del desarrollo. nica ha elevado a la Presidencia de la Nación u n ambiLa planificación a largo plazo de la infraestructura cioso Plan Nacional d e actividades científicas y tecnolócientífica n o es exactamente u n objetivo o , mejor aún, gicas que comienza por una evaluación de la situación requiere el preestablecimiento d e objetivos a cuyo serviactual en esas áreas. El documento de la S E C O N A C Y T , cuyo estudio en profundidad podría estar sólo al alcance cio estará esa infraestructura y toda la evolución posde los sectores más específicamente afectados, muestra terior q u e su existencia y f u n c i o n a m i e n t o condiciona. sin embargo algunas carencias y simplicidades a nivel H e c h a esta inversión conceptual que coloca las cosas en su justo lugar, los verdaderos objetivos que deterelemental. , Es evidente y claro que ningún plan puede elabo- minarán el planteo de arranque y el ajuste de esa inrarse que no tenga como p u n t o de partida una ^evalua- f r a e s t r u c t u r a , n o se mencionan en el referido plan. E l segundo objetivo, planificado a mediano y corto ción objetiva d e la situación actual y esto es válido en plazo — l a aceleración del desarrollo— es n o sólo previo cualquier campo o actividad. Así lo reconoce la organización del citado documento y por ello las críticas a la planificación de una infraestructura, sino q u e adeq u e se sitúen sobre la calidad de realización de esta m á s es válido especialmente a largo plazo, si se pretenetapa previa, adquieren magnitud fundamental, p o r q u e d e que los resultados coincidan con las necesidades del c ™ M A r v T los errores cuestionan la validez de t o d o el plan que país al q u e pretenden ser aplicadas La p a r t e programática del plan de la b tCUNACl x se estructure a partir de este supuesto. destaca la importancia de alcanzar las m e t a s fijadas en El documento de la S E C O N A C Y T parece negar importancia a esta evaluación previa ya que, en general, materia de recursos humanos. P e r o las estimaciones n o explícita las fuentes y menos aún los mecanismos q u e aporta en esta materia no pueden siquiera consideutilizados para deducir cifras e informaciones sobre la rarse optimistas, son irrealizables. La S E C O N A C Y T estima el potencial científico acsituación actual de la ciencia y la tecnología en el país. tual del país e n 33.315 personas — 1 2 . 5 9 6 calificados Por ejemplo, n o surge del informe la distribución entre las distintas disciplinas científicas y técnicas de como " p e r s o n a l científico"— y p r e t e n d e alcanzar la los equipos y de los recursos humanos que están a cifra d e 4 4 . 3 0 0 investigadores en 1 9 8 0 . Ni las cantidades ni los plazos parciales están conectados con la disposición y en uso actualmente, información! q u e parece básica, elemental e indispensable para lanzar realidad c u a n d o se las compara con la producción actoda planificación. E n algún momento sostiene — s i n tual de profesionales universitarios, el necesariamente fundamentación analítica— que el sistema universita- p e q u e ñ o porcentaje d e ellos q u e se vuelca a la investirio nacional " . . . f a c i l i t a la corrección de deficiencias gación científica y el tiempo inevitablemente necesario ; y amplía las posibilidades de crecimiento d e todo el para la 'formación de estos investigadores. Si la demostración de lo enunciado precedentemente sistema". N i siquiera en ciertos sectores universitarios bien identificados e identificados con la actual conduc- requiere el manejo d e cifras que excedería las posibilición universitaria nacional, se podría originar una afir- dades d e este análisis crítico, resulta evidente en cammación tan temeraria acerca de u n sector que es esen- b i o que el plan no especifica en qué áreas y en que cial al desarrollo científico y que vive en estado de especialidades serán distribuidos estos recursos humanos y ni siquiera — y esto resulta especialmente signiperpetua crisis, agravada por las consecuencias — e n el plano profesional y en el ideológico— de la interven- ficativo— q u é papel le corresponderá a la universidad e n la formación de los postgraduados. Todo esto no : ción violenta de 1966. hace sino reafirmar la falta de objetivos concretos de E n resumen y en cuanto a la valoración del sistema actual de ciencia y técnica, el documento no pasa de ser " T a n i m p o r t a n t e le parece a la S E C O N A C Y T la foruna suma de datos — c u a n d o los h a y — q u e no llega a mación de recursos humanos que olvida que sin insintentar un verdadero análisis. r r n M i m C t r u m e n t a l y sin edificios ese potencial h u m a n o resulta E n otra parte, el documento de la b h C U J N A L , i i inútil. T o d o s los organismos científicos argentinos, casi señala dos objetivos para la política científica nacional. sin excepción, están limitados en su desarrollo por xa Antepone la creación de u n a adecuada estructura cien-


carencia de equipos adecuados y de lugar físico donde desenvolverse. En 1980 —siempre según el plan— habrá casi cuatro veces más personal trabajando con esos equipos y en esos laboratorios. ¿Con qué instrumental trabajarán? ¿En qué lugares serán ubicados? ¿En qué plazos se comprarán esos equipos y se construirán o adecuarán esas instalaciones? Son todas preguntas que n o tienen respuesta dentro del plan, son interrogantes que sus realizadores no se propusieron. Cómo no pensaron, asimismo, en la formación y ni siquiera en la necesidad de personal técnico auxiliar para los laboratorios, cuya carencia es ya mismo un grave problema en la actividad científica nacional. O t r o aspecto del plan que analizamos, se refiere a la transferencia inmediata del producido científico a los sectores económicos correspondientes. Este objetivo de índole social que marca la trascendencia esencial del trabajo científico, tampoco ha sido suficientemente elaborado en el plan que aquí analizamos. Es difícil entender, por ejemplo, cómo puede estar dirigido al desarrollo nacional sin prever el concurso y la participación de la industria manufacturera. El plan de la SECONACYT legisla en forma omnímoda sobre el futuro de la investigación científica nacional y requerirá para ello un enorme esfuerzo económico. Sin embargo fue realizado exclusivamente por la Secretaría del CONACYT sin consulta cqn los organismos de investigación, centros, comisiones, universi-

dades y demás entidades directamente afectadas. Claro que siempre la SECONACYT ha procedido así y es ahora una excepción que las conclusiones hayan sido elevadas —una vez finalizado el trabajo— a conocimiento de los directamente interesados. Es la primera vez que esto sucede. Pero no por ello deja de parecer increible el hecho de que no se haya llamado a la comunidad científica a participar en la elaboración del plan, desde sus formulaciones más elementales. Nuestro propósito no es, por supuesto, realizar un análisis exhaustivo del plan de la SECONACYT, sino marcar algunas de las carencias y contradicciones más evidentes que hacen resaltar la escasa profundidad en el análisis y en el proyecto de la política de desarrollo de un sector de la actividad nacional, cuyo trabajo es fundamental para la proyección futura del país. Tampoco es nuestra tarea proponer respuesta a estos interrogantes a través de un análisis como el que la SECONACYT ha omitido. Pero no dudamos que la comunidad científica argentina tiene esas respuestas y que se brindaría con entusiasmo a su discusión. Sólo es necesario que se reconozca que son preferentemente los científicos a quienes corresponde participar en el análisis de la problemática y la proyección de su propia actividad. Y es a partir de y juntamente con ese análisis que debe integrarse el proyecto en el contexto social, político y económico que otros organismos deben programar para el futuro argentino. O

Congresos a granel ¿Para qué sirven los congresos científicos? La evidente respuesta no resulta tan evidente si nos guiamos por el cuestionario —y sus respuestas— que la revista norteamericana Industrial Research' presentó a sus lectores. La segunda pregunta, por ejemplo, planteada con sangre fría anglosajona, va directamente al grano: ¿Qué es lo que lo impulsa a frecuentar este tipo de reuniones? Quizá algunos juzguen insolente la lista de respuestas posibles que sugiere que se puede ir a un congreso para hablar u oir hablar de su tema de trabajo, pero también para conseguir un nuevo e m p l e o . . . o para "otra cosa". La "otra cosa", no lo dudemos, es el turismo. Es inútil negar las evidencias; hace mucho tiempo que los científicos se han dado cuenta que hay una multiplicación de congresos en lugares de interés turístico y en las épocas más agradables. La revista francesa La Re-

4

cherche comentaba hace poco la monstruosidad de ciertas reuniones, por ejemplo el» Octavo Congreso Internacional de Bioquímica que necesitó tres ciudades para su sede. Por supuesto que es necesario favorecer la comunicación entre científicos y no creemos conveniente criticar el principio de este tipo de reuniones. Pero hay que evitar aberraciones, aún en el interés de esa misma comunicación y del trabajo de investigación. Por eso mismo Industrial Research pregunta acerca de la limitación de participantes y del número de congresos por año. El turismo científico es bueno —eso es evidente, al menos para los científicos—. Para la ciencia es menos evidente. Los congresos, como los dinosaurios, sufren de gigantismo. Recordemos lo que les pasó a los dinosaurios. <C>


La Universidad olvidada i n

• j X

1 X

El 19 de abril último, el doctor Andrés Santas, designado por el Poder Ejecutivo para actuar como rector de la Universidad de Buenos Aires, declaró que "la universidad argentina necesita — y con urgencia— modificaciones substanciales. Si ellas no se producen, será superada por los acontecimientos y desaparecerán las posibilidades de un acelerado desarrollo nacional polla ausencia de quien tiene la obligación de promoverlo y dirigirlo". Placiendo caso omiso de la afirmación aristocratizante que implica que el desarrollo nacional debe ser promovido y dirigido por la Universidad, lo cual merecería discusión especial, interesa aquí señalar la "urgencia" repentina de "modificaciones substanciales". No se trata tanto de averiguar si la Universidad funciona más o menos bien ahora que antes de julio de 1966. Esto conduce, irremediablemente, a una discusión bizantina y, en definitiva, permite a los actuales responsables de la conducción universitaria admitir, sin mayor dificultad, que es verdad que ahora hay problemas pero que antes también los hubo. La cuestión es enteramente otra. Independientemente del juicio de valor que permitiría apreciar si era buena o no la Universidad anterior al 66 y de la validez universal de la autonomía universitaria — q u e aquí y ahora juzgamos imprescindible— lo que ahora interesa es otra cosa. Hasta 1966 había una Universidad gobernada por representantes de tres claustros. Después de cinco años de tropiezos e ineptitud y andando contra la corriente mundial que ha impuesto en todos los países la necesidad de incorporar la representación estudiantil en el gobierno universitario, las actuales autoridades universitarias tienen como objetivo poner dificultosamente en funcionamiento una Ley Universitaria que autoriza al Poder Ejecutivo a nombrar rectores y decanos por otros cinco años, independientemente del consenso de los claustros. Lo peor son los magros frutos de tantos retrocesos. Es verdad que, si se considera "excepciones" —según la definición del ex ministro Cantini, quinto de los hasta ahora seis— a los numerosos grupos de investigación que se desintegraron en 1966, hay otros grupos que siguen investigando, pero la sumisión de unos, el sofocado rencor de otros y la apatía de los más, no parece haber creado el clima universitario más propicio.

Hay un personaje singular dentro del actual elenco de autoridades universitarias, que permite dar una idea de ese clima. Se trata del geólogo Raúl Alberto Zardini que oficia de decano de la Facultad de Ciencias Exactas. Hace pocas semanas, a raíz de declaraciones formuladas por el ex Rector de la Universidad de Buenos Aires, doctor Julio IT. G. Olivera, el señor Zardini aclaró públicamente que la Universidad no fue intervenida en 1966 y se espantó ante la posibilidad que pudiera dudarse de la legitimidad de los concursos realizados con posterioridad a esa fecha. Pero no se limitan a eso sus extrañas concepciones. Poco después consiguió asombrar a la opinión pública con sus fantásticos juicios sobre el segundo pabellón de la Ciudad Universitaria de Núñez y el terror que le inspiran los estudiantes. Dijo: "Lo que pasa es que fue hecho (se refiere al edificio que fue proyectado por especializados arquitectos argentinos de renombre internacional) con intenciones políticas, por los comunistas, durante el gobierno tripartito. Tiene sólo dos entradas para 4 ó 5.000 alumnos y de los 70.000 metros cuadrados que ocupa, más de la mitad se reparten en pasillos y un inmenso patio central que — a mi juicio— tiene un sólo objeto: bien puede servir a concentraciones. Nadie se puede engañar sobre la situación universitaria mundial. No existe control, no es posible en tamaño edificio; es una fantástica concentración de alumnos (como es la Ciudad Universitaria) que se convierte en un lugar ideal para guerrilleros urbanos. Fíjese que las calderas (el corazón del edificio) están separadas del corredor, al que da una serie de aulas, por sólo un vidrio". No es necesario juzgar al señor Zardini; basta con dejarlo opinar. Y en eso estamos. A 150 años de la creación de la Universidad de Buenos Aires, la opinión pública no logra entender qué se proponen las autoridades nacionales err el campo de la enseñanza superior. Los funcionarios que ejercen cargos al frente de las universidades salen de su mutismo y expresan sus preocupaciones como si no tuvieran responsabilidad alguna en lo que ha ocurrido y ocurre. El decano Zardini habla como un alucinado de los propósitos siniestros que inspiraron la construcción de la Ciudad Universitaria, mientras la comunidad universitaria sigue sin participar en la elaboración de una salida para esta crítica situación. O


Biología Marina y recursos pesqueros Entrevista a Enrique Boschi

demos decir que estamos estudiando los moluscos, los peces, los crustáceos, su importancia comerdal, su composición química, se están haciendo también estudios Enrique E. Boschi: El Instituto tiene por finalidad la microbiológicos, especialmente relacionados con las bacinvestigación en las ciencias del mar, tanto en el aspec- terias que se desarrollan durante el deterioro del pesto puro como el aplicado; aplicado en el sentido de la cado, así como estudios de los lípidos de ciertos orgaevaluación de los recursos pesqueros y la explotación nismos marinos que se alimentan de fitoplancton, esturacional del mar y puro en la que respecta a los proble- dios de la productividad del mar, e inclusive cultivo en mas básicos de la biología marina en sí, sin relación laboratorio de algunos organismos del fitoplancton. En con una utilización inmediata. El Instituto desarrolla especial, se están haciendo estudios del plancton marino asimismo una labor docente, al mayor nivel que es en relación con algunos organismos típicos como los posible ofrecer, es decir, enseñanza de pos-grado o para copépodos (pequeños crustáceos) y los eufausidos alumnos que estén por terminar la carrera. En cuanto (crustáceos muy importantes en la alimentación de ala investigación, se ha desarrollado una labor que con- gunos peces y otros animales marinos, como las ballesideramos bastante importante y en estos diez años se nas). Además se están llevando a cabo estudios sobre han publicado más de 170 trabajos relacionados con el desarrollo gonadal de las especies de interés comerdiversos aspectos de las ciencias del mar. cial, es decir, se está interpretando su ciclo de reproducción. También se lleva a cabo en forma permanente el estudio de los desembarques en el puerto de Mar C. IV.; ¿Con qué fondos cuenta el Instituto y cómo está del Plata para lograr información sobre la captura: taorganizado? maños, distribución, sexo, edad, etcétera, de la poblaE. B.: Los cuatro organismos de los cuales depende ción en explotación. contribuyen económicamente, tanto para instalaciones y equipos, como para sueldos y gastos administrativos. La contribución no es igual; en este momento el mayor C. N.: ¿Qué relación hay con el Proyecto de Desarrollo aporte viene de la Universidad de Buenos Aires. La Pesquero de la FAO? Comisión de Investigaciones de la Provincia de Buenos Aires también nos alienta mucho, tanto desde el punto E. B.: El trabajo que hemos realizado en colaboración de vista económico como moral. Nuestro presupuesto con el Proyecto de Desarrollo Pesquero de la F A O ha en 1969 fue de 40 millones de pesos moneda nacional reforzado mucho nuestra actividad en los últimos años. y el de 1970 de 60 millones. En cuanto a la organiza- Este proyecto se inició en 1966 y tiene por finalidad ción, en el cuadro figuran los diversos laboratorios y la la evaluación de la riqueza pesquera de la Argentina, función de cada uno de ellos; como verán todos con- Nosotros hemos colaborado con la F A O en los aspecvergen a una actividad general. En líneas generales po- tos biológicos y al hacerlo, tuvimos la ventaja de poder utilizar embarcaciones de pesca y de investigación pesquera para recorrer el mar en distintas latitudes. Nosotros esperamos disponer dentro de pocos meses de Enrique Boschi es doctor en Ciencias Biológicas, nuestra pequeña embarcación propia. egresado de la Facultad de Ciencias Exactas y Naturales de la UBA, en cuyo Departamento de Biología es profesor titular. Está especializado en biología marina C. N,: La organización del Instituto en diversos laboratoy biología pesquera, estudió Ciencias del Mar rios, ¿está decidida en base a una planificación con miras en el Institute of Marine Sciences de la University of a determinados objetivos, o parte del interés de uno o un Miami. Actualmente está a cargo de las investigaciones grupo de investigadores? camaroneras del Proyecto de la FAO en la Argentina y desde 1966 se desempeña como director del Instituto E. B.: El Instituto comenzó a funcionar —como la made Biología Marina al que pertenece yor parte de las instituciones del país— por iniciativa desde su fundación. CIENCIA NUEVA: Doctor Boschi, ¿cuál es la finalidad del Instituto de Biología Marina?

6


de un grupo de interesados en la ciencia del mar. Ese primer grupo de personas organizó los primeros laboratorios, de acuerdo con las posibilidades humanas disponibles en ese momento. Pero ahora la investigación se va orientando según una planificación bastante coordinada y está dirigida en gran medida hacia lo que es la evaluación de recursos. Si alguien desea estudiar, por ejemplo, la estructura de un pequeño animal marino, podemos pensar que su intención es buena, pero para los fines del Instituto quizás resulta difícil ubicarlo en nuestra actual organización. En este momento el Instituto tiene estos diez laboratorios y tenemos pensado ampliarnos y enfocar otros aspectos, pero siempre dentro de estos lincamientos generales. C. N.: ¿Quiere decir entonces que el común denominador de todas las actividades es la evaluación de nuestros recursos pescfueros?

E. B.: Exactamente, pero sólo en líneas generales, porque hay otros aspectos que aparentemente no tienen importancia directa pero en realidad la tienen, como el estudio de los organismos que sirven de alimento a los peces o a los crustáceos y tenemos gente estudiando eso. O la composición química de un organismo, o la identificación de otro. Nosotros tenemos bastante amplitud y permitimos que los investigadores puedan moverse dentro de esas líneas un poco de acuerdo con sus propias inquietudes y más de uno —incluyendo los de mi grupo que trabaja en crustáceos superiores— hacemos cosas que no tienen importancia directa, como estudiar el desarrollo larval de un crustáceo que no reviste interés comercial. Pero, naturalmente, se da preferencias al estudio de especies de interés comercial, con el objetivo de conocer sus reales potencialidades. C, IV/: ¿Trabajan por zonas?

E. B.: Naturalmente, como el Instituto depende en gran parte de la Provincia de Buenos Aires, tiene como recomendación particular estudiar en primer lugar el litoral de esta provincia. Y eso es lo que hemos hecho, porque por otra parte la mayor producción pesquera se lleva a cabo en esta región. Lo cual no significa que no vayamos más lejos: en el caso de los camarones y langostinos, por ejemplo, Rawson ha sido y es un importante centro de producción y allí vamos muchas veces. Con el buque de investigaciones "Cruz del Sur" hicimos algunas campañas bastante amplias, a latitudes mayores. Naturalmente, el grueso de nuestro trabajo se desarrolla en el litoral de la Provincia de Buenos Aires, porque nuestra misión es ésta y además porque es la región de mayor captura comercial en la actualidad, pero ciertos peces, como la anchoita, a veces migran hacia el norte, a veces hacia el sur, y hay que seguirlos en sus migraciones, aún si sobrepasan los límites marinos de dicha provincia. C. N.: ¿Significa esto que la plataforma submarina de la Provincia de Buenos Aires es la más rica o que es la más explotada?

E. B.: Es la más rica en peces, especialmente en el sector entre 200 y 400 m, donde se encqentra el mayor

El Instituto de Biología Marina Por acuerdo entre la Universidad de Buenos Aires, la Universidad Nacional de La Plata, la Universidad Nacional del Sur y la Gobernación de la Provincia de Buenos Aires, firmado el 17 de noviembre de 1960, se creó el Instituto de Biología Marina, con la finalidad de estudiar los problemas del mar en el más alto nivel científico, así como los aspectos tecnológicos y culturales conexos. La Provincia de Buenos Aires, como principal aporte, cedió el edificio que es actual sede del Instituto, ubicado en Playa Grande, Mar del Plata. El primer director del Instituto fue el doctor Santiago R. Olivier. El Instituto de Biología Marina depende de la Universidad de Buenos Aires por intermedio de la Facultad de Ciencias Exactas y Naturales, de la Universidad de La Plata por intermedio de la Facultad de Ciencias Naturales y Museo, de la Universidad del Sur por intermedio de su rectorado, y de la Provincia de Buenos Aires por intermedio de la Comisión de Investigaciones Científicas. Su autoridad máxima es el Consejo Directivo, integrado por un miembro titular y uno suplente de cada una de las instituciones nombradas, el cual elige al Director del Instituto. Un Estatuto rige las actividades docentes, científicas y administrativas. Actualmente trabajan en el Instituto 24 investigadores universitarios con dedicación exclusiva, muchos de los cuales se han especializado en el extranjero, así como 28 técnicos y ayudantes de laboratorio, y una pequeña organización administrativa. La actividad docente comprende un curso anual de Oceanografía Biológica, además de numerosos seminarios, cursos especiales y traToajos de tesis. La relación con la FAO, con sede en Roma, es muy estrecha: el convenio con el Proyecto de Desarrollo Pesquero data de 1966. En setiembre de 1970 un investigador del Instituto fue invitado a dictar un curso sobre Evaluación de Recursos Camaroneros en México. También hay actividades conjuntas con la UNESCO, como el Curso Latinoamericano de Planctología realizado en 1965 y los cursos anuales de ictiología. El Instituto posee una biblioteca especializada que recibe más de 400 revistas de todo el mundo, edita como órgano oficial un Boletín, del cual ya se han publicado 20 números, y un Boletín Informativo. Las contribuciones a revistas especializadas, principalmente del extranjero, suman más de 170. El director del Instituto de Biología Marina es el doctor Enrique E. Boschi. O ,

7


INSTITUTO DE BIOLOGIA MARINA Universidades

nacionales

de

Buenos Aires, Ln Plata y del

Sdt

Gobierno

lab.

L¿b.

Lab.

Lao.

ZOOPIANCTOH

ECOLOGIA

CARCINOLOG1A

BIOLOGIA PECES

EENTOMCA

!

DE

!

iiír.tiidio ü(? c o p é -

1 Zonacion ¡doral.

podos.

Comunidades

Taxonomía.

rina'.;.

pesquera.

Disíribui'.ion

Incrustaciones.

í'oerjeografia.

ma- p e d o s -

Biología

Biología. Evaluación.

Lab.

BIOLOGIA

QUIMICA

DEL

PESQUERA

AGUA

MAR

l

DE

evaluación.

do

universitarios y seminarios oceanográficas

Colaboración

con

e internacionales Asesoramiento (FAO)

Divulgación

BIOESTAOISTICA

II

mica do

1

i do

de

pas-

Biomasa

Desarrollo dal

harinas cado.

pescado.

Lípidoa.

quí- Frescura

zoo-

planctónica.

do

ds peces

ciales.

1 gona-

especies comer-

Cáiculo tico la

estadís-

aplicado

biología

a

pes-

quera v ecología

Productividad.

instituciones {becas,

-

nacionales

cursos, etc.)

a empresas

C o n v e n i o c o n el P r o y e c t o Pesquero

Lab.

HISTOLOGIA

Productividad.

Evaluación.

Campanos

Lab.

BIOQUIMICA

quí- C o m p o s i c i ó n

ciG3

Cursos

Lab.

BIOQUIMICA

l

o;;po- C o m p o s i c i ó n

comorciales. mica del agua do mar. huevos y larvas Merluza. Nutrientes. d o p e e f ¡ 8 c o r n e r - C o b a lia. Gases disueltos. cinlos. Anchoita. abundancia

Lab.

1

i

Biología de

y

do Bs. As.

Lab.

1 üt>sarrollo

d e ta P e l a .

pesqueras de

-

Desarrollo

e n la A r g e n t i n a •

cientilica - extensión

rendimiento en peces demersales, que son los que viven cerca del fondo, como la merluza, la castañeta, el abadejo, el róbalo, etcétera. Además hay en esta región una gran riqueza en peces pelágicos, como la anchoíta, la caballa, el bonito y otros, que son muy abundantes desde el norte de la Patagonia hasta la boca del Río de la Plata. Por eso nuestro mayor esfuerzo se lleva a cabo en esta región, especialmente en aguas marinas.

cultural -

C. ZV.: La información que surge de estos trabajos, ¿es utilizable por la industria pesquera? En otras palabras, los pescadores y las empresas pesqueras, ¿se benefician con estas investigaciones?

E. B.: El problema de la industria pesquera es muy complejo. Nosotros ni siquiera tenemos mucha autoridad para opinar sobre las razones del porqué se consume poco pescado. Lo cierto es que la producción pesquera ha disminuido. ¿Por qué se pesca menos? No necesariamente porque haya menos pescado; se pesca C. N.: Para estos estudios, ¿aporta la FAO al Instituto menos porque hay menos demanda. Y hay menos derecursos económicos directos? manda por muchas razones, sobre todo de tipo econóE. B.; En el proyecto en colaboración con la F A O mico, de distribución, de buena administración, de hay un aporte total de unos 3 millones de dólares; competencia con las carnes rojas, de una propaganda nuestro gobierno pone 1.600.000 dólares y el Fondo correcta, en fin, de una serie de factores. Lo que yo Especial de la FAO un millón y medio de dólares, puedo decir es que el Instituto, junto con otras oraproximadamente. El gobierno nacional ha puesto ade- ganizaciones, está haciendo un valioso aporte a los comás las instituciones permanentes, como el Servicio de nocimientos de los recursos pesqueros y ha brindado Hidrografía Naval, el Instituto de Biología Marina y gran información a nuestra industria pesquera, especialotras. La F A O ha puesto los barcos de investigación mente en lo que respecta a localización de cardúmenes, y pesca, los expertos y algunos equipos que tenemos mejores épocas de captura, composición química .del aquí en consignación. Los expertos de la FAO tienen pescado y de la harina con él elaborada, migraciones de su sede aquí en el Instituto. Cada experto tiene su diversas especies, etcétera. Ahora ya sabemos con bascontraparte, según lo establecido en el proyecto; esta tante certeza cuáles son las características migratorias contraparte es en cada caso un egresado de nuestras de la anchoíta, por ejemplo, que es una de las mayores facultades y este sistema ha dado muy buenos resulta- riquezas marinas que tiene el país. Sabemos el compordos. En ciertos casos, como la investigación en crus- tamiento de los camarones y los langostinos, estamos táceos comerciales, no hubo necesidad de ningún ex- haciendo estudios sobre la reproducción de los peces, se ha estudiado a fondo la almeja amarilla y se comienperto porque había ya expertos en el país.

8


44'

<8°

S2°

Regiones del Atlántico Sur donde se lleva a cabo la pesca comercial en la actualidad y zonas de recursos latentes. La línea de trazos y puntos representa el límite de la plataforma continental.

za a estudiar la vieira del golfo de San Matías. Claro que para que toda esta información sea útil a la industria pesquera se requiere en muchos casos un proceso lento y complejo, pero esta información es la base de. todo estudio serio sobre la pesca comercial. Esta acumulación de datos, ordenados y sistematizados, es lo que quedará y surge de un proceso que podríamos llamar de maduración, que se ve desarrollando día tras día. Porque para poder llevar a cabo la captura racional de un pez, hay que conocer su ritmo de crecimiento, hay que saber cómo migra. Y para estudiar las migraciones hay que marcar los peces (con colorantes, marcas plásticas u otros sistemas) y seguirlos adonde vayan. Ahora bien, el problema de factibilidad, es decir, si u n a anchoíta, por ejemplo pescada a los tres o a los seis días de navegación es económicamente útil o no, es un problema que no nos corresponde analizar.

C. N.: ¿Existe alguna evaluación de la potencialidad de nuestra plataforma submarina en lo que a pesca comercial se refiere?

E. B.: Sí, inclusive hay evaluaciones por especies. La anchoíta, como ya he dicho, es una de las especies más importantes; se usa para preparar conservas, salados, consumo en frasco y para fabricar harina para alimento de animales. Se están pescando de 40 a 50.000 toneladas anuales de anchoíta y se supone que hay uan riqueza de unos 8 millones de toneladas, solamente frente a las costas de la Provincia de Buenos Aires. Las estimaciones realizadas hasta el momento se basan en una serie de datos —cuya obtención sería muy largo detallar aquí— que son analizados y sistematizados por medio de una computadora con que cuenta el Instituto. Para los recursos demersales se estima, para esta región del Atlántico Sur, una extracción anual entre las 400.000 y^las 500.000 toneladas. En cuanto a los recursos pelágicos (que incluyen la anchoíta, la caballa, el bonito, la sardina, el pejerrey, etc.), es razonable estimar una captura de 600.000 a 800.000 toneladas anuales como mínimo y es posible que estas cifras puedan ampliarse, de acuerdo con los nuevos hallazgos. Hay inclusive muchas especies interesantes que no se explotan, como la sardina fueguina, por ejemplo. Debemos incluir también en estas cifras la captura de mariscos, como mejillón, calamar, langostino, camarón, centolla, vieira, cholga, etcétera, cuya producción actual es de unas doce mil toneladas anuales, pero que podrían llegar fácilmente a ser 30 o 40 mil. En conclusión, la producción pesquera marítima podrá elevarse aproximadamente a 1.300.000 toneladas anuales, aproximadamente, cifra que se considera razonable para el período de los próximos cinco años.

C.N.:

Sede del Instituto de Biología Marina en Playa Grande (Mar del Plata), donde están ubicados la administración y los laboratorios.

¿Esta es la cifra que se extrae realmente?

E. B.: No. La producción pesquera marítima argentina no llega en la actualidad a las 200.000 toneladas anuales, pero la extracción por parte de las flotas internacionales en 1966 y 1967 alcanzó cerca de 1.000.000 de toneladas por año, siendo estas capturas casi exclusivamente de peces demersales, lo cual debe considerarse excesivo. El mar argentino es rico en peces, pero no es extraordinariamente rico, como se dice tan a menudo.

9


docente (profesor, jefe, ayudante) y todos hacen docencia; algunos pertenecen, a la Universidad, otros al CNICT y otros a la Comisión de Investigaciones Científicas de la Provincia. Algunos son becarios. Después tenemos un grupo de técnicos que en su mayoría son jóvenes marplatenses que hacen cursos ele capacitación dictados por nosotros. C. N.: ¿Hay una organización de tipo vertical, hay un director que decide o tienen un claustro?

Toma de muestras en alta mar.

E. B.: Una de las condiciones que ha permitido la continuidad de 10 años de trabajo es justamente el no tener una organización de tipo vertical. El director es la mayor autoridad, naturalmente, pero todo se decide de común acuerdo y si bien no hay reuniones formales hay un permanente intercambio de ideas; en general todos saben qué pasa y opinan sobre lo que hay que hacer. Además quiero insistir en ese factor fundamental: en diez años hemos mantenido al Instituto en actividad constante y, a pesar de todos los cambios políticos y universitarios, hemos recibido siempre el apoyo de todas las autoridades universitarias, lo cual ha permitido que sigamos funcionando y desarrollando nuestros programas. C. N.: Con la intervención de la Universidad en 1966, ¿se fue gente del Instituto?

Naturalmente que en vez de las doscientas mil toneladas que se sacan se podrían extraer 6 u 8 veces más, sin problemas. Pero es necesario proteger adecuadamente estos recursos pesqueros. Fundamentalmente debemos utilizarlos extrayendo un mayor volumen de proteínas del mar cada año. Ahora, si la Argentina no se decide a pescar, entonces tiene que legislar la forma correcta de explotar estas riquezas. Se debe tener en cuenta que los recursos pesqueros vivos renovables no se acumulan indefinidamente y que cada año se pierde una parte, que al no ser aprovechada se resta como alimento de la humanidad. De todas maneras —yo creo que es oportuno decirlo— el Instituto de Biología Marina es una de las pocas instituciones del país que está haciendo investigación pesquera marina, y lo está haciendo con métodos modernos y a nivel internacional. C. ¡V.: ¿Hay institutos similares en otros países latinoamericanos?

E. B.: En Perú hay uno, muy importante En Brasil hay u n Instituto Oceanógrafico, muy bueno, y en Venezuela y Chile también. No puedo decir si son superiores o inferiores; una institución se juzga por dos factores clásicos: la escuela que forma y el nivel de los trabajos que publica. En este sentido creo que por nuestras relaciones y contactos internacionales podemos estar satisfechos; mucha gente que trabaja aquí fue invitada a congresos y a dictar cursos en el extranjero, inclusive tenemos también varios latinoamericanos que están trabajando aquí. C. N.:

¿Con qué personal docente cuenta el Instituto?

E. B.: En estos momentos hay unos 26 investigadores, cada uno de los cuales está adscripto a una categoría

10

E. B.: Sí, se fueron dos personas en 1966, pero ahora tenemos tres veces más gente que en esa fecha. Los que se fueron eran investigadores de valor y lo lamentamos, pero por suerte el aporte permanente de jóvenes interesados ha podido reemplazarlos . Volviendo a la organización, el Instituto tiene un Consejo Directivo, integrado por representantes de las entidades que lo forman. Este consejo elige al director, quien debe pertenecer al Instituto, ser full-time y dure tres años. Yo ocupo en este momento la dirección en forma interina. En este momento se está elaborando el Estatuto definitivo. C. N.: ¿Cómo es el mecanismo de ingreso al Instituto?

E. B.: Los alumnos que tienen interés en trabajar aquí lo piden a través de los departamentos de las respectivas facultades. En cuanto a los investigadores, son designados por cada una de las universidades, es decir, si alguien tiene interés en venir aquí se lo invita o se pide un cargo, pero en todos los casos se hacen concursos. C. IV.: Dr. Boschi, una última pregunta, volviendo a los planes de investigación del Instituto: ¿trabajan ustedes comportamiento animal?

E. B.: Por ahora no tenemos a nadie que haga comportamiento. Pero tenemos la idea y el interés de formar un grupo de fisiología animal y comportamiento, para estudiar algunos aspectos importantes, como el comportamiento de animales aislados y de cardúmenes, la reacción del pez ante la red de captura, la detección mediante ecosondas, las reacciones ante la luz y muchos otros. En fin, esto es algo que todavía debemos desarrollar. O


Calculadora electrónica con impresión CIFRA 311: Lógica de 3? generación, memoria de 4? generación. CIFRA 311: Mayor potencialidad, diseño expeditivo, costo menor. CIFRA 311: Creada en el país, es la solución más actualizada a las vertiginosas exigencias de precisión y caudal de cálculo de las empresas modernas.

Un producto FATE S.A.I.C.I. División Electrónica

Comercialización y Ventas: Garay 1, Tel. 34-6034/5/6/7/8.


Ciencia e ideología Reportaje a Gregorio Klimovsky

CIENCIA NUEVA: En muchos centros de trabajo e investigación se discute el problema que plantean las relaciones entre ciencia e ideología. Quisiéramos que nos dé su opinión al respecto; sabemos que hace muy poco habló sobre este tema en el Centro de Estudios de Ciencias.

Gregorio Klimovsky comenzó su carrera docente como profesor titular de Análisis Matemático en la Facultad de Ingeniería de San Juan (Universidad de Cuyo), cargo que desempeñó desde 1954 hasta 1956. Fue investigador titular con dedicación exclusiva en el Departamento de Matemática de la Universidad de Cuyo (Mendoza) desde 1955 a 1956, profesor titular de Lógica en la Facultad de Filosofía de Rosario (Universidad del Litoral) desde 1957 a 1959, profesor de Lógica en la Facultad de Humanidades de La Plata en el período 1960-1961, profesor titular del Departamento de Matemática, de Lógica Matemática y Teoría de Conjuntos de 1957 a 1966. Además fue profesor titular invitado de Lógica y Filosofía de la Ciencia, en el Departamento de Filosofía de la Facultad de Filosofía de la U.N.B.A. desde 1958 a 1966, director del Instituto de Filosofía de la Facultad de Filosofía de 1964 a 1966, y vicepresidente de la Agrupación Rioplatense de Lógica y Filosofía Científica desde 1959 a 1964. Fue asimismo miembro del Consejo Superior de la U.N.B.A. de 1962 a 1966.

12

Gregorio Klimovsky: Esa conferencia estuvo fundamentalmente destinada a discutir, no tanto el problema de si hay factores ideológicos que intervienen en la tarea científica (cosa que creo obvia y evidente), sino más especialmente una tesis que se está poniendo rápidamente de moda en algunos círculos político-intelectuales, según la cual no existiría nada que merezca el nombre de "ciencia objetiva", sino que la ciencia, por su esencia, posee componentes ideológicos enraizados de tal manera que, según cual sea la posición ideológica en que uno esté, ella difiere en cuanto a sus apreciaciones, sus resultados y sus métodos. Y esto es prácticamente negar la tradición clásica según la cual la ciencia provee de alguna manera un tipo de conocimiento eterno y firme, un conocimiento que puede corregirse, afinarse, hacerse más nítido y preciso, que no depende de la mera opinión o prejuicio personal o grupal y que posee pautas objetivas para fundamentarse tanto como para criticarse, llegando a constituir por ello un patrimonio cultural que no debe destruirse por culpa de escepticismos o relativismos. Desde ya aclaro que, en mi opinión, tanto esa tesis como la contraria, según la cual la ciencia es objetiva, tienen su mérito; conviene por lo tanto ver qué es lo que pasa según qué aspecto de la actividad científica se está considerando. En aquella conferencia intenté indicar en primer lugar qué puede querer decir "ideología"; en segundo lugar cuáles son los contextos científicos a los que se puede referir la pregunta y, finalmente, incursionar en temas de carácter metodológico, tomando uno por uno los aspectos de la actividad científica, para poder localizar el factor ideológico y su incidencia. De esa manera se comprueba que a veces su papel es harto importante, pero en otras es superficial y ha sido exagerado. Antes de entrar de lleno en la cuestión quiero decir que me parece tan peligrosa la posición que defiende la idea de una ciencia objetiva que esté, por así decir, desarrollándose encima de las nubes y para la cual lo que está sucediendo en la Tierra y la forma de pensar de la gente no la afecta ni la debe contaminar, como peligrosa es también la posición según la cual la militancia política y la ideología se deben infiltrar de tal manera en la cien-


cía que aún los resultados de la misma sólo se deben aceptar o rechazar según factores ideológicos. Temo que a través de la buena fe de muchísima gente se llegue fácilmente al fascismo pasando por ese tipo de nociones; aunque aquí el lobo esté a veces disfrazado de cordero ultraprogresista . . . Pienso que hay que separar estas dos concepciones como extremos un tanto peligrosos y que la solución no está tampoco en el justo medio sino en poner claramente los límites de la cuestión.

euclídea y seguir manteniendo en uso el concepto de punto, recta y plano pero con postulados no euclideanos, como ocurre en gran parte de la física actual. Eso muestra que hay un primer paso en que son conceptos lo que la ciencia necesita presuponer, pues de lo contrario no podríamos pensar ni proponer hipótesis. Pero luego hay otro paso, que está dado por las hipótesis o postulados que pensamos que esos conceptos cumplen. Y obtenemos así la base dentro de la cual se puede construir ya una teoría específica; me parece indudable que siempre nos vamos a encontrar con una situación así.

C. N.i A su juicio, ¿dónde colocaría esos límites?

G. K.: En primer lugar, procuremos ver qué quiere decir "ideología", porque como vamos a encontrarnos con diversos significados, ello puede llevar a comprender que, efectivamente, cierto tipo de fenómeno que merece el nombre de "ideología" interviene de manera inevitable en la ciencia, sin que eso, desde mi punto de vista, afecte su objetividad, porque no se trata de la misma entidad que otros denominan con esa palabras. Siguiendo las discusiones sociológicas acerca del concepto de "ideología", podríamos decir que en una primera revisión ya es posible encontrar un número muy grande de definiciones. Examinemos algunas de las más importantes. Un primer concepto de "ideología" es el de "conjunto de conceptos y presuposiciones al que un científico tiene que recurrir para poder expresar y desarrollar sus teorías". Por ejemplo, si no existiera geometría euclideana ni tampoco la matemática que de alguna manera ya estaba desarrollada en la época de Newton, sería imposible formular una física como la newtoniana. Porque no habría noción de punto, ni de espacio, recta o longitud, que pueda Nevar al espacio absoluto que concibe Newton, ni existiría un manejo del concepto de número como para introducir teorías que involucran medición, magnitud o extensión. Y, si además de las presuposiciones conceptuales no hubiera también presuposiciones teóricas de carácter geométrico, no habría posibilidad de demostrar teoremas físicos, porque para ello es necesario trazar paralelas, examinar trayectorias y ver qué es lo que ocurre con los ángulos y sus relaciones, todo lo cual involucra que ya se conozca la verdad o falsedad de proposiciones geométricas. Es decir, para construir una teoría como la newtoniana, es necesario apoyarse en la existencia previa de conceptos de orden geométrico y también en la admisión de ciertas hipótesis y teoremas que constituyen el cuerpo teórico de la geometría. Sin ese tipo de presuposiciones, a veces no es posible pensar en el desarrollo de una investigación, ni siquiera en su formulación. Esto es lo que vamos a llamar "ideología" en el sentido de "marco conceptual o teórico"; es el tipo de concepción general previa que un científico adopta para poder discutir una disciplina o una teoría. Ella se puede dividir en dos partes; una es la de las categorías y conceptos que se están utilizando, otra es la de las teorías que se están presuponiendo. Una cosa es decir que empleamos la idea de punto, recta y plano de la antigüedad, y otra cosa es decir que además de esos conceptos adoptamos las hipótesis euclídeas. Porque podríamos rechazar los axiomas clásicos acerca del punto, la recta y el plano de la recta

C. N.: Este es entonces un tipo de "ideología" inevitable.

G. K.: Por ejemplo, si no hay una teoría previa de la reproducción que hable de gametas y cigotas, no se puede_ siquiera formular gran parte de la teoría de Mendel; si no existe un concepto de célula y de partes de la célula, no se puede efectivamente hacer una genética citológica. Si no existiera una geometría n o existiría una física; si no hay una lógica matemática n o se puede hacer una axiomática formalizada; siempre ocurre así. Es totalmente cierta la imposibilidad de hacer ciencia sin presuponer una ideología de ese tipo. Es indudable que según cómo hayamos aprendido nuestros conceptos a través de nuestros maestros, nuestras tradiciones o nuestros estudios, así estaremos condicionados como científicos de muy diferentes maneras. Basta considerar un matemático de la escuela de Cantor y compararlo con otro de la escuela de Bromver para comprender que sus marcos conceptuales son distintos y que de ahí deriva la notable diferencia entre los tipos de matemática que cultivan, es decir, parten de una ideología conceptual o teórica diferente. Ahora bien, este tipo de ideología no tiene mucho contenido político en general, pero está ahí indudablemente y es totalmente cierto que un científico que desarrolla una investigación, debe partir de numerosas presuposiciones. Uno de los "slogans" que por ahí corren, según el cual es imposible que se haga ciencia sin qué exista ideología, ya que ella está en los conceptos y presuposiciones que el científico está adoptando, es totalmente cierto; es algo que ni siquiera se puede discutir, es la verdad incuestionable. Lo que ocurre es que todo ello no implica algo que conspire contra la objetividad de la ciencia; después vamos a discutir este punto.

C, N.i Usted afirmó antes que existen diferentes significados de "ideología". ¿Podría señalar otro?

G. K.: El segundo tipo de ideología es el que hoy se conoce con el nombre de "ideología según la sociología del conocimiento". Ella consiste en el hecho de que toda persona, por estar ubicada en un momento histórico, en un contexto social, en determinado grupo o clase, tiene una determinada perspectiva para recoger información o para ver las cosas. Este es el factor por el cual, aún con el mismo tipo de aprendizaje, en igual momento y lugar, un científico puede estar mucho más preocupado, por ejemplo, por investigaciones de geometría aplicada que tengan que ver con urbanismo, con

13


Actitudes científicas distorsionadas

diseño industrial o con problemas de geodesia, que por problemas abstractos como los que tanto preocupan a muchos matemáticos puros. La razón es que, según donde se está socialmente situado, el mismo problema puede parecer urgente o no. Indudablemente, una persona muy rica que esté un tanto apartada de los problemas nacionales puede desinteresarse por completo de lo que va a pasar con el desarrollo urbanístico y humano de la periferia de la ciudad.

C. IV.: Y a esa persona quizá le interese más el álgebra abstracta...

G. K.: Claro. Y la razón está en que, desde su punto de vista, el tipo de información que recibe acerca de qué es la matemática y su función (como la de todas las verdades científicas en general), puede estar un poco distorsionada por la forma en que esa persona está^ ubicada en la sociedad actual. El que está ubicado más en el llano puede comprender que el país necesita soluciones perentorias: lo puede ver desde el lugar, clase social o grupo de poder donde está situado, con muchísima más claridad y por ello es que se vería inclinado a estudiar otros problemas, recurrir a otras teorías, o buscar aplicaciones de los conocimientos abstractos. Es muy cierto, creo, que la sociología del conocimiento es un factor importantísimo, muy digno de tenerse en cuenta. Lo que no está muy claro es si realmente es algo más que un mero factor (es decir, si es un obstáculo insalvable) o, por el contrario, es superable en el sentido de que con suficiente adiestramiento y crítica la gente pueda darse cuenta de las limitaciones de su propia información. El tercer tipo de ideología es el que encierra un cierto sentido despectivo; es el que a veces utiliza Marx y también Manheim, el sociólogo que quizá sea el responsable de llamar la atención acerca del ya discutido segundo tipo de ideología. Este tercer tipo se evidencia en que muchas personas, en virtud de sus intereses espúreos, por razones personales egoístas, manifiestan

14

opiniones, creencias o aún actitudes científicas, muy distorsionadas. Un caso típico, por ejemplo,^ es el de una investigación que se hizo acerca de periodistas egresados en un mismo año de una escuela de periodismo de los Estados Unidos; se vio que cierto porcentaje de ellos se empleaban en periódicos de sindicatos y otros en los de entidades patronales. Personas muy parecidas en su formación y extracción social, reaccionaron de manera muy diferente según los diarios en que estaban empleadas, respecto del problema de provocar inflación. Según los periodistas "patronales" la inflación sería totalmente corrosiva, provocaría desempleo, etc. Según los otros, originaría un gran consumo y, por consiguiente, una reactivación de las fábricas. No importa quien tendría razón, pero lo que resulta interesante es que todos venían de la misma escuela y prácticamente de los mismos grupos sociales. La discrepancia no podía explicarse por el mero factor de sociología del conocimiento; los periodistas tenían que defender su empleo. En sus opiniones intervenía u n factor ideológico en el sentido espúreo.

C. N.: ¿Esta que acaba de describir sería la ideología que involucra la autocensura?

G. K.: Sí, pero antes aún que la autocensura, involucra el interés personal. Conozco muchos profesores que no tendrían ningún inconveniente, para abrirse camino en la carrera docente y aprobar un concurso de oposición, en sostener tesis completamente contrarias a las que realmente creen, si dada la composición del jurado esa es la única manera en que pueden lograrlo. Pero esto no es todo. Me parece oportuno indicar que los móviles espúreos que pueden llevar a algunas personas a sustentar ciertas creencias y opiniones no tienen por qué aparecer explícitamente en la mente de los interesados, sino que pueden ser algo más escondido, inconsciente o automático. De todos modos hay que reconocer que la ideología en el sentido de la sociología del conocimiento, aunque puede ser causa de error, es algo que tiene cierta caracterización de buena fe, que ésta que estamos analizando ahora, la ideología de tipo "espúreo", no posee.

C. N.; Y tendríamos así todos los tipos de ideología que, en primera instancia, vale la pena distinguir.

G. K.: No, pues en un cuarto sentido de la palabra, no muy distinto quizá del segundo pero que tiene suficiente importancia, sobre todo en nuestro medio, tendríamos lo que Lucien Goldman y otros han llamado "ideología por escasez o imposibilidad de información". Es lo que ocurre cuando, por el peculiar desarrollo histórico de un lugar determinado, no se ha recibido la información que en otro lugar ha llegado. A pesar de que los intereses de una dada clase social sean los mismos en ambos lugares, el hecho de no recibir o no poseer información hace que a veces no se pueda comprender en uno lo que se comprende en el otro. Por ejemplo, es indudable que nuestra burguesía industrial posee mucha menos información económica que la burguesía industrial norteamericana. En general, ha realizado menos investigación y está mucho menos actua-


lizada con respecto a lo que pasa en nuestro medio (y, en general, en cuanto a economía y política) que aquella en el suyo. Esto lleva a sus miembros a sostener con frecuencia tesis tales como la de la libre competencia, la libre empresa, la libertad de mercado o la libertad del régimen aduanero y a sustentar la opinión de que ellas son lo que define la libertad, la democracia y la de que el proteccionismo o el estatismo es pernicioso, totalitario, etc. Esto ocurre evidentemente por falta de información y no por la forma en que se manejan los conceptos o por la perspectiva en que ellos están, ni tampoco debido a intereses espúreos (pues se están perjudicando a sí mismos al decir eso). Porque efectivamente, falta de proteccionismo, libre empresa, ausencia de barreras aduaneras significa, en un país en situación neocolonial como es el nuestro, el fin liso y llano de la burguesía industrial. Lo que ellos tendrían que propugnar es precisamente todo lo contrario. Por lo cual es evidente que no han recogido información al respecto o la han recibido de fuentes interesadas. Este es un tipo de ideología que tiene para nosotros especial importancia; por ejemplo, mucho de lo que se ha discutido con respecto a si hay que encarar o no una intensa enseñanza de las ciencias básicas en Argentina, está tocando esa dificultad.

C. IV.; ¿En qué sentido puede afirmarse que discutir acerca de la enseñanza de las ciencias básicas esconde, aspectos ideológicos?

G, K.: Efectivamente, a pesar de que muchos círculos estudiantiles consideran como "cientificismo reaccionario" toda teoría de que la educación universitaria tiene que comenzar por centrarse en el desarrollo ele las ciencias básicas, desde el punto de vista del desarrollo político de nuestro país la realidad muestra todo lo contrario; el progreso de los conocimientos y de la tecnificación por parte del pueblo argentino llena de alarma a los sectores neocolonialistas, que prefieren que la investigación científica la hagan las metrópolis imperialistas y sólo llegue aquí a través de los concesionarios y representantes comerciales, o al estrato latifundista de la población, que teme perder posiciones frente a sectores más pujantes en ascenso. Por ello es que la actitud de ciertos sectores culturales y políticos evidencia un factor ideológico de falta de información, pues combaten lo que ya es un hecho conocido en casi todo el mundo y que en todas partes es considerado una variable importante (aunque no única) de liberación y progreso. Para la parte retrógrada del país, el "cientificismo" vendría a ser "insurgente" y "terrorista" en virtud de una concepción ideológica del segundo o tercer tipo. Para la parte progresista, o para algunos de sus representantes solamente (para ser más exactos), en virtud de un factor ideológico basado en falta de información, ese mismo "cientificismo" se hace reaccionario. Pero no hay que asombrarse, pues la falta de información es, por desgracia, u n fenómeno bastante típico de nuestro desarrollo cultural. Esto no es una exageración: Argentina, aunque pueda tener en Buenos Aires y en algunas ciudades una élite que está bien informada, no es todavía un país que pueda considerarse informado. Basta observar los órganos de la prensa para darse cuenta que el tipo de información que puede recibir el argentino

ipedio (sobre todo acerca de nuestros problemas) es bastante limitada y en general distorsionada. Defino estos cuatro sentidos de "ideología", sin pretender que la lista esté cerrada, para pasar a otro aspecto del problema. Dejemos "ideología" por u n momento y preguntémonos por "ciencia". Podemos encontrar aquí lo que podríamos llamar tres contextos diferentes: el contexto de descubrimiento, el de justificación y el de aplicación.

C. IV.: ¿Cómo definiría esos tres contextos de la ciencia?

G. K.: Un científico puede imponerse ciertas investigaciones para tratar de llegar a ciertos resultados y debido a ello tal vez llegue a formularse ciertas hipótesis o a considerar ciertas ideas. Se supone que la forma en que se le han ocurrido esas ideas e hipótesis, como resultado de sus experiencias o de sus predilecciones estéticas o de encadenamiento de razonamientos, pertenece a algo que podríamos llamar sociología, psicología y hasta política del descubrimiento científico. Pie aquí el "contexto de descubrimiento". Pero, una vez que se presentan las ideas podríamos preguntarnos: ¿esas ideas son correctas?; esas hipótesis, ¿se pueden probar o refutar? Este sería el "contexto de justificación". Resumiendo, el contexto de descubrimiento inquiere cómo llega a crearse la hipótesis científica, cómo llega a presentarse. El contexto de justificación investiga por qué las tenemos que aceptar: por demostración o por alguno de los métodos que ofrece la metodología. E l tercero, una vez que las hipótesis han sido aceptadas, sería el contexto de la tecnología, de la aplicación. Aquí ya no se cuestionan los procedimientos para obtener las hipótesis ni las hipótesis mismas, sino más bien cómo se pueden aplicar a cuestiones prácticas, cómo nos pueden auxiliar a resolver problemas técnicos o sociales.

C. IV.; Tecnología e ideología implican una conjunción sospechosa...

G, K.: Sí, ese es efectivamente el punto central. Pero yo quiero separar estos tres aspectos parar mostrar que el problema es muy distinto en cada uno de ellos. Tomemos primero el de justificación. Q u e este contexto sea diferente del de descubrimiento es algo que a muchos llama la atención; creen que el procedimiento por el cual a uno se le ocurre una hipótesis ya tiene de alguna manera que probarla o justificarla. Esta inclinación proviene de haber aprendido que el método científico es un método inductivo y que a las leyes se llega por atesoramiento de un número suficientemente grande de observaciones. Es decir, las leyes científicas — d e acuerdo con esta manera de pensar,—, son generalizaciones de lo observado en los casos singulares y se basan en la obtención de un número suficientemente grande de éstos. Por ello, descubrir tales generalizaciones a partir de la observación y atesoramiento, de hechos particulares parecería coincidir con el procedimiento para justificarlas. Todo lo cual es falso, ya que el método científico es el método hipotético deductivo, el método que esencialmente consiste en formular hipótesis y testearlas. Las formas por las que pueden

15


El error metodológico de "autoalimeiitación"

que se pueden deducir de ellas y en las consecuencias observacionales con las cuales la teoría es controlada y donde ella encuentra sus aplicaciones prácticas. Se puede ver que los factores ideológicos que aparecen son pocos y escasamente molestos.

C. N.¡ Es decir, no existirían aspectos ideológicos e« el contexto de justificación . . .

obtenerse las hipótesis son diversas; pueden surgir por inducción, es cierto, pero también pueden surgir por analogía, o sugeridas por el fracaso de anteriores, o creando modelos; hay una cantidad enorme de métodos como éstos. Ciertamente, alguno de ellos no garantizan de ninguna manera la obtención de una buena hipótesis; por ejemplo el método preconizado por muchas filosofías y que en sociología y psicología todavía adoptan muchos, es el método intuitivo. Según este método, tendríamos la facultad de poder aprehender por intuición una hipótesis así como la verdad de la misma. Lo cual no es cierto; basta examinar la historia de la ciencia. Podríamos decir, parafraseando un refrán, que el camino del infierno científico está sembrado de buenas intuiciones. La cantidad de veces que la gente se ha equivocado en sus intuiciones científicas es grande. Admito que puede pasar —y eso desde el punto de vista de la definición de "ideología" es interesante— que la forma en que se origina una hipótesis ya informe un poco acerca de su verdad o no (por ejemplo, en mi opinión, si el diario La Prensa hace una hipótesis económica sobre el país, puedo inferir automáticamente que está equivocada). Pero, aún en esos casos, para estar seguros que sucede así, tenemos que detectar cuál es, por un lado, la forma en que aparece la hipótesis y por otro, establecer si hay o no verdad. Sólo entonces estaríamos autorizados a afirmar la correlación entre la forma en que la hipótesis surge y su valor informativo. (En nuestro ejemplo, debemos diferenciar el hecho de que tal o cual afirmación se origina en La Prensa •—cosa que concierne al contexto de descubrimiento— del hecho que esa afirmación no concuerda con la realidad —lo cual depende de los criterios del contexto de justificación— de manera que son dos problemas separados que sólo después pueden juntarse para poder sustentar la afirmación de que ese diario siempre se equivoca.)

C. N.: ¿Cómo vincula los tres contextos con los factores ideológicos de los que antes habló?

G. K.: Desde el punto de vista del contexto de justificación podríamos preguntarnos dónde aparece la ideología. Una teoría científica consiste en las hipótesis que nuestra experiencia y razón nos sugiere, en los hechos

G. K.: Yo diría lo siguiente: respecto de las hipótesis, para el contexto de justificación no existe el problema de cómo se generan; las hipótesis ya están ahí y sólo resta probarlas. Un factor ideológico posible —en el primer sentido de la palabra "ideología"— es el de cómo se va a poder comunicar esa hipótesis; forjar una hipótesis en un medio donde la gente no tiene conceptos adecuados es inútil porque no sería posible discutirlas. Pero desde el punto de vista científico ese no es un problema para el contexto de justificación. La hipótesis es aquí algo dado, de manera que lo que se necesita es, o bien la ayuda de la lógica para extraer las consecuencias observacionales, o bien lo que se llama una base empírica, que es el conjunto de datos con los cuales se puede observar o controlar qué es lo que realmente pasa. Ahora bien, los datos los dan los órganos de los sentidos, la práctica directa o la observación lisa y llana, como puede ocurrir con un botánico mirando la forma de las hojas, o con un químico observando el color del papel de tornasol, o utilizando instrumentos, que pueden ser de observación, como el microscopio, o de medición, en cuyo caso se dice que el dato está interpretado a la luz de la teoría del instrumento. La base empírica, o sea el conjunto de los datos que se pueden observar directamente, puede tomarse epistemológicamente, es decir en forma desnuda y en su pleno valor, o a la luz de alguna teoría presupuesta que constituye la razón de nuestra creencia en las mediciones o en lo instrumentalmente visto. Por ejemplo, si observamos en el microscopio, epistemológicamente lo único que podemos decir es que estamos viendo una mancha de color en el ocular; pero un biólogo diría que, presuponiendo la óptica del microscopio, lo que vemos es una célula. Siempre se introduce en forma un tanto disimulada o patente alguna teoría de este tipo, que es la teoría del dato de observación. En sociología, por ejemplo, éste es el papel de la teoría de la encuesta, que nos dice cómo se ha obtenido el dato y si realmente refleja lo que la gente cree o no cree. Es sabido que la teoría de la encuesta es muy difícil y controvertida. Por ejemplo, no es buen método dirigirse mediante una encuesta a las damas de Buenos Aires para hacer una investigación de mercado con el fin de averiguar qué crema para el cutis usan. Porque en general van a tener cierto tipo de reparos en decirlo; seguramente no van a decir la verdad. Es mucho mejor utilizar métodos disimulados, como por ejemplo que la compañía ofrezca en obsequio una crema que se dice se está promocionando, con la condición de devolver el pote vacío de la que están usando, para hacer luego la contabilidad sobre la cantidad de frascos obtenidos. Todo esto muestra que los datos a veces no pueden ser tomados por la ciencia así como están y que hay que emplear alguna presuposición sobre los factores que de alguna manera están involucrados en lo


que se ha elegido como base empírica. Aquí es donde pueden penetrar factores ideológicos, pero son factores del primer tipo, que conciernen a la clase de teoría que se ha aceptado previamente. Y si se sabe cuáles son esas teorías y si ellas se han ya testeado a su vez, no hay ningún inconveniente en cuanto al valor objetivo del conocimiento obtenido. C. IV.: Pero los sociólogos afirman que éste es un importante factor de distorsión.

G. K.; Aunque los sociólogos digan que este factor de distorsión es bastante grande, no lo es tanto. En biología, en física, en las ciencias naturales, se reduce a problemas para los cuales no hay mucha duda, como el de ver qué color tiene una zona del espectro, el de si una aguja coincide con una señal de un dial, el de si una conexión está hecha o no, o el de si hay figuras en una pantalla de tal o cual forma, todo lo cual no presenta problemas. De manera que si bien es cierto que puede haber distorsiones ideológicas en este sentido particular, el primer sentido, no llegan a ser tales como para que un científico no pueda efectivamente separar la buena de la mala información. La refutación de hipótesis o el mantenimiento de buenas hipótesis, sin duda puede hacerse de este modo, no hay ningún inconveniente. Por lo cual creo que, en este aspecto, el problema de la prueba, la justificación o el rechazo en ciencia no está demasiado "contaminado". No quiero abandonar el tema sin tocar otras dos cuestiones. En primer lugar, hay otros factores ideológicos a considerar, en los otros sentidos de "ideología"; existe el peligro de que uno no vea más que cierto material observacional, sin tomar en cuenta otro, olvidando de este modo considerar aspectos importantes de carácter empírico. Por ejemplo, supongamos que queremos hacer una investigación en psiquiatría para ver cómo puede acentuarse o disminuir la neurosis de la gente en momentos de inestabilidad social. Indudablemente, si el que establece esa investigación la va a efectuar tomando mil personas del barrio de Belgrano, muchas de las hipótesis que pudo haberse planteado de antemano antes de hacer la investigación pueden dar un resultado que aparentemente concuerde con lo que se está observando. Pero no se le ha ocurrido ir a las villas de emergencia. Tal vez, si lo hubiera hecho, el tipo de aspectos de carácter psicológico pertinentes para su investigación que allí observaría, no sería el mismo que para la clase media de Belgrano. En ese sentido, él tomó sus datos observacionales dentro de una banda estrecha del espectro; por consiguiente, lo que él pueda confirmar o refutar a través de observaciones está distorsionado. Aquí es el punto donde efectivamente puede haber un error, una distorsión de carácter ideológico. Pero no es insalvable, precisamente una buena crítica metodológica demostraría que existió una delimitación equivocada de la base empírica. La objetividad y el valor de la investigación científica no se relativizan, eso es lo que vale la pena señalar.

nético, podría denominarse "autoaolimentación" de una teoría. Es muy curioso que algunas personas consideren este defecto como constituyendo una característica meritoria. Porque si la ciencia o la teoría científica se controlan mediante la base empírica es totalmente inadmisible que los datos de ésta se tomen interpretados a la luz de la propia teoría que se está queriendo testear o controlar, pues se llega al círculo vicioso de hacer sustentar el valor de las hipótesis en los hechos empíricos, pero éstos a su vez se valoran con el auxilio de las mismas hipótesis de las que estamos dudando. El dato observacional, el que nos ofrece la experiencia, la experimentación o la investigación controlada y sistemática, es lo que permite corroborar o descartar teorías; si ese dato a su vez es recogido mediante instrumentos de observación o presuposiciones teóricas, es importante darse cuenta que la teoría con la cual se está interpretando la observación no debe ser la misma que la que se está testeando. Por ejemplo, si quiero testear una teoría psicoanalítica, para ver si es verdad que ocurren ciertos tipos de estados internos en algunos procesos psíquicos o durante el desarrollo d e una enfermedad y resulta que para ver si es así observo la conducta de los enfermos, pero no la describo a ojo desnudo sino que interpreto lo que estoy viendo en los pacientes con el lenguaje de esa misma teoría analítica y con las mismas presuposiciones de las que ella parte, entonces no pruebo realmente nada. No ignoro que en Francia son muchos los que creen —especialmente los seguidores de Bachelard y Althuser— que éste es precisamente el rasgo definitorio que permite caracterizar el método científico (creación de su propia base empírica, delimitada por la interpretación que hacen sus propias hipótesis); si tuvieran razón no cabría la menor duda de que los factores ideológicos corrompen la objetividad de la ciencia. Pero esto resulta de una total incomprensión del método científico y creo no equivocarme al juzgar que estamos frente a una verdadera calamidad histórica, de índole cultural, que va a causar mucho daño y que descansa en un error metodológico casi infantil.

C. 2V.: ¿Podría darnos un ejemplo de ese error m e t o d o lógico?

G.K.: Es el error con el que tropecé una vez leyendo un texto de física, en el que se afirmaba que la ley de Boyle y Mariotte es una ley empírica que puede sustentarse en observaciones de carácter experimental (lo cual es correcto), pero luego indicaba que las presiones se leían utilizando un manómetro en " U " que, como se sabe, presupone la ley de Boyle y Mariotte. Este es un error que se comete muy frecuentemente en sociología y en política. Sin duda, puede haber razones ideológicas que lleven a caer en ese error. Pero no es u n error inevitable ni mucho menos un rasgo distintivo del método científico. Es perfectamente superable. C. IV.: ¿Le da Ud. igual importancia a estas dos dificultades?

C. N.: D i j o U d . que se referiría a dos cuestiones, pero discutió sólo una. ¿Hay alguna otra dificultad?

G. K.: Sí, y concierne a un pecado que se comete muchas veces en ciencia y que, usando lenguaje ciber-

G. K.: Creo que de los dos problemas que acabamos ele discutir, el de delimitación parcial de la base empírica y el del círculo vicioso intrínseco en la lectura d e la base empírica, el verdaderamente importante como fac-


Los científicos y el cambio social

sectores "ideológicos", diría que hay un cierto carácter reaccionario en las posiciones contrarias a la concepción "objetivista" de la ciencia. C. N.: ¿Qué ocurre con los otros dos contextos que antes definió?

tor ideológico que compromete la objetividad de las teorías científicas es el primero (mientras que el segundo es un tipo de chapucería que con un poco de prudencia metodológica nadie cometería). Por ejemplo, creo que muchas de las limitaciones de la psiquiatría norteamericana contemporánea se originan en tomar como indicadores de salud mental factores insuficientes y discutibles como la capacidad de ascender en categoría y status social. Hipótesis testeadas con datos empíricos tan parciales no inspiran mucha confianza. C. N.: Entonces ¿cuál es la importancia que Ud. finalmente da a la ideología en el contexto de justificación?

G. K.: Resumiendo, no encuentro aspectos ideológicos que afecten la objetividad del conocimiento, desde el punto de vista del contexto de justificación. La crítica epistemológica puede eliminar errores metodológicos como los que acabamos de examinar. Los que piensan que de todas maneras hay un componente ideológico de naturaleza lógica que relativiza el conocimiento humano (y, en particular, el científico) caen en un círculo vicioso, ya que la tesis misma no poseería verdad absoluta sino relativa, y entonces ya no es interesante (salvo si, al fin y al cabo, la tesis fuera absolutamente cierta, en cuyo caso eso indicaría que hay conocimiento absoluto y que el relativismo es falso y autocontradictorio). Es como la tesis del escéptico absoluto: si el conocimiento es imposible, eso vale en particular para el de la verdad de las afirmaciones que él hace, y para su propia posición escéptica. Pero, como dice graciosamente Antonio Machado por la boca de una de sus personajes, la gracia del escéptico absoluto es que ningún razonamiento le convence. Aquí podríamos dejar el problema del contexto de justificación y con esto dar por fundamentado por qué pienso que no es justa la posición que considera que, debido a factores ideológicos, la ciencia no es objetiva. Creo que la ciencia es objetiva, que nos da conocimiento y que la expansión de ese conocimiento es incluso importante arma política porque permite mostrar objetivamente la diferencia que hay entre buenas y malas políticas y entre justicias e injusticias, de modo que tomando los mismos argumentos que emplean algunos

18

G. K.: Vayamos ahora al contexto de descubrimiento. Ahora sí que hay que reconocer la existencia de factores de carácter ideológico de todo tipo que pueden estorbar el desarrollo de la ciencia en un país, por ejemplo, el nuestro. Y esto por muchas razones. Pues, si uno se pregunta de dónde puede originarse una hipótesis, se ve que puede venir sugerida por investigaciones análogas que se han hecho en otro lugar, por modas, por apreciaciones acerca del alcance y valor de un tipo de estudio (como en el caso de varios matemáticos argentinos —confieso que en su momento fui uno de ellos— que piensan que la verdadera matemática es la pura y que no debe contaminarse con las aplicaciones prácticas o técnicas porque eso distorsiona su verdadera esencia), o por un tipo de experiencia que no es típica de nuestro medio. Aquí surge toda una serie de posibilidades que sería largo detallar, pero en todas ellas la formación de hipótesis parece involucrar ingredientes ideológicos de toda clase. En el caso de las modas, v. g., lo que está presente es la ideología del primer tipo, o sea la manera en que uno recibe sus conceptos y sus presuposiciones a través de los maestros, colegas, etc. Puede haber factores ideológicos del segundo o cuarto tipo, que atañen a lo que es posible o no concebir por estar ubicados en un determinado momento histórico; evidentemente, en el siglo de la cibernética podemos pensar de una manera que en el siglo xix hubiera sido imposible, en lo que atañe a ciertos problemas políticos o sociológicos. Por otra parte, en cuanto a la ideología en el tercer sentido, es claro que puede suceder que haya razones espúreas en admitir o no ciertas hipótesis. Si con determinadas hipótesis un terapeuta va a ganar más dinero que con otras, quizá prefiera aquéllas, porque le puede garantizar una profesión mucho más remunerativa. Desgraciadamente, este es uno de los cargos que se han hecho a muchas terapias de carácter psiquiátrico. C. N.í ¿Nos puede dar otros ejemplos?

G. K.: A fines del siglo pasado, en Italia, Alemania, Inglaterra se pensaba que un matemático tenía fundamentalmente que investigar geometría proyectiva. La geometría proyectiva, una forma muy elaborada de la geometría tradicional, presenta problemas dificultosos y muchos de los mejores cerebros de entonces, Cayley por ejemplo, se pasaron años enteros estudiando propiedades de las curvas cuárticas. Después, eso no sirvió absolutamente para nada, era la moda, como en otro momento lo fue en Estados Unidos la matemática pura de tipo axiomático y ahora lo será la teoría de las categorías. Volvamos ahora al factor sociología del conocimiento. Desde el punto de vista de un país en el cual hay intereses en puja, como lo es el nuestro, es mucho menos peligroso dedicarse al álgebra abstracta que consagrarse al estudio del cálculo numérico, por ejemplo.

4r


Pues el cálculo numérico toca intereses que atañen a compañías que importan máquinas, mientras que el álgebra abstracta apenas si afecta a editoriales que publican textos matemáticos. Algunas empresas no han hecho absolutamente nada para tratar de apropiarse de la carrera de matemática pura en la Facultad de Ciencias Exactas de Buenos Aires, pero sí en cambio se posesionaron de la carrera de computador científico, cambiándola de una carrera primitivamente destinada a formar matemáticos aplicados de muy alto nivel, no sólo en computación sino en todos los campos del cálculo numérico, en otra que sólo intenta formar un tipo de individuo que pueda conocer al dedillo algunas técnicas de programación y algunos catálogos de máquinas, ya que esto es lo único que les interesa a estas compañías. Indudablemente, ellas no van a fomentar la enseñanza de cierto tipo de cosas que reservan para su central metropolitana extranjera y no para la colonia que consideran que somos. Esto se repite constantemente; recordemos cuando Philips cerró sus labotarios en Argentina el mismo día que terminó la Segunda Guerra Mundial, al tiempo que se reabrían los de La Haya: así se acabaron las investigaciones de Philips en nuestro país. Es indudable que cuando hay intereses extranjeros de por medio, el científico puede aquí ser considerado meramente como un individuo que sólo debe llevar a cabo algunas apreciaciones tecnológicas.

C. IV.: Esto significa, efectivamente, la presencia de algunos tipos de ideología perturbando el proceso d e obtención de hipótesis. ¿Y los otros tipos?

G. K.: Otro punto, el de la ideología en sentido espúreo, queda bastante ilustrado recordando la visita que alguna vez nos hizo un experto de la F A O que vino a hacer investigaciones sobre nuestros problemas pesqueros. El individuo, un simpático especialista de nacionalidad japonesa, terminó informando que no había ninguna necesidad de preocupamos por cuestiones que atañen a la explotación de nuestras riquezas ictiológicas, pues somos uno de los países más ricos del mundo en proteínas de ganado. Pero después resultó ser que ese individuo era funcionario de una empresa pesquera japonesa que posee gran cantidad de barcos operando en mares territoriales diversos, entre ellos el nuestro. Finalmente, está el problema de la falta de información o el de la falta de adecuación de ciertas técnicas del extranjero a las necesidades locales, aunque esto corresponde más bien al contexto de aplicación de la ciencia. En cuanto a esto, que toca a la enseñanza de las ciencias, a la formación de investigadores en el país, a los tipos de estrategia que los científicos tienen que adoptar para poder hacer aquí algo útil, el problema ideológico es muy importante. Argentina, como toda Sudamérica, es un país en cambio que por muchos caminos imprevistos, rápidos o lentos, va a cambiar sus estructuras y muy probablemente las va a mejorar, influyendo en ellas con mayor autonomía. Pienso entonces en el tercer contexto, el que atañe a aquellas personas que deben aplicar la ciencia a algo o encontrar la solución de problemas prácticos, técnicos o socialmente^ urgentes. Tengo que decir que no estoy en una posición tan extrema o escéptica como la de mi amigo

Oscar Varsavsky respecto de hasta dónde se puede hacer algo útil en este sentido en países neo-coloniales como el nuestro. Aclaro que no soy un "desarrollista" ingenuo que cae en los extremos de afirmar que el progreso autónomo de la ciencia garantiza de por sí líbertad, bienestar y prosperidad. Cualquiera que conozca un poco de sociología sabe que esto no es cierto. Hasta aquí estoy de acuerdo con Varsavsky; pero pienso que de todos modos la actividad de los científicos puede ser muy significativa desde este punto de vista.

„ :

!

'§ i ó • £ ; i. « ; "O

i

'

C. N.: ¿Y qué es lo que puede hacerse?

i *c

G.K.; El cambio social en Argentina va a requerir técnicos y científicos para organizar y llevar a cabo los nuevos programas. Pero, aún antes, ahora mismo, necesitamos que señalen los errores que se están cometiendo en nuestro país y a sus autores. La tarea de recopilar información, para denunciar las mistificaciones y las calamidades a las que conducen, sólo la pueden hacer los científicos; por desgracia n o la cumplen suficientemente. Los errores e injusticias que se cometen en el campo de la edafología, en la utilización del riego, en la conservación de los bosques, en el planeamiento del transporte, en lo relativo a la contaminación, en la pérdida de especies por usos inadecuados de insecticidas, etc., o algunos aciertos, como pueden ser, por ejemplo, algunos descubrimientos realizados por personal del INTA, son cosas que deben trascender y esta es una primera tarea que aquí sólo pueden hacer los científicos. C. IV.: ¿Ve usted otras tareas para nuestros científicos?

G. K.: Otra tarea puede ser, efectivamente, la de contribuir al cambio social. Aquí el científico deberá dar las indicaciones "tecnológicas" acerca de cómo se puede contribuir a ese cambio. Pero además está el problema —al que aludimos antes— de cómo llevar a cabo los programas económicos, tecnológicos, sociales y educacionales involucrados por un cambio social. En este momento habrá que dejarse de declamar "slogans" políticos y se tendrá que alcanzar soluciones. Los problemas de una sociedad contemporánea son muy complicados y solamente verdaderos especialistas pueden resolverlos. Aquí, otra vez, nos encontramos, con un papel que toca desempeñar a los científicos. Tengo la impresión de que muchos dirigentes políticos no ven claro al respecto, y confían en una especie de Divina Providencia para solucionar los problemas que se presentan en una coyuntura. Algunas de las formas de esa Divina Providencia no me satisfacen de modo alguno. Por ejemplo, creo que importar técnicos y científicos de otros países no es buena táctica. El motivo es que ellos, o bien provienen de países de concepciones sociales y políticas diferentes, en cuyo caso los factores ideológicos del segundo o tercer tipo harían intrusión, o bien se intentaría trasplantar soluciones ajenas a nuestro medio y a nuestras condiciones de contorno (lo cual es una forma de cometer el error metodológico de tomar como bien testeadas hipótesis que sólo han sido investigadas en una base empírica diferente o parcial). L o ' m e j o r es poseer para ese momento nuestros propios científicos e investigadores. Y éstos deberán ser personas que configuren una

19

,

^

q


Ac

t i v i r f » a científica y

activid^*

1

política

alta e f i c a c i a en cuanto a conocimientos, con una visión clara y n a d a egoísta de su misión en un orden social j u s t o . P o r ello pienso que cierto tipo de "anticientificismo'' e s reaccionario también en este sentido. Los m o v i m i e n t o s políticos deben ser conscientes del papel de la c i e n c i a y deben preocuparse por la calidad de sus e q u i p o s d e investigadores y estudiosos. C . N . : ¿ C u á l es entonces la verdadera dificultad "ideológica" e n ciencia?

G.K.; C r e o , para resumir, en tres tipos de actividad p a r a c i e n t í f i c o s e investigadores que atañen a su resp o n s a b i l i d a d social y en los que los factores ideológicos i n t e r v i e n e n de manera esencial. La primera es su papel de v i g i l a n t e s científicos para descubrir las fallas sociales y t e c n o l ó g i c a s actuales y también su papel de denunc i a n t e s n o temerosos. La segunda consiste en estudiar las c a r a c t e r í s t i c a s , condiciones y factibilidad de un cambio s o c i a l así como los procedimientos técnicos para l o g r a r l o . La tercera se relaciona con los problemas a r e s o l v e r luego del cambio y acabamos de discutirla en d e t a l l e . P e r o , para que toda esta actividad pueda tener é x i t o , e s preciso que se cumpla una condición y es la n e c e s i d a d de poseer buenos conocimientos y estudiar e i n v e s t i g a r con calidad. Por ello, el deterioro de nuestra e d u c a c i ó n superior y de nuestros consejos de invest i g a c i o n e s no constituyen meros accidentes políticos; son v e r d a d e r a s puñaladas políticas atestadas contra el p o r v e n i r de nuestro país. Por ello es que insisto, y perdonen c j u e lo mencione una vez más, en el carácter r e a c c i o n a r i o de cierto "anticientificismo". L a s preocupaciones por la introducción de factores i d e o l ó g i c o s en ciencia no deben dirigirse a socavar la " o b j e t i v i d a d " de ésta, sino más bien a señalar el mal e m p l e o q u e de ella hacen gobierno y grupos de poder, 0 t a m t s l é n a indicar las deficiencias de los movimientos p o l í t i c o s en lo que hace a los tres tipos de actividad ya aludidas.

20

De paso sea dicho, creo que se ha comprendido mal el papel de las ciencias básicas en las carreras científicas y profesionales de países subdesarrollados o en desarrollo. Actualmente, además de equipos interdisciplinarios, se necesitan científicos con una visión muy amplia de la estructura de la ciencia básica contemppránea. Por ello, con relación a las tres actividades ya discutidas —especialmente la tercera— se necesita una preparación especial e intensa que anteceda a tareas especiales o profesionales. En la Segunda Guerra Mundial, graves problemas inesperados no fueron resueltos por simples especialistas sino por personalidades amplias como las de Wiener o de von Neumann, por ejemplo. Si. el ejército y la marina de Estados Unidos subvencionan investigaciones sobre axiomática del álgebra abstracta, no es "por el honor del espíritu humano" (como creía Jacobi que se debía justificar el estudio de la matemática) sino porque saben que problemas muy concretos serán finalmente resueltos por investigadores con una visión muy amplia y general adquirida en el campo de las ciencias básicas. Completemos lo anterior con una reflexión pesimista que concierne a una clase de personas que desarrollan su actividad científica con la misma despreocupación con que podrían vender soda o cocaína, si ello garantiza un empleo. Estos serían los burócratas científicos, contra los cuales dirigen con razón sus dardos los "anticientificistas". Tengo la convicción de que los cambios sociales en Rusia, en la India, en Japón, en Latinoamérica pueden ser de gran brusquedad, pero que a los burócratas no los toca, quedan siempre en el mismo lugar. Eso ha pasado reiteradamente y con toda evidencia en nuestro país: pueden acaecer cambios sociales y políticos, "revoluciones" y cuartelazos, y vamos a encontrar casi siempre a los mismos individuos en las mismas oficinas. Ahora bien, yo no creo que haya que boicotear a los burócratas porque sean burócratas del gobierno de hoy, porque estos mismos señores van a ser casi seguramente los burócratas del cambio social. Quizá lo más inteligente sea planear las cosas para lograr que esos señores estén suficientemente informados como para que no entorpezcan el nuevo estado de cosas por incompetencia

C. N.: Entonces, ¿cómo d e b e organizar su actividad un científico argentino consciente de su papel social?

G. K.: Si se me pregunta acerca de la responsabilidad social del científico, y si el caso del burócrata es excluido, pienso que el ideal podría quedar representado actualmente y en nuestro medio por algo así como una persona que dedica el cincuenta por ciento de su tiempo para las ciencias básicas y para su investigación como científico, pero que consagra el otro cincuenta por ciento a obtener información de otro tipo, como es saber qué problemas nacionales existen, cómo se han resuelto y cómo se podría hacer para que sean enfocados de otra manera en este momento o en un estado de cosas diferente. Es decir, qué hacer con el problema antes, después y durante el cambio. En este sentido creo que hay una labor muy grande que cumplir, lo cual no implica de ninguna manera el abandono de la labor didáctica ni el de la actividad científica; por el contrario pienso que un científico encuentra un lugar apropiado


para su papel social precisamente en sus tareas, no en una torre de marfil o apartado del medio cultural, político y técnico. C. N.: ¿Qué relación ve usted entre actividad científica y actividad política?

G. K.: En aquella conferencia me hicieron una pregunta similar y además me preguntaron si la labor militante de carácter político debe estar consustanciada con la actividad científica misma. Yo no he penetrado en este tipo de problemas pero, en primera instancia, tengo la impresión de que esto no ofrece beneficios científicos ni políticos. Creo que los cambios políticos que la historia nos ofrece no han sido realizados por científicos en cuanto científicos ni por intelectuales ,en función de tales. Y esto es quizá más válido en nuestros tiempos, en los que una protesta o una estrategia puede ser delineada mucho más claramente por un obrero que por un intelectual. De modo tal que no veo el papel político como un rol especial a desempeñar por intelectuales por el hecho de ser intelectuales. Pienso que una cosa es la acción política y otra la acción científica. Son conceptos y tareas que no deben confundirse. Pienso que la acción política es algo que un científico, en cuanto persona y ciudadano, debe realizar, bien y mucho. Pienso también que para los científicos hay una acción de carácter ideológico que sí puede estar plenamente justificada en un país como el nuestro. Es la que puede resumirse así: un científico debe saber qué es lo que pasa en su país, los errores que se cometieron, debe estudiar las condiciones del cambio social y discutirlas científicamente ya que, por desgracia, mucho de lo que se llama "la aspiración al cambio social" en nuestro medio suena más bien a música romántica que a algo que se sepa cómo y cuándo hacer. Yo he visto en multitud de ocasiones improvisaciones para hacer algo en lo político que desde el punto de vista sociológico se sabía bien que era ineficaz, esporádico, sin efecto positivo duradero alguno.

c

C. A/.: ¿Quiere agregar a l g o respecto del problema del papel de la ideología e n ciencia?

G. K.: Volviendo a "ideología", creo que no es un obstáculo para la objetividad, exactitud y justificación del conocimiento científico. Sí lo es en cuanto a su difusión, enseñanza o en el contexto de aplicación, en relación con sus aplicaciones tecnológicas. Para decirlo brutalmente, no hay factores ideológicos que distorsionen nuestro conocimiento de las propiedades del napalm, ni-el de las razones que motivan que esta sustancia se arroje sobre poblaciones civiles. Pero sí hay razones ideológicas para que la enseñanza de la sociología oculte estos hechos, o no proporcione armas para comprenderlos e impedirlos.

C. N.í ¿Puede existir una "ciencia nacional"?

G, K.: Respecto de la llamada "ciencia nacional" —denominación que comienza a ponerse de moda con las mismas ambigüedades que "ideología" y "cientificis-m o " — me parece conveniente hacer una distinción. Sí por tal ciencia se entiende métodos especiales para diseñar investigaciones, "testear teorías" o deducir conclusiones a partir de premisas, métodos que correpondan a nuestra idiosincracia y a nuestro "ser nacional", entonces la idea me parece absurda — c o m o sería decir que el ajedrez es más criollo que el ludo porque emplea la palabra " m a t e " . Y no sólo absurda sino peligrosa, como los delirios de Hitler definiendo una "ciencia" alemana. Pero si "ciencia nacional" quiere decir una toma de conciencia acerca de nuestros problemas argentinos, el estudio de técnicas para resolverlos, el detectar hipótesis y teorías que puedan auxiliarnos, el ordenamiento racional de nuestra enseñanza, etc., entonces la idea que esa denominación expresa coincide con la caracterización del triple tipo de tareas que creo debe realizar un científico en nuestro medio, si no es un indiferente o no ha vendido su alma al diablo (que suele venir disfrazado de empresa foránea o de ideología transplantada). O

fck

> 2 W


Fisiología del record deportivo Roger Bannister Publicado por cortesía de Science Journal.

El interés humano en batir records es universal y no parece demasiado relevante que esos records sean establecidos por aviones, automóviles u hombres. Cuando intervienen las máquinas, los records sólo pueden alcanzarse con superación tecnológica pero en el caso del hombre los factores que limitan los records conciernen principalmente a la mente y a los músculos humanos. Eloy me encuentro lo suficientemente alejado de la actividad deportiva para haber olvidado algo de lo que significa intentar batir records en pista, pero quizá no lo suficiente como para dejar de observar con creciente interés sus aspectos científicos. H a habido una gran dosis de especulación en lo que respecta a la importancia del físico en la performance atlética. Hipócrates fue uno de los primeros en estudiar el físico humano, clasificándolo en Habitas phthisicus y Habitas apoplecticus —una tendencia a la tuberculosis y una tendencia a enfermedades vasculares. En 1940 W . Sheldon introdujo en Estados Unidos una manera de medir los extremos del físico de acuerdo a tres tipos básicos. El individuo endomorfo tiene un físico con el máximo grado de obesidad, el mesomorfo el máximo grado de desarrollo muscular y el ectomorfo el máximo grado de delgadez. La figura 1 muestra una representación triangular de estas variantes del físico, con el endomorfo —la persona representada numéricamente por 711— con el máximo de 7 compoRoger Bannister, el primer hombre nentes de endomorfismo, el mínimo que corrió una milla en menos de de 1 componente de mesomorfismo cuatro minutos, es Neurólogo Consultor en tres hospitales de y 1 componente de ectomorfismo, Londres y Jefe del Comité de en el extremo inferior izquierdo. El Investigación del Consejo de Deportes extremo mesomorfo está representadel Gobierno. Es especialista en do por 171 y el ectomorfo por 117. enfermedades cerebrovasculares y en La figura 2 ilustra la distribución fisiología del deporte.

La provisión de oxígeno a los músculos es de vital importancia para la performance atlética. Los métodos modernos de entrenamiento pueden aumentarla en un centenar de veces y si los atletas comenzaran su entrenamiento en la adolescencia, se podrían superar muchos records mundiales.

22

del físico entre una población normal. El punto central es el número 444 y la mayoría de los individuos se concentran alrededor de este punto. En el segundo diagrama se muestran los resultados de una parte del estudio realizado por el Dr. J. M. Tanner, del Instituto de Salud del Niño, en Londres, sobre un gran número de atletas olímpicos. Todos los tipos de físico de ajletas están ubicados en la parte superior derecha de este triángulo; ellos tienen un alto componente de mesomorfismo y de ectomorfismo. En realidad, los sprinters son más bien mesomórficos, mientras que los corredores pedestres de largo aliento son algo más delgados, tienen que transportar menos peso en relación a su potencia y están más apartados hacia el polo ectomórfico. Sólo los nadadores pueden realmente conservar un alto grado de endomorfismo porque el agua soporta el exceso de peso. ¿Qué importancia tiene el físico? Por supuesto, un atleta no puede ignorar su tipo somático y tiene que elegir la especialidad apropiada, pero hay especialidades atléticas adecuadas a la mayoría de los tipos físicos. Si bien el efecto del físico es importante, puedo afirmar que atletas con grandes diferencias físicas son igualmente aptos para alcanzar destacables grados de éxito en una competencia individual. Antes de la guerra, el poseedor del record mundial para la milla fue Sydney Wooderson. Medía sólo 1,70 metros de estatura y sin embargo era capaz de correr tan rápido como Arthur Wint, un corredor de 1,93 metros. Es evidente que otros factores pueden ser más importantes que el físico. Esos factores son aquellos relacionados con la fisiología. El mejor camino para empezar a analizarlos es


d

' t ' l S ( Ií ' I ' ibi ti¡ i I i i ,111 I I' n i i 1 i n 'i f p i 1 I iM ti t r ' - ^ 111 i i ' i i t > i | i un j I i 1 M ( i i n 1 1 ddo! ]( i i it i i ii 1 d k v ¡ i i h iu ! i ' ii i i t.n ) 1 ( i ii i i <on1- t n c t i¡ !¡( i nt i .'i in .i n o n i i i mH í i h i dt u 1 t i ni di n iti i t nii 11 1 i • ti i P 1 1 HII| I lL 'i M '1 K' ) ni u t i nto >1 t i 1 in1 n ! mili' V a - U tk I mu tu i n 1 10 o li) t ,et 1 ti 1111 he i Müt 1 h l til' t i l 1 I )¡ ti >1< no Hii intuí n n i i i i ili ' il

El c o n s u m o d e o x í g e n o

i i 1

* ?

u

coic i e11 E s t e es un ir torna

que ilt

ii

ti

m

mide c! n r carbónico c o n t e n i d o de.

mué

i i i

i

este ntidad asume fi

i

h i id i t u i i ed m i l t i lt e r a d o se apova en déficit de oxígeno Un t it ( ill m

tt

ti

~f i '

m u

'o

m

]

I i II i p

aparato perrn de o x í g e n o q p¡.ir encima < 1 i t i i e r m i n a r en t; 1 i SITIO i1,-1

Hill, d iclres, 1 te ¡¡na carre; :>uede t<

1 i

ti

uti u

t

n

i

,1

)t«

m d 1

tot ! de o f

D u r a n t e la carrera, el t i e m p o para q u e el o x í g e n o sea t r a n s p o r t a d o a través de los p u l m o n e s , d e s d e el aire e x t e r i o r hasta los músculos, es insuficiente. La sangre e m p l e a 15 segundos en circular y c o m o en los 100 m e t r o s llanos la c o m p e t e n c i a finaliza d e n t r o de los 10 segundos, es evidente q u e el o x í g e n o aspirado dur a n t e la c a r r e t a n o llegará a los músculos. E l sprint es, por lo t a n t o , una d e m o s t r a c i ó n e x h u h e r a n t e y extravagante d e c o n s u m o d e energía, con un r e i n t e g r o p o s t e r i o r del déficit en el cual el o x í g e n o es absorb i d o d u r a n t e u n c o n s i d e r a b l e períod o de t i e m p o d e s p u é s del e s f u e r z o . Así, el f a c t o r l i m i t a t i v o en este tipo de carrera es u n a cualidad intrínseca del m ú s c u l o : la velocidad innata con que el atleta p u e d e m o v e r sus piernas. Existe t a m b i é n la cuestión del t i e m p o reflejo, es decir la velocidad a la cual u n atleta p u e d e reaccionar a la o r d e n de largada. T o d o estos factores p u e d e n ser m e j o r a d o s p e r o sólo d e m a n e r a relativa, ya q u e son p r i n c i p a l m e n t e i n n a t o s . E s t e es el m o t i v o p o r el cual ios sprinters esencialmente " n a c e n " y n o se " h a c e n " . F r e c u e n t e m e n t e , c o r r e r á n t a n t o mejor c u a n d o m á s t e m p r a n o comiencen, p o r e j e m p l o a los 16. 17 o 18 años; el margen d e p e r f e c c i o n a m i e n t o con la edad y con la experiencia n o es de m a s i a d o g r a n d e . E n los estudios realizados en el Dep a r t a m e n t o de Fisiología, en O x f o r d , el atleta c o r r e sobre una cinta sinfín cuya p e n d i e n t e y velocidad p u e d e n modificarse para p r o d u c i r el g r a d o de exigencia r e q u e r i d o en su trabajo. E l aire aspirado p u e d e regularse

ti

esfuerzos

qim>

n •(. i 1 ii ti ¡n 11 ni n tit t u te din i ite J n Ion n 1 m i n 1 i i!t H i i i p i it ni d

unos "M) o 10 minuto

1 e'ir < k n

N o o b s t a n t e , t.i L u ^ u eL.t,„.n.ja,>, t.1 atleta c o n s u m e u n a parte proporcion a l m e n t e m a y o r del oxígeno q u e respira d u r a n t e la carrera y el mecanism o del déficit ele oxígeno a d q u i e r e i m p o r t a n c i a recién hacia el f i n a l de la c o m p e t e n c i a .

Existen varios factores involucrados en el transporte del oxígeno del aire a los músculos. Primero el oxígeno debe ser introducido en los pulmones y se puede mejorar la eficiencia de este mecanismo. Luego el oxígeno debe atravesar una delgada membrana, de sólo una célula de espe oí c n t u 1< ti e' ili s \ lo-, ¡pi lie i - pv.i mentó h 1 i en < 11 b i v a n i m i l Dr | f t iti h n m o s t i l l o cj e p ti i tlt i n \ J e l1 t •> i um i de en i i i m u > e 11 i h 'e i' uit i — un niel i ne mi t t j u 1 1 pu i tt n t tu o í n i i m \ t tk 11 na nu H n t que un l| i > I e ! I 1 í ! It'i I i i t itnb t i l t d e ti e i n i i i clin il 1 i i le o un i I din no ii i t 1 > (" m i ib i 1 del entteii m i t Jim m i n t m ' I mt mi m i ti ti in p i puede 1 M t !1 t 1 I t \ í leí el' dt III ! I Mi e ill d i II (,! í | Itleio 111 i l * 1 1

breves

I

e

it i

i i

i

i

a

! 1 i i i, falta d

, i' n

i '

'

i

r

i .1' > •

i

¡i 11 II i lt t icntar la

d e abprobado 1 i i ii > > i ruando 1 i \i \nderel reI 'i 1 i i ( m i tu - . 2 sei lt ' i ^ Vinania 1 f le p o ma 11 1 n I i 1 t .t

cticíeni sorciór ñor pri

i

dt

intermitentes.

im

I j ' 1 | tí lili IlLo til i i i t 1 n id i iblt i i d li s u< di Cr h n i Mi i 1 í t tk u i ten ibin c i i ¡ el( i nt ' l i n tlt "> de m ''' t i ti e ia ib u u n < o r t o 1 lili) — -> e e itw p i n r e ' t ' hl t i t n nlt o u u u n c i ó n — \ )1 n i i n n r >iu i ii irto d e mili i < s, u i íik ntv I m o de los mas d e s t a c a d o s e x p o n e n t e s de este t i p o d e e n t r e n a m i e n t o f u e el b r i l l a n t e c o r r e d o r Ern.il Z a t o pek quien, solía c o r r e r a l r e d e d o r d e 4 0 cuartos de milla, con u n c o r t o descanso cada vez, Z a t o p e k c o n t ó a otros atletas q u e en u n a o c a s i ó n había c o r r i d o a ú n más y que l o h a b í a hecho calzando b o t a s militares. D u r a n t e un t i e m p o , b u e n a p a r t e d e los atletas p a d e c i e r o n d e llagas y ampollas por t r a t a r de i m i t a r a Z a t o p e k . G r a d u a l m e n t e , el p e r í o d o d e t i e m po en el cual los a t l e t a s p o d í a n entrenarse p o r e s t e m é t o d o f u e increm e n t a d o . J i m R y u n , quien t e n í a 2 0 años c u a n d o e s t a b l e c i ó el a c t u a l record mundial para la milla, e s t u v o corriendo los c u a t r o s ú l t i m o s a ñ o s casi tres h o r a s por d í a , en d o s y a veces h a s t a t r e s sesiones d i a r i a s . Uno se p r e g u n t a c ó m o alguien puede dedicar t o d o este t i e m p o a e n t r e narse v- a h a c e r t a m b i é n a l g u n a o t r a cosa. El g r a d o d e especialzación necesaria para alcanzar u n r e c o r d m u n dial plantea u n p r o b l e m a e x t r e m a d a m e n t e difícil.

¿Cuáles son los límites en l a s carreras a media d i s t a n c i a ? T e n i e n d o e n e n e m a los factores fisiológicos q u e he m e n c i o n a d o , p o d r í a d e c i r c o n n n 11 d u n í i certeza y d e s d e el p u n t o d e v i s t a fi1 Ni. \ 1 < J h ' i u siológico q u e la india p o d r á c o r r e r 1 t lo uit i! * m i t ! i i se en tres m i n u t o s y m e d i o a p r o x i il t n t i n i i il 1 u 1 i 1 i m a d a m e n t e , a u n q u e Heve t r e i n t a o II ( ip u ti i I I 1 ül i i li n cuarenta años alcanzarlo. F.I t i e m p o p ' II i ii I íii» m 11 i de e n t r e n a m i e n t o t e n d r á q u e a u m e n míenlo l o s n i ñ o s n o s e esfuerzan dctar v p r o b a b l e m e n t e los a t l e t a s teni.iaj.atlt \ i L j J I u a m Ufj.dai.iente, drán q u e c o m e n z a r l o en la adoles-

23


mesomorfismo atletas

olímpicos

171 262 / 3 6 1 . tea • 1 1 «x T

<4? A 271 2I 172 .o\,o° " i 372 227 2- \ \ \ \ 372 'I| - 162\ , 372 % % e? -<í> 47,' 471 261 261 V 362 | 263 1 6 3 \ '%% 56 ¡/ 462 252 '451 352 | 253 154^ /s51 '452 353 254 ^

- 5 3 í " •5

3 í 731 íi 52^ t"^33S25 L lI * i}. J"~ 623 523 524425 325. 326 Sft . y l n 524 424 623

\ 711" V

X

7 1 2

•fe.

612

613 613

c5 U

/.ic

316

216

236

® 353

/ 642 / 631 41

534 434

523

A

• • • • • a • • • « e

/ »

0

<3S

3•i 35

-. ^ 1 "225

325

226v

S-

cencía, antes que su físico esté formado; en otras palabras se deberá explotar la influencia de la falta intermitente de oxígeno antes que los pulmones y el corazón terminen de crecer. Siempre se ha pensado que los escolares no deben incurrir en entrenamientos severos, pero yo opino que este concepto puede no ser verdadero.

Los riesgos de la maratón Para el caso de competencias a distancias aún mayores influyen otros factores. Durante la maratón, una carrera de 42 kilómetros (42,15 kilómetros es la distancia de Maratón a Atenas) la provisión de oxígeno a los músculos se agota. La fuente de energía es la glucosa y se ha observado que al finalizar la maratón los corredores entran a veces en estado de colapso y su nivel de azúcar en la sangre baja considerablemente. Pero interviene un segundo factor, puesto en evidencia mediante experimentos realizados nuevamente en colaboración con el Dr. Cotes. Nosotros los emprendimos en 1961, justamente antes de los Juegos Imperiales de Cardiff, cuando se sugirió que la maratón podría correrse al calor del día y tratamos de señalar que esto podía ser poco sensato. Los atletas hicieron ejercicio en una cinta sinfin a dos niveles diferentes de temperatura ambiente. Aunque la mayor no era excesiva, después de 15 minutos de ejercicio

24

•'

524 424 514 •

Figura 1. El físico puede clasificarse en tres tipos básicos (arriba). Endomorfismó es el máximo grado de obesidad, mesomorfismo el máximo grado de desarrollo muscular y ectomorfismo el máximo grado de delgadez. El físico de un individuo puede representarse numéricamente por el número de componentes de cada tipo básico. El extremo endotnorfo, por ejemplo, está representado por 711; el punto central por 444 y en una población normal la mayoría de los individuos se concentran alrededor de este punto. Figura 2 (derecha). Los atletas poseen altos componentes de mesomorfismo y ectomorfismo.

334

632

SJ /

*

453 J , 0354 ! . • ur»

'r \

DI I

' OI \ ° ^ 731 '27 ,

i 2 6

1

253 K • *x

352 ' I . . 7.

-442 " 3 I 354 244 HS\ r / 541 .Frr651/ \ 343 / ' 542 245 fS fi 641 "3 344 \% íiS / I/ \ o a 345 / 63 , 642 543 444 , 3fi \ %.% 345 532 532 ' * 741 - 433 tar 34 235 \ tg % 741 | > 3 334 /1621 621 6 3 2

263

415

la temperatura del cuerpo de los atletas comenzó a superar la alcanzada en el ambiente más fresco. Era obvio que el control que la temperatura del cuerpo se vio afectado por el medio ambiente caluroso y el atleta debió detener el ejercicio 5 minutos antes que en el ambiente más fresco, en el punto en el que la temperatura del cuerpo correspondía más o menos a 40°C. Esto estaba muy cerca del límite en el que se manifiesta la hiperpirexia (40,6°C). En este punto se entra en un círculo vicioso, por ser mayor la producción endógena de calor dentro de los músculos que la velocidad de disipasión del calor por conducción, radiación y evaporación del sudor. Hay casos de atletas en que han alcanzado este grado de hiperpirexia en maratón y sería muy imprudente que cualquier competencia atlética de esa duración, se realice en un medio ambiente muy caldeado. Algunos pueden recordar las fotografías y películas del final de la maratón en los Juegos- Imperiales de Vancouver, en 1954, cuando Jim Peters —un gran corredor de maratón— alcanzó el tramo final casi en completo estado de colapso. Se tambaleó por la pista, sin real conciencia de lo que estaba haciendo, hasta que las autoridades organizadoras comprendieron la situación y en su propio beneficio —yo pienso que en beneficio de todo el deporte— resolvieron retirarlo de la pista. Aunque más tarde se recuperó en un hospital, temo que una situación como esta sea potencialmente peligrosa.


Los estimulantes El uso de drogas debería mencionarse como otro de los factores que pueden intervenir en el rendimiento de un atleta. No hay evidencias suficientes sobre el uso de estimulantes, por supuesto, en relación a competencias atléticas corrientes y los pocos experimentos controlados científicamente usando drogas tales como anfetamina, aniital y placebos, han sido en general poco concluyen tes. Hubo una serie de experimentos realizados por el profesor Beecher en Harvard, en los cuales los atletas fueron sometidos a pruebas cuyos tiempos fueron medidos, normalizados y estadísticamente analizados. .Parece que cuando un atleta supone que una tableta contiene un estimulante rinde mucho mejor, aunque la tableta sea un placebo. Pero esta falta de efecto verdadero no puede aplicarse a competencias extremadamente prolongadas y hace unos años ha habido casos, en competencias internacionales —particularmente ciclísticas— en las que se ha probado el uso de drogas. Actualmente se realizan tests para prevenir esta infrac ción a las ieyes atléticas y morales. Yo pienso que la mayoría de los atletas concuerdan en que además de estar contra la moral es una verdadera locura creer que de esa manera el rendimiento puede ser sustancialmente mejorado. Los atletas deben competir en muchas ocasiones y tienen que ser capaces de hacerlo con sus propios recursos físicos y mentales. En un sentido educativo, el aumento de un autoconocimiento de este tipo es una de las funciones más útiles en el deporte. Yo creo que la diferencia de performance entre atletas no sólo se debe a diferencias en el físico, en la capacidad cardíaca o en la de transferir oxígeno. Se debe mas a la facultad para el ejercicio mental, que es sobre todo innata y que trae aparejada la capacidad de sobreponerse e ignorar la molestia y el dolor en el cerebro y en los músculos causados por la falta de oxígeno. Aunque los límites fisiológicos y circulatorios del ejercicio muscular pueden ser importantes, hay factores psicológicos que exceden el alcance de la fisiología y que establecen ese filo de una navaja que separa la derrota de la victoria y determina cuan cerca puede llegar un atleta de los límites absolutos de su rendimiento.

Esta relación mente-cuerpo es muy difícil de entender y posiblemente pueda ilustrarla con una anécdota que se cuenta sobre Zatopek. En los Juegos Olímpicos de Helsinki en 1948, Zatopek corría su primera maratón habiendo ya ganado las carreras^de 5.000 y 10.000 metros. Después de haber corrido unos 16 kilómetros estaba detrás del especialista inglés Peters y en su muy buen inglés Zatopek le dijo: "Disculpe Peters, yo no he corrido una maratón antes pero ¿no deberíamos estar corriendo un poco más ligero?" Peters continúo corriendo otros 200 ó 300 metros a su velocidad normal y luego fue vencido por un tremendo cansancio. Zatopek aumentó su velocidad, aunque no por mucho tiempo y fue capaz de continuar y ganar la competencia cómodamente.

Altura: ¿una barrera insalvable? La decisión de realizar los últimos Juegos Olímpicos en Ciudad de México a 2.250 metros sobre el nivel del mar, fue sorprendente. Pienso que las consecuencias de realizar los juegos a tal altitud, donde la presión atmosférica está reducida en un cuarto, son bastante obvias por lo puntualizado hasta ahora. En todas las competencias que superan los 200 metros, el rendimiento depende de la capacidad del atleta para transportar oxígeno a sus músculos y si la cantidad de oxígeno en el aire exterior es reducida, es obvio que la performance sufre sus consecuencias. El efecto de la altura varía con la distancia de la carrera. Por ejemplo, en una competencia de 800 metros, siendo que la reducción en oxígeno estaba más que equilibrada por la resistencia reducida del aire, un atleta australiano alcanzó así un nuevo record mundial. En los 1.500 metros, en los cuales solamente el 25 por ciento de la energía para la carrera proviene del mecanismo de déficit anaeróbico, el atleta keniano Kipchoge Keino ganó fácilmente al titular mundial Jim Ryun, quien había derrotado dos veces a Keino al nivel del mar. En los 5.000 metros, Gammoundi, un tunesino que vivió y compitió en alturas elevadas durante los cuatro años anteriores a los Juegos Olímpicos de México, ganó y fue seguido por Keino y Temu, ambos de Kenya. Los atletas habitúa-


dos a correr al nivel del mar se encontraron con el inconveniente de no poder superar el déficit del oxígeno acumulado al comenzar la carrera y muchos de ellos lograron completarla sólo para desmayarse inconcientes sobre la línea de llegada, vencidos por una forma de síncope. Presenciamos finales igualmente desafortunados en los 10.000 metros, llanos, los 3.000 metros con obstáculos y 3.000 metros a campo traviesa en el Pentathlon. En algunos casos los atletas describieron dificultades en la visión binocular antes de desmayarse. Pero la ocurrencia de estos efectos fue pasada por alto por las autoridades médicas mexicanas y probablemente este aspecto de los juegos no figurará en los registros olímpicos oficiales. Sería totalmente desafortunado si la memoria del público fuera tan corta como para permitir que las competencias internacionales vuelvan a realizarse en lugares altos. Pero en muchos aspectos los Juegos de México fueron exitosos. Hubo un sorprendente total de 15 records mundiales batidos en carrera y en

saltos y esto es verdaderamente asombroso aún teniendo en cuenta la menor densidad del aire que ofrece una ventaja en estas especialidades. La final de los 100 metros fue una cuestión entre atletas negros, resultando un nuevo record olímpico de 9,9 segundos. También se lograron nuevas marcas en los 200 metros, 400 metros, posta 4 X 100, posta 4 X 4 y 400 metros con vallas. Pero estos records crearon un problema a los organizadores. Pasará un largo tiempo antes que muchos de ellos sean igualados al nivel del mar y ya se considera la posibilidad de mencionarlos en un libro de records completamente separado, caratulado "Ciudad de México". ¿Puede un atleta habituado al nivel del mar aclimatarse algnua vez a la altitud? Para aclimatarse por completo, debe elegir cuidadosamente sus padres y nacer a muchos metros de altura. La regla de "un mes de entrenamiento en altitud", introducida por el Comité Internacional Olímpico, es ridicula porque no pudo ser impuesta y se trató meramente del reconocimiento de la exis-

tencia del problema. Los corredores con hasta dos años de entrenamiento en altitud se desmayaron en la pista, mientras los kenianos y etíopes continuaron corriendo hasta la rampa que conduce fuera del estadio, con desafiante facilidad. Todavía no han sido establecidas las ventajas fisiológicas exactas de los corredores acostumbrados a alturas elevadas, pero parece que ellos son capaces de extraer más oxígeno de la sangre que los atletas nacidos al nivel del mar, aun cuando estos últimos estén mucho tiempo aclimatándose a la altura. Es así que hoy nos enfrentamos con que la altitud ha abierto una especie de Caja de Pandora de problemas. Si tiene que encontrar la manera de vivir la mayor parte del año a muchos metros de altura, el verdadero amateur que se gana la vida trabajando todo el día, está destinado a ocupar un lugar menos importante en las futuras Olimpíadas internacionales. O quizás los atletas necesitan una tarjeta que los identifique como corredores a cierto nivel. Las complicaciones futuras se presentan ilimitadas. O

PHILBRICK/ NEXUS

Dedham - Massachusetts - U.S.A.

Amplificadores operacionales Sistemas no lineales Equipos analógicos de simulación y computación

Representantes exclusivos para la República Argentina

SIREX Libertad 836 - Tel. 44-5781 42-1927

26

J


El resurgimiento de la cosmología observacional D. W . Sciama La Itecherolie

La cosmología observacional se ha enriquecido, en los últimos años, con el descubrimiento de un apreciable número de objetos y fenómenos importantes. Se trata especialmente de las radio'galaxias, radio-fuentes de aspecto estelar (los cuasares), que se alejan de nosotros a velocidades próximas a la de la luz e irradian cantidades fantásticas de energía. Los descubrimientos observacionales debidos en gran parte a la radioastronomía despertaron el interés por fenómenos hasta ahora desconocidos y es posible que permitan revelar el movimiento absoluto de la Tierra en relación con el universo y la existencia de supercúmulos de galaxias. La cosmología moderna está determinada por dos descubrimientos importantes realizados independientemente en el año 1965. El primero es el de objetos cuyos espectros ópticos presentan grandes desplazamientos hacia el rojo; el segundo descubrimiento es el de la radiación térmica cosmológica. Es oportuno señalar que todavía no estamos en condiciones de apreciar plenamente todo el alcance de estos descubrimientos, pero no hay duda que desde ahora vivimos un importante resurgimiento de la cosmología observacional. El presente artículo está también consagrado a los recientes desarrollos en el tratamiento de estas cuestiones y comienza con una exposición sobre la importancia, en el plano cosmológico, de los famosos recuentos de radio-fuentes.

Los recuentos de radiofuentes El estudio de la distribución de las radio-fuentes condujo al abandono de la teoría del estado estacionario Al n o estar la expansión del universo compensada por una creación de materia, su densidad disminuye con el tiempo. La primera tentativa para extraer conclusiones cosmológicas de las ra-

dio-fuentes se debe a Ryle y Scheuer, a partir de 1955. Ellos pensaron con razón que la mayoría de las radiofuentes inscritas en el segundo catálogo de Cambridge, llamado catálogo 20, eran extragalácticas, de tal manera que su distribución podía relacionarse con la estructura de conjunto del universo. Ryle y Scheuer llegaron así a la conclusión de que esos recuentos eran incompatibles con la teoría del estado estacionario, conclusión que provocaría, en ese momento, una larga y con frecuencia violenta controversia cuyas repercusiones no han sido aún superadas. Dichos recuentos consisten en contar el número N (S) de fuentes por unidad de ángulo sólido cuya densidad de flujo, recibida por un radiotelescopio en una frecuencia determinada, es superior al valor S. Esta medida está hecha para valores decrecientes de S, obteniéndose así una serie de puntos sobre un diagrama. En la hipótesis de un universo estático, las radio-fuentes tienen una distribución uniforme y sus propiedades son invariables en el tiempo. Su número será entonces como el cubo de la distancia observada, mientras que la densidad de flujo recibida de cada una de ellas disminuye como la inversa del cuadrado de la distancia. De allí se deduce la relación de proporcionalidad N a S- 3 -' 2

que está representada por una recta de pendiente — 1,5 en u n diagrama que lleva los valores de log N en las abscisas y los de log S en las ordenadas (fig. 5 ) . Los efectos del desplazamiento hacia el rojo sobre esta relación tan simple son tres y su importancia aumenta a medida que S decrece. Al desplazarse hacia el rojo se observa, en realidad, en una banda de frecuencia estrecha, la radiación emitida en otra banda de frecuencia; es así como la intensidad intrínseca efectiva de las fuentes depende del desplazamiento hacia el rojo. Con todo, este efecto es débil y prácticamente se lo puede ignorar. Pero el desplazamiento hacia el rojo reduce también la magnitud aparente de las fuentes, además de la ley de la inversa del cuadrado, es decir que dicho corrimiento reduce la distancia de una radio-fuente que tiene un S determinado, o más aún se puede decir que reduce N. Por último, si se admite que el desplazamiento hacia el rojo describe un universo en evolución y sin creación de materia, la expansión implica que la concentración de las fuentes, es decir su número por unidad de volumen, fue en un tiempo mayor, ya que las distancias enormes que nos separan de estas fuentes hace que nosotros las observemos en la posición en que ellas se encontraron en un pasado muy lejano. Los dos últimos efectos


Figura 1. La radio-galaxia M 87, que dista aproximadamente 40 millones de años luz, e irradia 1031 ku> en el espectro radio. De su centro parece partir un chorro luminoso. (Fotografía obtenida con el telescopio de 120 pulgadas del observatorio de Lick, Estados Unidos).

son muy importantes y los cálculos demuestran que en todos los modelos cosmológicos posibles, el último es el menor; esto por supuesto, no es válido para el modelo del estado estacionario. Es así como en todos los modelos posibles, el efecto del desplazamiento hacia el rojo sería obtener una curva log N en función de log S más inclinada sobre el eje de las abscisas (fig. 5 ) . Las observaciones están en flagrante contradicción con estas conclusiones; ellas han conducido, en efecto, a una curva más pronunciada cuya pendiente es de — 1,8 pero que se aplana hasta la pendiente — 1 para los valores más bajos de la densidad de flujo (fig. 5). Ryle y Scheuer pusieron en evidencia esta contradicción explotando el hecho de que en un universo en expansión, en realidad se observan los objetos que presentan un gran desplazamiento hacia el rojo en una etapa de su evolución mucho más primitiva que la que se observa en aquellos cuyo corrimiento hacia el rojo es más pequeño. En la actualidad se carece de un conocimiento detallado del origen y la evolución de estas fuentes, pero podemos, a esta altura de las investigaciones, admitir que han evolucionado precisamente de una manera que explica la relación log N en función de log S que ahora observamos. Particularmente nos resulta posible obtener una curva más pronunciada que la que expresa la relación

N a S~3/2

Figura 2. El cuasar 3C273. Este cuasar presenta un corrimiento hacia el rojo de Q, 16, que lo sitúa a aproximadamente 640 megaparsecs; el chorro que se observa abajo y a la derecha puede sugerir una explosión. Irradia 1,5 X 1057 kw en el conjunto del espectro electromagnético y su potencia varía rápidamente. Eu destello variable de un cuasar informa sobre sus dimensiones: éstas no pueden ser mayores que la distancia que puede recorrer la luz durante la duración de dichas variaciones. Estas dimensiones parecen st>r del mismo orden para todos los cuasares. 3C273 tiene un radio inferior a 500 parsecs y es la masa contenida en el interior de esta esfera la que debe ser responsable de la enorme energía irradiada. (Foto de los observatorio? del monte Palomar y del monte Wilson).

28

planteando la hipótesis de que, en el pasado, la intensidad intrínseca o la concentración de las fuentes ha sido, en términos medios, suficientemente más grande como para compensar y superar los efectos cinemáticos de la expansión. Resulta evidente la imposibilidad de recurrir a una explicación de este tipo en el contexto de la teoría del estado esta : cionario que supone que las propiedades intrínsecas de las fuentes han sido siempre las mismas en todo tiempo y lugar del universo. Dentro de esta perspectiva, Davidson y Davies intentaron poner de acuerdo la teoría con las observaciones. La dificultad reside en que la mayoría de las radio-fuentes contadas no han sido aún identificadas ópticamente. En particular, se sabe que dos tipos de objetos entran en los recuentos: por una parte las radio-galaxias, por la otra las radiofuentes cuasi-estelares, o cuasares.

Quisiéramos conocer claramente la importancia relativa de las contribuciones de estas dos poblaciones a la pendiente anormalmente abrupta de la curva que describe log N en función de log S.

Los cuasares Hitis radio-fuentes cuasi-estelares, o cuasares, son objetos extragalácticos cuyo suministro de energía es considerable y cuya velocidad de alejamiento puede aproximarse a la de la luz. Los cuasares son objetos que presentan grandes corrimientos hacia el rojo, y que, en consecuencia, parecen estar muy alejados de nosotros. De la radiación que nos llega, relativamente considerable en relación a la de los objetos normales que estarían situados a esas distancias, se deduce que deben ser la fuente de cantidades enormes de energía concentradas en un volumen muy pequeño, ya que sus dimensiones lineales parecen ser, mil veces más pequeñas que las de las galaxias normales. En cuanto a la naturaleza de estos objetos, por el momento sigue siendo misteriosa. Se ha comprobado que la gran dispersión de las propiedades intrínsecas de los cuasares no permite hacer de ellos los "patrones de luminosidad" que serían necesarios en los tests cosmológicos. Si ademsá se admite que dichas propiedades intrínsecas pueden variar con el tiempo, es muy difícil separar los distintos modelos cosmológicos a partir de las observaciones. Sin embargo, hay un test posible para el modelo del estado estacionario que no debe contener ningún efecto que dependa del tiempo. Este test ha sido realizado considerando los cuarenta cuasares que figuran en el catálogo 3 C y que constituyen una muestra homogénea cuyos desplazamientos hacia el rojo son conocidos. Es así como se comprobó que existe un número enorme de cuasares con grandes desplazamientos hacia el rojo, cuyo efecto es hacer más pronunciada la curva de log N en función de log S para los cuasares, lo cual condujo a abandonar el modelo del estado estacionario. Esta conclusión presupone, evidentemente, que el desplazamiento hacia el rojo es cosmológico, es decir, debido al efecto Doppler. Para salvar la teoría del efecto es-


tacionario, Terrel, Hoyle y Burbiclge sugirieron que los cuasares podrían ser locales y que los desplazamientos hacia el rojo observados se debían, o bien a un efecto Doppler sin relación con la expansión del universo, o bien a un efecto gravitacional. La teoría de la relatividad' generalizada previo, en efecto, un desplazamiento hacia el rojo de otro tipo, el gravitacional o de Einstein. De esa manera, cuando un fotón abandona una estrella de masa muy grande, utiliza una parte de su energía para superar el desnivel de potencial creado por dicha masa, si bien su longitud de onda está corrida hacia el rojo. Estos dos argumentos parecen muy poco verosímiles. Por una parte no se observa el corrimiento hacia el azul, por lo cual es lícito esperar que esto afecte proporcionalmente el mismo número de objetos que el desplazamiento hacia el rojo, en el caso en que los movimientos de los cuasares se realicen en todo sentido, sin movimiento general de expansión. Dicho argumento, unido a las restricciones impuestas por la conocida emisión de ondas de radio extragaláctica de fondo del cielo, nos obligaría a pensar que cúmulos de cuasares más cercanos a aquél al que perteneceríamos, estaría extremadamente alejado de nosotros.

eficaz, el espacio intergaláctico debe contener gas residual. Este gas no ha sido aún detectado pero potencialmente tiene una gran importancia cosmológica puesto que puede contribuir considerablemente a la densidad media de materia en el universo. En efecto, muchos modelos cosmológicos relativistas conducen a una densidad media que supera en mucho la debida a las galaxias conocidas. De estos modelos, el más seductor bajo muchos aspectos es el llamado de Einstein-de Sitter. Según este modelo, la densidad actual de materia en el universo tendría que ser 20 veces más grarnde que la densidad efectivamente observada. Por lo tanto, si esto es correcto, aún aproximadamente, la mayor parte de la materia contenida en el universo sería, en consecuencia, ignorada.

100.000

distancia r (Mpc)

10

100

1.000

E >

o

•o •o (0 •a o o

10.000

1.000'

a

10

12

14

16

18

magnitud fotográfica(m)

Figura 3. Si el corrimiento hacia el rojo o red shift, del espectro de las galaxias, se interpreta como el resultado de un efecto Doppler proporcional a la velocidad de alejamiento, la ley de Hubble describe Esta materia podría presentarse la expansión del universo. Esta bajo la forma de galaxias muy poco ley puede representarse con la luminosas, de estrellas intergalácti- fórmtda: V = Hr, donde V y r cas, o también de neutrinos. Pero la designan respectivamente la velocidad posibilidad que ofrece la perspectiva de alejamiento de una galaxia en más interesante es que ella se pre- relación a la nuestra y su distancia de nosotros. H es la constante de sente bajo la forma de un gas, sobre Hubble, calculada actualmente cuya composición volveremos ense- en alrededor de 75 ktn/s por guida. En este caso, dicha materia megaparsec. La ley de Hubble es estaría en el límite de lo detectable. lineal; ella fue establecida a partir del examen de los espectros y del Los astrónomos han buscado sin cálculo de las distancias de galaxias éxito hidrógeno atómico e hidrógeno cada vez más débiles pero cuya En efecto, no existe ningún mo- molecular intergalácticos. Los méto- velocidad de alejamiento es todavía tivo que permita asegurar que nues- dos utilizados pueden llevar a la con- pequeña comparada con la de la luz. En las abscisas de la figura tra galaxia es única en su género. Por clusión de que la densidad del hi- se han llevado, por una parte, drógeno, bajo cualquiera de estas lo tanto, si ella tiene cuasares, lo las magnitudes fotográficas y por mismo sería para las galaxias cerca- formas, no puede superar valores ex- otra, las distancias expresadas en tremadamente bajos, que no podrían nas. Ahora se comprueba que la megaparsecs. La escala de las radiación del conjunto de las gala- explicar las diferencias entre la den- distancias es logarítmica; la de las xias es muy inferior a la que se daría sidad teórica y la observada. La ex- magnitudes, que varían como el en esa eventualidad. Resulta enton- plicación más plausible es que el hi- logaritmo de la distancia, es lineal. ces sumamente improbable que nos- drógeno está casi completamente io- En las ordenadas se ha llevado la velocidad de alejamiento V, con una otros estemos en un cúmulo de cua- nizado. Esta ionización podría ser el escala logarítmica. Si se plantea sares, o cerca del cento de uno de resultado de colisiones entre las par- Z — A^Á, siendo ¿\k el corrimiento ellos, como lo exigiría la isotropía de tículas del gas, siempre que la s tem- de la línea de longitud de onda X, la distribución de los cuasares. Ve- peratura de éste supere 3 X 10 ° K. V está ligado al desplazamiento mos que los argumentos para salvar Semejante temperatura podría alcan- hacia el rojo por la relación z = V/c, la teoría del estado estacionario son zarse mediante procesos de calenta- donde c es la velocidad de laescasos. Más adelante veremos cómo miento debidos a las galaxias, a las luz en el vacío. el examen de la radiación térmica radio-galaxias y a los cuasares. Por cosmológica aporta otro argumento otra parte, esta temperatura no podría exceder los 10°° K, sin que el poderoso contra esa teoría. gas intergaláctico, si tuviera la densidad conveniente, irradiara en la gama de los rayos X ya explorados a El medio intergaláctico una velocidad superior a la observaLa teoría p u e d e conducir a atri- da. Aun cuando las conclusiones a buir al gas intergaláctico la ma- las que llegaron distintos grupos yor parte de la masa del univer- sobre este punto difieren entre sí so. Su temperatura cinética sería y esperan ser confirmadas, parece 5 X 10 5 ° K. posible atribuir al gas intergaláctico una temperatura del orden de A menos que el proceso de forma- 5 X ÍO 50 K. ción de las galaxias no sea 100 %


Virgen (50 millones de a ñ o s - l u z )

Corona boreal (900 millones de años-luz)

Hidra (2.600 millones de años-luz)

Figura 4: Tres galaxias que pertenecen a cúmulos más o menos alejados. A la izquierda, las fitografías de estas galaxias, a la derecha, los espectros correspondientes. Por encima y debajo de cada espectro se observan las líneas de comparación del espectro del hierro. Cerca del extremo izquierdo del primer espectro se destacan dos rayas oscuras: son las líneas K y H del calcio. Si este espectro no presentase corrimiento hacia el rojo, las dos líneas K y H deberían encontrarse frente a la línea punteada de referencia, perpendicular a los tres espectros. El corrimiento hacia el rojo, que se traduce por un desplazamiento hacia la derecha, está representado en cada uno de los espectros por la longitud de la flecha cuya extremidad izquierda está situada sobre la línea de referencia de las rayas K y H. La punta de la flecha indica, en cada fotografía, la posición de las líneas K y H en el espectro de la galaxia correspondiente.

30

Log N 5

\ c

\ Figura 5. Estas curvas representan el logaritmo del número de rediofuentes por unidad de ángulo solio, cuya densidad de flujo en la frecuencia 408 MHz es superior al valor S!l()g, en función del logaritmo de S,.os, que está expresado en unidades de 10~2!¡ Wm~l Hz La curva B corresponde a la relación Ncc S~3/s; la curva A corresponde al modelo del estado estacionario y la curva C representa las observaciones.

An

\\

V

\

-2

-1

1 2 Log S408


gt radiación térmica í sinológica

tiempo i (segundos)

L universo está c o l m a d o de u n a icliación isótropa c u y o espectro (i-responde al d e un c u e r p o ne"O a la temperatura de 3 o K. a 1946, Gamow sugirió que en las ímeras etapas del universo la temr a t u r a pudo ser lo suficientemente svada como para permitir reaccios nucleares considerables. Esta hii tesis, de la cual veremos enseguida L a consecuencia esencial, permite e m á s explicar la formación del l i o , cuya abundancia en el univere s igual'al 10 % de la abundancia 1 hidrógeno y al que se le puede ribuir sólo la décima parte de las acciones nucleares que tienen lur en las estrellas. E s t a s primeras etapas habrían dui o demasiado tiempo como para emitir el establecimiento de un uilibrio térmico entre la materia a radiación. En estas condiciones materia irradia como un cuerpo g r o , según la ley de Planck, es de, que la distribución de la densi=1 en función de la longitud de d a no depende más que de la nperatura. Por otra parte, la ley Stefan nos dice que la densidad radiación correspondiente es prorcional a la cuarta potencia dé la nperatura absoluta. L a expansión del universo está •mpañada por un enfriamiento en c u r s o del cual la temperatura de radiación térmica permanece in•samente proporcional a un factor escala que es una función de la s cuadrada del tiempo. Las coniones de temperatura que explii la formación del helio en las meras etapas de la evolución, cont e n a la previsión de un campo de iación térmica residual a 10° K. : o en 1946 no se podía concebir ; en un cierto campo de longitud onda convenientemente elegido, b o campo fuera no solamente tisurable sino también mucho más s n s o que cualquier otra fuente de iación extraterrestre en el uniso. - a predicción de Gamow cayó en olvido cuando en 1965 y por priTa vez dos investigadores nortearicanos, Penzias y Wilson, des•rieron casi por casualidad que el d o del cielo emite una radiación i corresponde a una temperatura 3 o K, sobre la longitud de onda

10

" 10 " 10"^ 10"' radio dei universo ( u n i d a d e s

radio de 7 centímetros, con una intensidad 100 veces más elevada que la que se puede esperar basándose en todas las radio-fuentes conocidas. Más tarde, se efectuaron otras mediciones, en muchos intervalos de longitud de onda, dentro de una banda que va de 0,3 a 60 centímetros. Estas mediciones demostraron que el campo de radiación de fondo del cielo es exactamente el d e un cuerpo negro cuya temperatura es, aproximadamente, 2,7 ± 0,3° K. Todas estas mediciones son absolutas y en consecuencia difíciles de efectuar con precisión. Las observaciones exigen una crítica tanto más severa puesto que deben hacerse correciones importantes para eliminar los efectos extraños al fenómeno estudiado. Sin embargo, parece que los resultados obtenidos hasta el presente son correctos. En todo caso, es así como nosotros lo suponemos en la continuación de este artículo, esperando que puedan efectuarse mediciones mediante satélites sobre la longitud de onda de 0,1 centímetro, es decir, allí donde la intensidad irradiada por un cuerpo negro a 3 ° K presenta su máximo.

1 arbitrarias)

Figura 6. La figura muestra la historia térmica posible del universo suponiendo un modelo homogéneo e isótropo que obedezca a las ecuaciones de la relatividad generalizada y cuya densidad de materia temperatura de radiación térmica son actualmente de 2.10~20 g. cm-s y 3,5°K, respectivamente. En la parte superior, la escala de tiempo del universo. Abajo, el radio; se ha tomado como unidad el radio actual. La recta "temperatura" describe la variación, en el tiempo, de la temperatura de la radiación térmica cosmológica. Pr es la densidad de radiación, expresada en unidades de masa por unidad de volumen y Pm la densidad de materia. (De Dicke, Peebles Roll y Wilkinson).

31


Los cien primeros segundos El helio pudo formarse durante los primeros minutos de la vida del universo, en las proporciones observadas actualmente. Figura 7. El efecto sincrotrón se propuso para explicar las emisiones radio que detectan los radiotelescopios. Cuando un electrón está acelerado en un campo magnético, irradia energía en un cono ctiyo^ eje está orientado en la dirección del movimiento. En determinadas condiciones de energía y de campo magnético, esta radiación cae en el campo de las ondas radio.

e

hv

Figura 8. La difusión Compton explica de qué modo los electrones responsables de la radiación radio de la Galaxia pueden transferir energía a los fotones de la radiación térmica a 3° K y llevarlas a la gama de los rayos X. El fotón de frecuencia v se difunde con una frecuencia v' > v, es decir, que su longitud de onda disminuye en el momento de la colisión con el electrón.

Por la forma en que el universo se enfría durante su expansión y polla ley de Steían, se deduce que la densidad de energía del campo de radiación térmica es inversamente proporcional a la cuarta potencia del factor de escala que describe las dimensiones del universo. La densidad de materia, en la hipótesis en que se la observa, es inversamente proporcional al cabo de dicho factor. En la hipótesis evolutiva (big bang), se considera que las dimensiones del universo han sido sumamente reducidas en una época. Por lo tanto, el factor de escala ha sido arbitrariamente pequeño en el pasado. Si se admite que en esa época primitiva había radiación, su densidad de energía superó la de la materia. Ahora bien, un universo en el cual la radiación es preponderante, resulta fácil de manejar con la teoría de la relatividad generalizada. El factor de escala y la temperatura de radiación son allí, respectivamente, proporcional e inversamente proporcional a la raíz cuadrada del tiempo. Además, cuando la temperatura ha descendido, la materia y la radiación no están tan relacionadas y la densidad de radiación cesa de dominar. Si entonces se supone que la materia se comporta como un gas perfecto, su temperatura evoluciona, permaneciendo inversamente proporcional al cuadrado del factor de escala; por lo tanto, se enfría más rápido que la radiación (fig. 6). De esta manera, su temperatura debería ser, actualmente, muy inferior a 3° K, lo que se contradice con las conclusiones establecidas más arriba, según las cuales serían del orden de 5 X 10 3 ° K. Si se admite este último valor, es necesario suponer que el gas intergaláctico ha sido calentado por procesos de los cuales serían responsables las galaxias, las radio galaxias o los cuasares, durante su formación. En cualquier caso, la teoría evolutiva a partir de un núcleo caliente, en su forma actual, no determina el origen de la radiación térmica. Quizá sea un problema de condiciones iniciales, pero también puede tratarse de procesos ulteriores, sobre los que está permitido especular. El pro-

32

blema queda momentáneamente en suspenso, pero mencionaremos una de las explicaciones que se lograron, cuando tratemos la isotropía del universo. Antes de pasar a los efectos astrofísicos de la radiación térmica del universo, volvamos un instante al problema del helio. En el contexto de la teoría evolutiva, éste se habría formado aproximadamente 100 segundos después de la iniciación de la expansión. Es a partir de ese momento que se logran las condiciones que permiten las reacciones nucleares responsables de la formación del helio. La temperatura es entonces de 10 a ° Iv. Así se logra explicar la abundancia observada de helio en relación al hidrógeno en el universo.

La radiación X de fondo del cielo La acción de la radiación térmica sobre los electrones de la radiación cósmica puede explicar la radiación X de f o n d o del cielo. La radiación térmica del universo tiene efectos astrofísicos importantes sobre los electrones y los protones de la radiación cósmica. Consideremos, por ejemplo, los electrones responsables de la emisión sincrotónica de ondas de radio de la galaxia (fig. 7 ) . Ellos transfieren energía a los fotones por difusión Compton, llevándola en la gama de longitudes de onda X (fig. 8 ) . De este modo, la galaxia sería una vasta fuente de radiación X. Sus propiedades radio implican que la intensidad de esa radiación X debe ser aproximadamente el 1 % de la radiación X del fondo del cielo, efectivamente observada. Este porcentaje es más bajo de lo que podría parecer. En efecto, polla ley de Stefan y teniendo en cuenta el gran número de electrones de baja energía que entran en la composición de la radiación cósmica, se desprende que si la radiación térmica cosmológica fuera, por ejemplo, de 10° K, el flujo de rayos X emitidos por la galaxia sería mucho más grande y la energía de los electrones disminuiría a una velocidad realmente demasiado elevada. Asimismo, no hay que ignorar los rayos X que fueron emitidos a grandes distancias, en una época lejana en la cual la temperatura de la radia-


ción térmica era más elevada que en el momento actual. Hoy, la explicación más seductora de la radiación X de fondo del cielo es, en efecto, que ella se debe principalmente a la difusión Compton de la radiación térmica en las radio-fuentes lejanas, y no solamente porque la densidad de la radiación era mayor en el pasado, sino porque, como ya lo hemos visto al tratar las clasificaciones de estos objetos, la concentración de las radio-fuentes intensas era en otros tiempos mucho más elevada. También se puede atribuir la radiación X de fondo del cielo a la difusión Compton de la radiación térmica en el espacio intergaláctico. Sea como fuere, comprobamos de qué manera la radiación X ele fondo del cielo puede tener importancia desde un punto de vista cosmológico.

El movimiento de la Tierra en el universo La isotropía mica p u e d e ción de u n de la Tierra verso.

de la radiación térpermitir la revelamovimiento propio con relación al uni-

Las mediciones efectuadas sobre el campo de radiación térmica a 3 o K, demostraron que éste es isótropo hasta algunas milésimas. En consecuencia, dicho campo define un sistema de reposo en relación al cual se puede poner en evidencia un movimiento gracias al efecto Doppler. Así resulta posible, particularmente, medir la velocidad de la Tierra con respecto al universo en su conjunto. Como no se ha observado ninguna anisotropía de la radiación a 3 o K, esto limita esa velocidad a aproximadamente 300 kilómetros por segundo. Las futuras mediciones deberán precisar este límite o bien permitir la real detección de la velocidad particular de la Tierra. Esta, en efecto, se desplaza a una velocidad de 30 km/s alrededor del Sol, quien a su vez está animado de una velocidad circular de 250 k m / s alrededor del centro galáctico, mientras que la Galaxia, en su totalidad, probablemente se desplaza, en relación al grupo local, a una velocidad del orden de los 100 k m / s . También es probable que el grupo local esté en movimiento, en relación al supergrupo local de galaxias, a una velocidad de algunos

centenares de kilómetros por segundo . . . En estas condiciones, es evidente que una medición de la velocidad de la Tierra en relación al sistema de reposo vinculado al campo de radiación a 3 o K, sería sumamente importante para la comprensión de la jerarquía de las irregularidades en el universo. La isotropía de la radiación térmica a 3° K implica que el universo mismo es isótropo a un alto grado y limita al mismo tiempo sus inhomogeneidades. Las fluctuaciones en gran escala de la densidad podrían afectar la distribución de la radiación térmica por intermedio del desplazamiento hacia el rojo gravitacional. Pero las desviaciones de la isotropía realmente observadas son tan pequeñas que las posibles fluctuaciones de la densidad a una escala superior a 1.000 megaparsecs son muy limitadas.

gularidad, sin que se tratara nece-, sanamente de una singularidad puntual. Simplificando, podríamos decir que la acción gravitacional de su radiación térmica nos asegura que el universo ha comenzado su expansión a partir de un estado de densidad infinita. ¿Podemos definir un estado ele densidad infinita? No lo sabemos: hemos llegado al límite de la teoría actual,O 1 Un megaparsec (Mpc) vale un millón de parsecs. El parsec vale 3,2 años luz, aproximadamente. El autor de este artículo, D. W. Sciatua, estudió en la Universidad de Cambridge y se especializó en cosmología, astrofísica y relatividad•. Es actualmente docente en los departamentos de Matemática aplicada y de Física teórica de la universidad citada.

La singularidad original Remontando hacia atrás el proceso de la expansión, se comprueba que el univero ha debido pasar por una singularidad de densidad infinita. Hay, para terminar, una última consecuencia inesperada de la radiación térmica a 3 o K. Esta permite demostrar que en el contexto de la relatividad generalizada, el universo debió tener una densidad infinita en uno o varios momentos de su pasado. En efecto, los modelos de universo homogéneo e isótropo de Friedman y de Robertson-Walker, presentan en el pasado una singularidad puntual, o sea que pasan por un estado puntual con una densidad infinita. Se ha sugerido repetidamente que esta singularidad es una consecuencia de las hipótesis de isotropía y de homogeneidad perfectas adoptadas en dichos modelos, hipótesis que no son realmente satisfechas en el universo, ya que la masa está concentrada en estrellas, galaxias y cúmulos de galaxias . . . No obstante, Plawking, Penrose y Ellis han demostrado, recientemente, cierto número de teoremas importantes que establecen, tpediante algunas hipótesis que en su mayoría son perfectamente razonables y sin suponer esas condiciones ideales de simetría, que en el pasado debe haber habido por lo menos una sin-

Solucióu a Metegol N 9 5 A título de ejemplo sencillo, digamos que r = 5: Blancas: R en 6AD y D en 6CD; Negras: R en 7T£>. Si las blancas mueven Mi = D4C resulta que las negras sólo pueden realizar una movida: RBT. Si las blancas mueven M2 = D7C resulta que las negras sólo pueden realizar dos movidas: R6T o R8T, etc. M s = D6T, M 4 = D5A, Mr, = D7A.

Metegol N 9 6 Conocida es la fama de los escoceses. Sin entrar a estudiar si es merecida o no y aceptándola al sólo efecto del problema, ¿cómo hace un escocés para partir una manzana? Se supone que desea sacarle las pepas y la pequeña cápsula dura que las rodea, pero que quiere perder el mínimo posible de la parte comestible.

33


Ciencia dependiente en la Argentina Grupo de Estudio sobre Ciencia y Subdesarrollo El Grupo de Estudio sobre Ciencia y Subdesarrollo fue constituido a mediados de 1970 por un grupo de físicos y tecnólogos jóvenes con el objeto de abrir una discusión fundamentada sobre la problemática de la ciencia y la tecnología en América latina.

Un número creciente de investigadores científicos de nuestro país sufre un profundo sentimiento de disociación entre el objeto y el producto de su trabajo. En la práctica el significado de cada uno de estos términos se ha ido deformando, hasta que ahora, el objeto del trabajo científico es la obtención de un artículo (paper) que responda a las exigencias de las reglas establecidas y aceptadas por la jerarquía científica para obtener aceptación, reconocimiento, poder y privilegios. El producto del trabajo científico es, en la mayoría de los casos, irrelevante, carece de repercusión en los medios científicos locales y en el mejor de los casos puede llegar a ser de interés para algún grupo que trabaje en un tema vinculado en otro lugar del mundo, que es en general el laboratorio donde este científico se formó o al .que está relacionado. La disociación entre el objeto y el producto del trabajo son los síntomas característicos de la alienación. Algunas de las causas que originan esta situación está vinculadas al estado actual de la ciencia en el ámbito mundial y no son privativas de los científicos argentinos. Otras, sin embargo, que a nuestro entender son las más importantes, se relacionan con el modelo que adoptó la investigación científica en nuestro país desde sus comienzos y que fue acentuándose a medida que ésta se desarrolló. Para explicar cómo, a nuestro entender, la alienación a que se hace mención más arriba, deriva de las características que tiene el trabajo científico en nuestro país, hemos elegido hacer un análisis de la rápida sucesión de cambios y situaciones anteriormente inéditas en el ámbito científico, que se desencadenaron en la década del 60. La influencia del crecimiento cualitativo y cuantitativo de la investi-

34

gación en el mundo impactó a la Argentina a partir del comienzo de la década del 60. Si bien los fenómenos que se dieron fueron comunes a todas las disciplinas científicas, su manifestación más notable ocurrió en el campo de las ciencias exactas y por ese motivo nos ocuparemos explícitamente de los acontecimientos en ese terreno, lo que no creemos que invalide las conclusiones centrales que surjan. El período en cuestión puede dividirse de manera natural en dos partes. La primera alcanzó hasta 1966 y en ella se formó una importante fracción de los investigadores que tiene el país. Sus eventos más importantes fueron: el ingreso masivo de estudiantes a las carreras de ciencias exactas (algunas de las cuajes no existían antes de 1956 como especialidades diferenciadas) y la incorporación de muchos científicos jóvenes a puestos de dirección en la estructura universitaria. Sus características más relevantes: la gestación de un clima de intensa competitividad y la aplicación de escalas de valores académicos basadas en la producción y evaluación de los trabajos de acuerdo a los criterios y métodos elaborados en las grandes metrópolis mundiales de la ciencia. Dentro de la década se produjo un acontecimiento de profunda trascendencia: la intervención de la universidad por el gobierno de facto surgido en 1966. Esto marca el comienzo de la segunda etapa. Su efecto inmediato más importante fue la emigración de centenares de científicos, en su mayoría de reciente capacitación en escala masiva a nivel internacional, que en un período muy breve (escasos meses) se trasladaron al extranjero, a veces en grupos completos, manteniendo la estructura que habían tenido en la universidad. Su efecto a más largo plazo fue el virtual estancamiento de varias


ramas de la investigación científica y un cambio en la situación de los científicos argentinos, con la emergencia de nuevos grupos y el desplazamiento de otros. Es importante recordar que el cambio producido en 1966 conmovió al mundo científico de nuestro país y tuvo repercusión mundial. La nueva situación creada por la intervención universitaria fue debatida con apasionamiento y el compromiso individual de los científicos argentinos llevó a muchos a tomar decisiones que cambiaron sus vidas. En contraste, rara vez estas cuestiones trascendentales para los científicos repercutieron en el resto del país que, en general, permaneció a espaldas de un proceso en que se desmantelaba una parte importante de un esfuerzo coherente, inigualado hasta ese momento, para la formación de un plantel de científicos en las ramas de mayor desarrollo metodológico de la ciencia contemporánea.

La dependencia cultural A lo largo de ambas etapas, tan notablemente diferentes, hay un elemento permanente que sólo cambia en cuanto a la forma en que se manifiesta: la dependencia cultural. Es ese elemento el que intentamos poner en evidencia, porque entendemos que es la clave para poder modificar significativamente la situación de la investigación científica en la Argentina. En el marco temporal elegido, intentaremos ahora caracterizar la actividad de los científicos. La explosión científica ocurrida más o menos a comienzos de la década del 60, provocó, a partir de las características que señalamos antes (competitividad, masividad, nueva escala de valores importada) la creación de un verdadero microclima cultural en algunas instituciones universitarias y científicas (en gran parte ajeno al contexto social) concebido de tal manera que uno podría imaginar al sistema transportado en su conjunto, sin mayores cambios, a cualquiera de los centros científicos importantes del hemisferio norte. En la cúspide de la pirámide de la autoridad científica está, por razones de prestigio, el jurado de la revista extranjera, para la cual se hacen y a la que se envían los trabajos científicos.

Los integrantes de una comunidad de este tipo se proponen, aún si se lo plantean de otra manera, construir un ambiente artificial, incorporando todos los valores y criterios adoptados para la actividad científica en el hemisferio norte. Este microclima se mantiene, entonces, alienado del mundo que lo rodea. Este tipo de modelo de dependencia cultural sigue predominando hoy en muchos centros de investigación de nuestro país y es el primer modelo a que se echa mano en cualquier país de Latinoamérica en el que se quiere desarrollar la investigación. La nueva situación creada a partir de la intervención de las universidades dio lugar al afianzamiento de otros grupos de científicos y a profundos cambios en la situación anterior. Por un lado algunos que habían pertenecido al ambiente científico en auge hasta entonces, en lo que se dio por llamar la etapa de predominio "cientificista", se encontraron ajenos a la nueva estructura universitaria de carácter autoritario. Vinculados por su trabajo a los grandes centros mundiales, su permanencia en el país se debió, en principio, a razones emocionales y familiares. Este grupo ha ido creciendo, ya que muchos de los que se fueron del país inmediatamente después y como consecuencia de la intervención militar, o independientemente de ella, han regresado y esta tendencia probablemente se acentuará en los próximos años, entre otras razones por la crisis económica que afecta a la investigación en EE.UU. y Europa. Sería acertado considerarlos como alternando entre la situación de emigrados y de aislados dentro de su propio país. Su característica es la contradicción entre su vida emocional que los liga a su país y su vida científica. Es posible que lo ideal para este grupo sea, por ejemplo, trabajar en Berkeley durante el día y pasear por la calle Corrientes por la noche. Su trabajo tiende a desvincularlo del país y su permanencia en la Argentina sólo puede mantenerse a costa de ciertos sacrificos en su carrera científica, estructurada según el modelo dependiente. Su fuente principal de estímulo reside a miles de kilómetros de su país y lo que hacen no tiene repercusión social alguna en su medio. En las condiciones descritas, es claro que los motivos para seguir

trabajando en ciencia en la Argentina se vuelven oscuros. La producción científica se vuelve un trabajo alienado. Esta situación la viven igualmente muchos estudiantes que egresan aho-' ra de las carreras científicas o que han ido a realizar estudios al extranjero y se plantean ahora volver al país.

Los científicos de la intervención Por otro lado, el vacío creado después de 1966 lo ocupó un grupo que hasta entonces había sido parcialmente desplazado. Estos son algunos científicos que se han detenido en su desarrollo por diversos motivos, y que en general, no están en condiciones de competir en la investigación del nivel que se había establecido antes de 1966. Gracias a la nueva situación política han podido, no sólo sobrevivir, sino también trepar en la jerarquía universitaria, valiéndose de la falsificación de valores académicos y del dominio de los resortes del poder. Si bien mantienen posiciones conservadoras o demagógicas porque temen constantemente ser desenmascarados, y merecen, en consecuencia, el calificativo de "fósiles" que les ha atribuido el ambiente universitario, han asimilado el mismo modelo cultural que los cientificistas, aunque deben falsificar su real situación dentro del mundo científico, porque no están en condiciones de asumirlo plenamente. Con todo, debemos señalar que en esta segunda etapa subsisten importantes núcleos de cientificistas que por razones políticas o de otra clase no han visto su situación modificada por los cambios originados en 1966. Vemos entonces que podríamos esquematizar el universo existencial de los científicos en las ramas exactas agrupándolos en cuatro sectores: 1) los cientificistas; 2) los emigrados, que han buscado latitudes más boreales para asimilarse definitivamente a las pautas de las metrópolis; 3) los que han permanecido en el país en condiciones de aislamiento, sin integrarse a la nueva situación universitaria, pero trabajando en el medio universitario o ligados al mismo por razones de necesidad;

35


4) los fósiles y los burócratas, que sobrevivieron a la época cientificista porque siempre han tenido un fuerte apoyo en los organismos de planeamiento y financiación de la ciencia oficial y que ahora detentan una parte del poder en las estructuras universitarias. Cada uno de estos grupos tiene sus características propias, pero en todos los casos su interés por la ciencia está básicamente distorsionado porque parte de la aceptación de valores culturales y la incorporación de un modelo de actividad científica importado, sin una discriminación crítica. La adopción de estos criterios de prioridad y de evaluación produce una deformación cultural de la que son víctimas el investigador y su producción, Cualquiera de las vías que se le presentan al investigador actualmente llevan, tal como acabamos de esbozarlas, a la alienación; la ruptura del círculo está íntimamente ligada a la búsqueda de una problemática propia. La manifestación más clara del subdesarrollo científico de nuestro país no reside en la falta de equipos para investigación o de científicos capaces, sino en la imposibilidad política y social, de formular una temática y metas propias que generen estímulos genuinos. Quizá una de las componentes ideológicas más importantes que contribuveron a internalizar esta situación de colonialismo científico-cultural, sea el principio filosófico que es uno de los pilares de la ciencia moderna, a saber, que la ciencia es única y universal y su propósito la búsqueda y la obtención de la Verdad por sí misma. Esta posición, que aparentemente es incontestable, no conduce necesariamente a las conclusiones que se pretende —a veces— extraer. La universalidad de la ciencia es innegable en relación con el método de análisis y la estructura lógica de la misma que llevan a la universalidad de los modelos conceptuales elaborados con ese método v iustificables en el marco de aquella estructura de pensamiento. Pero nada puede afirmarse en cuanto a la elección de los problemas, la orientación de la investigación o los métodos de organización de, la actividad científica que tenga validez universal, sobre todo si se considera que esta actividad es, hoy en día, una tarea estrechamente ligada a la producción social.

36

La alienación y sus consecuencias La búsqueda de los orígenes de la alienación en el trabajo científico nos condujo al encuentro de la dependencia cultural como constante. Nos preocupa señalar ahora algunas consecuencias de la alienación. Desde el punto de vista individual, el trabajo alienado lleva a la frustración y al desaliento. Estos son los sentimientos que se han generalizado entre los investigadores que regresan al país o que se inician en la actividad científica. Creemos que la identificación de las causas que conducen a este estado de cosas es el primer paso para eventualmente modificar la situación. Pero la dependencia cultural tiene también consecuencias profesionales importantes. La investigación científica requiere la combinación de dos elementos esenciales: por un lado, el manejo de esquemas ideales (modelos) que se caracterizan por ser relativamente sencillos y de perfecta comprensión; por otro, el conocimiento intuitivo y fenomenológico de los hechos de la naturaleza. El científico tiende el puente entre ambos universos de representaciones. Tiene la capacidad de extraer del complejo de fenómenos de la naturaleza los elementos claves y establecer con ellos un modelo ideal del cual obtendrá conclusiones significativas y válidas. A la inversa, conoce las correcciones que hay que hacer necesariamente a los modelos ideales con que trabaja para comprender el significado de sus consecuencias de manera que le resulten útiles para resolver problemas concretos. La formación de científicos bajo el signo de la dependencia cultural no se ha propuesto tender ese puente entre los dos aspectos complementarios que integran la investigación científica. Es claramente comprensible que como resultado de la desvinculación entre el objeto del trabajo científico (publicar un "paper") y su producto, y la carencia de significado social de este último, suceda que los científicos en nuestro país havan centrado su trabajo alrededor de uno de los aspectos de la investigación científica: los esquemas o modelos (teóricos o experimentales), precisamente porque su

tarea no está vinculada a la resolución de problemas reales que requieran el auxilio de la investigación científica sino a atacar problemas ideales. Uno de los requisitos para salir de la alienación es que el trabajo científico adquiera también un valor social, otorgado por la resolución de problemas reales. Este punto de vista tiene como consecuencia inmediata crear un enfoque diferente de la actividad científica del que es usual en nuestro medio, ubicando la obtención de la Verdad científica, más bien en la categoría de los medios que en la de los fines últimos de esta actividad. No implica esto, por cierto, que la ciencia deje de proponerse la obtención de verdades de validez universal, pero sí implica la eliminación de la distinción usual entre ciencia "pura" y "aplicada" y un cambio drástico del papel social de la ciencia en da Argentina. Esto plantea una urgente tarea que debe ser encarada ya: la formación y capacitación de los investigadores científicos de manera de estimularlos a formular y resolver una problemática propia. El análisis que hemos desarrollado tiene algunos puntos de contacto con otros trabajos anteriores, en particular los de O. Varsavsky 1 y más recientemente el de D. Ama t i 2 , para mencionar aquellos que han tenido bastante difusión. En nuestro caso el objeto es intentar dar forma y estructura a lo que de alguna manera está en el "aire" en los ambientes científicos y quizá en muchos casos es reconocido y aceptado como una situación sin alternativas. Posiblemente, llegados a este punto pudiera esperarse que enunciáramos una serie de recetas para un futuro mejor. Intencionalmente hemos dejado esto de lado. Nuestro propósito es promover el estudio y la discusión, por los científicos de su propia ubicación social, comienzo de la búsqueda de una temática y una personalidad propias de las ciencias exactas en América latina. O

1 O. Varsavsky, "Ciencia, política y cientificismo", Centro Editor de América Latina, Buenos Aires, 1969. 2 D. Amati, reportaje en la revista CIENCIA NUEVA 6, 1970.


J

Humor

Julio Moreno


Comunicación oral hombres y máquinas Luis F. Rocha

Pocas cosas hay que consideremos más intrínsecamente humanas que el habla, y el oir a una máquina decir "buenos días" o cantar "Cíementine" es una experiencia casi aterradora. La máquina no sólo hace cálculos y razonamientos lógicos. Ahora nos habla y pronto podrá escucharnos. ¿Tendremos algo que decirle?

f W ) v ^ i V °l|jil °T

Qo0

° o'ffac<P

' c o o t

r 1- r ^ - i ^ r ' ' Ü' .'/¡i i '

1

Ü

jaf

r

Luis F. Rocha es ingeniero en telecomunicaciones, egresado en 1956 de la Facultad de Ingeniería de la Universidad de Buenos Aires. Ha trabajado en este tema desde 1964 y en la actualidad es profesor titular interino y se desempeña como director del Instituto de Ingeniería Biomédica de la Facultad de Ingeniería de la Universidad local.

38

Muchas han sido las curiosidades de laboratorio que luego se transformaron en desarrollos de fundamental importancia tecnológica. El caso de las "máquinas parlantes" es uno de ellos. Es posible que haya otros precursores, pero el ejemplo de Wolfang von Kempelen sale fuera de lo común. Este investigador, de origen húngaro, a quien también le cabe el título de gran embaucador, trabajó más de veinte años en desarrollar una máquina que generara sonidos similares a los de la voz y en 1791, es decir casi doscientos años atrás, pudo presentar en una feria un aparato que podía generar todas las vocales y la mayor parte de las consonantes del alemán y latín y aun pronunciar frases cortas en esas lenguas (figura 1 ) . Si bien el modelo parecía funcionar bien, mucha gente pensó en una superchería pues poco antes se había descubierto que otro de sus "inventos", el ahora famoso "jugador de ajedrez" cedido, luego de exponerlo en las principales ciudades de Europa, a M. Maelzel y cuyo funcionamiento fuera cuidadosamente analizado y criticado por Edgard A. Poe en su obra: " E l jugador de ajedrez de Maelzel", estaba basado simplemente en un enano experto en ajedrez disimulado entre su engranajes. Entretanto, la máquina parlante no pasó de ser una curiosidad circense, pero la publicación de los trabajos del Barón de Kempelen atrajo la atención de Sir Charles Wheatstone quien construyó una versión perfeccionada del modelo original . E n la figura 2 se muestra un esquema que permite estudiar su funcionamiento: un pistón reemplaza las funciones que normalmente cumplirían los pulmones, es decir, sirve

de reserva de aire y de f u e n t e de energía al ser oprimido. E l aire es impulsado así a través de una lengüeta vibratoria similar a la de las cornetas de juguete. La lengüeta genera una serie de impulsos de frecuencia constante de unos 150 hertz, muy ricos en armónicos, similares a los producidos por las cuerdas vocales. La energía sonora así producida, se extiende a todo lo largo del espectro sonoro entre 150 y más de 6.000 hertz, en bandas muy angostas, múltiplos de 150 hertz. Una vez generado este espectro básico, que es el mismo para todas las vocales y varías consonantes tales como M , N , L, B, etc., que usan la energía generada en la glotis, hay que modificarlo modulándolo, es decir, cambiando algunas de sus características, usando para ello en el caso humano, el efecto causado por la transmisión de ese espectro a través de las distintas cámaras resonantes formadas por labios, boca, laringe y cavidades nasales. Estos elementos resonantes cambian el "espectro" acústico acentuándolo en una serie de bandas de energía llamadas "formantes". E n el caso de la máquina de Kempelen los resonadores acústicos eran cámaras elásticas, deformables bajo la presión de los dedos, que al modificar las bandas de " f o r m a n t e s " permitían generar casi todos los elementos fonéticos de origen glótico. Otros sonidos, tales como S. F, SH, etc., que no están basados en impulsos gloríeos, sino en el ruido al azar que se produce por turbulencia del aire al pasar a través de una abertura pequeña, se creaban trabando la lengüeta vibrante y dejando pasar el aire a través de agujeros pequeños, donde se iniciaba la turbulencia del aire.


Indudablemente, este artefacto requería una gran habilidad manual para su manejo y creemos que sólo las manos del hombre pueden reemplazar — y eso sólo en parte— la extraordinaria ductilidad que tiene la lengua para modular la energía glótica o fricativa (turbulenta). Pero muchas otras mentes inquietas fueron atraídas por este fascinante mundo del habla artificial y también Alexander Graham Bell intentó una vez sintetizar voz. Pero por consejo de su padre se concentró más bien en la reproducción fiel de las dimensiones de las partes que componen el órgano fonatorio, es decir construyendo laringe, boca, labios artificiales que se articulaban moviendo palancas y teclas. Pudo así generar palabras y frases cortas del inglés. Pero su trabajo no termina aquí, pues con una paciencia asombrosa enseñó a su perro a ladrar continuamente mientras él deformaba manualmente la boca y lengua del animal hasta poder hacerle decir "how are you grand-mamma" (¿cómo está Ud. abuela?). De allí debe haber nacido la leyenda de que había enseñado a hablar a un perro, lo cual, como vemos, no dista mucho de la verdad. Estos entretenimientos no eran despreciados por gente que trabajaba con gran inteligencia y tesón en temas supuestamente más importantes y ya en época más reciente encontramos a Sir Richard Paget quien gustaba mostrar sus habilidades en la producción "manual" de voz humana haciendo vibrar sus ^ labios como si fuera a tocar la trompeta y formando con las manos los resonadores con los que modulaba esos impulsos para crear fonemas, sílabas y aun palabras.

Aprovechando las computadoras Muchos otros experimentadores crearon aparatos que podían generar sonidos similares a los naturales. En general, hasta el presente siglo se usaron métodos mecánicos, pero en la década del 50 hubo un gran auge de los sintetizadores eléctricos y electrónicos. Casi todos usaban generadores de relajación para simular la glotis y filtros eléctricos para obtener el equivalente de los resonadores acústicos naturales.

La "moda" actual, como es de suponer, emplea en grado creciente esa herramienta de investigación flexible y rápida que es la computadora digital, con distintos elementos terminales que la hacen especialmente útil en investigación fonética. Ya no se trata de hacer voz "parecida" a la humana, sino investigar sutiles elementos que como el tono, el acento, ciertas modulaciones relacionadas con alteraciones funcionales, inflexiones anímicas y regionales, etc., contribuyen a hacer de la lengua hablada uno de los elementos más evolucionados, complejos y cambiantes que ha podido crear el hombre como medio de comunicación. Pero como la ambición humana es insaciable, ahora pide no sólo generar voz artificial, sino también construir una máquina que reconozca la suya. Este problema es mucho más complejo que el primero pues la voz sintética, aunque se la note imperfecta, mecánica o poco natural, puede ser reconocida por el sistema de discriminación humano ya que éste se adapta muy rápidamente a distintas condiciones. Se trata justamente de lo que en teoría de control se llama un sistema "adaptable", muy difícil de reproducir por métodos electrónicos, especialmente porque para reproducirlo debiéramos conocerlo y su funcionamiento está todavía en el gran cajón de lo ignorado.

variando algunos de sus parámetros (especialmente frecuencia y energía de sus formantes, frecuencia glótica, etc.). El resultado es que en unos pocos minutos ya no éramos capaces de decir si el sonido que escuchábamos parecía natural o no y debíamos recurrir a otro oyente "virgen" para que nos ayudara en la clasificación. Sucedía que nuestro oído se adaptaba casi inmediatamente al nuevo sonido, lo tomaba co.mo "normal" y el oyente quedaba incapacitado para determinar si el sonido escuchado era más o menos "natural" que otro parecido. Esta incapacidad es, como puede suponerse, efímera, pues al cabo de un proceso de pocos minutos se recupera el poder de discriminación. Volviendo entonces al tema de construir una máquina que "reconozca" nuestra voz, notamos que se trata de un problema de mucho mayor complejidad que el de hacer sintetizadores. Las primeras máquinas construidas para estudiar los sonidos del habla humana fueron desarrolladas por investigadores de otros campos y aplicadas a fonética. Sin pretender hacer un análisis exhaustivo de los trabajos, mencionaremos el "kimógrafo" de K. Ludwig, en 1847, perfeccionado por A. Russelot y por Armando de Lacerda hasta llegar a ser un excelente registrador de tinta sobre papel.

.Que el sistema.de discriminación auditiva es un sistema adaptable, lo podemos notar al tratar de reconocer frases de nuestro idioma pronunciadas por un extranjero que hable mal nuestra lengua. Al principio, reconoceremos con gran dificultad sus palabras, pero poco a poco nuestro oído se adapta a los nuevos sonidos y los relaciona con los que hemos tomado como patrón de referencia, hasta poder entender todo lo que se nos dice. Es común decir entonces que el extranjero ha mejorado su dicción, pero aunque en efecto ello suceda, la forma en que evoluciona la locución es mucho más lenta nuestro oído y lo más probable es que lo que ha mejorado sea nuestra capacidad para entenderlo.

Con este instrumento se registran las presiones sonoras instantáneas del sonido, tal como lo hace un osciloscopio, con la ventaja de un registro extenso y permanente. La idea inicial para estudiar los sonidos con este instrumento suponía que si a cada sonido de una vocal o consonante (fonemas), le correspondiera una forma de onda diferente, se podrían reconocer visualmente los distintos fonemas de una lengua. Efectivamente, a distintos fonemas corresponden distintas formas de onda, pero no sólo eso: iguales fonemas de distintos locutores o del mismo locutor en distintas situaciones también dan formas de onda distintas. En otras palabras, que la forma de onda no guarda una relación unívoca con el fonema emitido y no sirve por lo tanto para caracterizarlo.

En unas breves experiencias que hemos llevado a cabo con voz sintética se confirma lo anterior. Se hizo un sintetizador de vocales y para estudiar el grado de "naturalidad" de esos sonidos los escuchábamos

Sin embargo, "algo" debe haber en esas formas de onda tan distintas que sea igual, para que nuestro oído y cerebro las interpreten como pertenecientes a la misma clase de fonemas. Una respuesta parcial fue da-

39


©7

t — volumen pulmonar

7

2 — c u e r d a s vocales

8— c a v i d a d

3—tubo

9—fosas

laríngeo

-4— cavidad 5 _ ovula

faríngea

(velum )

6 _ c a v i d a d bucal

— lengua labial

nasales

10—^cavidad nasal 11 — traquea-bronquios

DIAGRAMA ESQUEMATICO DEL ORGANO

Figura 2. Dos son las fuentes principales de energía sonora modulada por las cavidades bucales: una fuente de impulsos regulares generados por las cuerdas vocales y una fuente de forma de onda irregular generada por turbulencia del aire al pasar por una abertura pequeña.

da en 1863 por el genial y proteico H . von Helmholtz. Estudiando la fisiología del oído encontró que podemos discriminar las componentes armónicas de una onda periódica, pero no su fase. Distintas formas de onda que tengan iguales componentes armónicas en fases cualesquiera son percibidas iguales. D e d u j o de ello y logró demostrar para las vocales, que lo importante de los fonemas, al menos para aquellos que tienen componentes periódicos, es el valor de esos componentes y no su fase. Resultado: al menos para las vocales y otros sonidos que se mantienen por un tiempo largo, lo que interesa es su espectro de Fourier y constituye en primera aproximación un elemento invariante que caracteriza este tipo de fonema.

Figura 1. Antiguo dibujo que representa esquemáticamente la disposición del sintetizador de von Kempelen.

El lector notará que en fonética, como en casi todas las cuestiones relacionadas con seres u organizaciones altamente evolucionados, es decir, en todas las ciencias biológicas, sociales, económicas o políticas no pueden hacerse afirmaciones rotundas ni definitivas. Así, por ejemplo, la afirmación de Helmholtz de que el oído es insensible a la fase 110 es totalmente cierta. La teoría de la localización (place theory) de G . von Békésy que la confirmaba parece

40

FON ATORIO

12— fuerza muscular

contradecirse con las experiencias más recientes de Ritsma y Cardozo que indican que, al menos en frecuencias muy bajas, la fase resulta importante. N o obstante, hay evidencias que permiten decir que en un sonido lo que interesa no es tanto su forma de onda como sus componentes espectrales. Nace así la llamada teoría de los formantes, o sea de las bandas de mayor energía en el espectro como elementos característicos de los distintos fonemas. La teoría no puede explicarlo todo pero al menos para los fonemas vocálicos, los nasales, los laterales y en parte para los fricativos (producidos por turbulencia del aire) parece estar confirmado que los tres formantes d e frecuencia más baja, llamados los tres primeros formantes, tienen frecuencias, anchos de banda e intensidad relativa aproximadamente constantes e independiente de los locutores (fig. 3 ) . Ello no es totalmente cierto pues se ha demostrado que entre la frecuencia fundamental producida por la glotis y las frecuencias de los tres formantes, hay una relación lineal estadísticamente cierta. Pero dejando de lado esas variaciones pequeñas, la frecuencia y demás características de los formantes


fueron los parámetros cuasi-invariantes sobre los que se basaron los primeros intentos de reconocimiento automático de la voz.

El f o n e t ó g r a f o Quizá sea el de J. Dreyfus-Graf entre 1944 y 1950 el primer intento serio de transformar la voz en símbolos gráficos. Llamó a sus primeras máquinas "steno-sonographes" y se basaban en las inscripciones realizadas por una pluma entintada sobre una hoja de papel que se desplazaba, cuando la pluma era accionada por seis bobinas equiespaciadas en el cuadrante. La energía de las seis bobinas provenía de seis filtros de bandas pasantes tales que cubrían el espectro sonoro (figura 4 ) . Como podemos notar en la figura 5, los "estenogramas" obtenidos exigen un gran entrenamiento para ser reconocidos visualmente y desde, 1950, este investigador suizo que aún sigue trabajando en el tema, pensó en usar letras comunes para la representación de los fonemas. Los resultados obtenidos con el cuarto prototipo de "fonetógrafo" son realmente espectaculares. Por otro lado en los EE.UU. tres investigadores, R. K. Potter, G. A. Kopp y H . C. Green, desarrollaron una máquina que permitía mostrar las características del espectro sonoro en una forma tan cómoda para su estudio que este instrumento, cuyo nombre comercial es Sonagraph, se ha convertido en una herramienta fundamental en todo laboratorio de fonética. Sin embargo sus autores fallaron en conseguir su objetivo inicial: hacer una máquina que permitiera a los sordos "leer" los sonidos del lenguaje. Sucede que las variaciones personales se hacen demasiado evidentes usando este método y encubren los caracteres esenciales de los fonemas. La "lectura" de un sonograma resulta entonces tarea tan ardua como la lectura de los estenogramas de Dreyfus-Graf ilustrados en la figura 3. Pero mientras estos trabajos permitían avanzar considerablemente en los problemas fonéticos, otras ramas de la lingüística relacionados con ellos, es decir la fonología y la semántica, fuertemente influenciados por F. de Saussure y su escuela se inclinaron hacia el estructuralis-

mo que aún hoy es una corriente importante dentro del pensamiento moderno. Un continuador de las teorías de De Saussure — N . S. Trubetzkoy— creó las bases de la fonología, definió el fonema y sus elementos relevantes, pertinentes o distintivos, agrupados por Jakobsón en elementos opuestos (tales como grave-agudo compacto-difuso, claro-oscuro, etc.). Las teorías de R. Jakobson sobre las que implícita o explícitamente se basan la mayor parte de los analizadores actuales, dicotomizan al fonema en pares opuestos de caracteres distintivos. Tarea de los tecnólogos es hallar qué elementos acústicos tienen como correlatos' a esos caracteres distintivos. G. Fant y M. Halle publicaron junto con R. Jakobson un libro (un librito más bien) de extraordinario valor, relacionando los caracteres pertinentes o distintivos con la realización acústica. Debemos hacer notar que el fonema no es un elemento invariante del lenguaje, pues depende no sólo de la lengua particular de que se

Figura 3. Distintos locutores generan sonidos cuyo espectro muestra grandes variaciones de energía en frecuencias elevadas, pero cuyas componentes en baja frecuencia son similares. A estas bandas de energía se las denomina "formantes" (Cortesía de Kay Electric Co.).

trate, sino que además se modifica en el tiempo y en la geografía. Así mientras que en el español hay sólo cinco vocales que definen sus cinco fonemas vocálicos, en inglés se considera que hay 11 y en americano 10 (falta una a) en italiano son siete y en francés también 10. Pero aún dentro del mismo idioma los fonemas evolucionan. Tomando un ejemplo del libro " A n introduction to the pronunciation of English" de A. C. Gimson, vemos que en la expresión "time" el fonema

41


" i " se pronunciaba como una i lar- te de esas mediciones determina que ga hasta aproximadamente el año para cada fonema habrá una super1450, luego cambió a una ei hasta ficie dentro de la cual nuestro oído el año 1600 y recién allí tomó su reconoce al fonema como correcto. forma actual ai. No hace falta en- Podemos entonces dibujar un "matonces mencionar las enormes varia- pa" de formantes que hemos superciones que se producen con un cam- puesto al de Peterson y Barney habio geográfico, tanto que a un ar- llado para los fonemas del General gentino le cuesta entender a un American como elemento de comportorriqueño y seguramente un es- paración (figura 6). Con los valores hallados se tuvo pañol se escandalizaría de nuestro la información inicial para poder lenguaje. Fue por esa causa que en el de- plantear el problema del reconocisarrollo de una máquina que trans- miento de los fonemas vocálicos. forme la voz en palabra impresa, Faltaba ver el criterio para efectuar luego de hacer el acopio bibliográfi- la discriminación. co imprescindible y de algunas experiencias para ir adquiriendo práctica en la investigación fonética, deTécnica del oído lmmano cidimos hacer nuestras propias mediciones de los parámetros más importantes de las vocales del español Como lo que se pretende es que hablado en Argentina. Se midieron una máquina realice las mismas funlas frecuencias de los dos primeros ciones que el oído humano, convieformantes de las cinco vocoides del ne estudiar lo que nos pueden decir español en 25 hablantes, 13 hom- los fisiólogos al respecto. La idea bres y 12 mujeres oriundos en su no es copiar a la naturaleza, puesto mayoría de Tucumán, pero también que en muchos casos se ha visto que de otras provincias: Córdoba, Bue- es más simple usar otras técnicas panos Aires, Santiago del Estero y ra obtener el mismo resultado (reSalta. Si para cada medición halla- cordemos el ejemplo del pie y la mos el punto de intersección en dos rueda, de las alas de pájaros y alas ejes coordenados de las frecuencias y hélices de aviones, de los múscude los formantes primero y segun- los y los motores, de la transmisión do, la dispersión estadística resultan- sináptica y el telégrafo y de innu-

42

merables ejemplos que demuestran que la naturaleza emplea métodos más complicados, seguros, con mayor número de materiales y con la propiedad de crecer y adaptarse. En general el hombre no ha podido copiar estos sistemas altamente evolucionados en sus realizaciones artificiales ). Es imposible describir todos los detalles que —aún sin que sus secretos estén totalmente revelados— hacen del oído una maravillosa combinación de elementos mecánicos, hidráulicos y neuronales, pero al menos debemos mencionar que la presión sonora se transforma en mecánica al llegar al tímpano y que los huesesillos actúan como un transformador acústico adaptando la baja impedancia acústica del tímpano a la mayor de la ventana oval, punto de entrada del oído interno. Este está lleno de un líquido, la perilinfa, que hace mover una membrana elástica, curvándola en una oscilación que reproduce fielmente la forma de la presión sonora. Es este movimiento de la membrana basilar y especialmente su desplazamiento respecto a otra membrana, la membrana tectorial, el que va a excitar a las terminaciones neuronales del octavo par. Todo este conjunto es de una delicadeza mecánica que nos de-


¡i >! ii literalmente

' i

i t ir

i jtu* n i' microscópicos. 1 '<

a

i

¡

ii i i

¡ " i i oi ' , i i d ' > i iiii i I i silar. se lia supuesto que al menos I n I' !e ' 1 i un 1 } t i¡ , ' i "! I 1 l 1111 ll! I l l l tilo* l '

.

i l

l

<r > v I i ik t í ' I

1 1 (. t IT t ! t ¡

i i k m ii vti i te. ! III UU ti I t t ti,

nicas. Para frecuencias m e n o r e s , recientes e x p e r i m e n t o s de sicoacústica indican q u e a d e m á s d e la frecuencia, también la f o r m a d e o n d a de la excitación es d e t e c t a d a p o r el oído. La discriminación d e frecuencia es m u y f i n a , ya q u e p u e d e detectar cambios d e u n o s pocos h e r t z en 1 0 0 0 h e r t z p e r o esa discriminación n o parece posible a nivel de variaciones mecánicas en la m e m b r a n a basilar sino a nivel d e las primeras neuronas q u e se s u p o n e n "conectad a s " para p r o d u c i r el e f e c t o de inhibición lateral. Algunas experiencias con modelos electrónicos d e n e u r o n a s conectadas en esa f o r m a indican q u e podría realizarse u n a discriminación m u y aguda e n t r e distintas frecuencias, aun c u a n d o el e l e m e n t o mecánico que realiza la separación grosera del espectro n o sea m u y selectivo. Al proyectar el p r i m e r m o d e l o d e fonetógrafo (figura 7 ) incorporamos al m i s m o u n sistema elemental de inhibición lateral ( a u n q u e luego lo modificarnos para q u e inhibiera no sólo e l e m e n t o s cercanos en frecuencia sino algunos m u y s e p a r a d o s ) y los r e s u l t a d o s son d e c i d i d a m e n t e mucho m e j o r e s q u e sin esta inhibición que e l e c t r ó n i c a m e n t e la obtenemos con u n a m p l i f i c a d o r diferencial q u e comienza a actuar a partir de u n u m b r a l m í n i m o . En d e f i n i t i v a , el sistema original simula, a u n q u e en f o r m a m u y elemental, los e l e m e n t o s básicos del oído incluyendo las supuestas conexiones n e u r o ñ a l e s del oído. Las diferencias n o o b s t a n t e p u e d e n ser enormes con el sistema real p u e s t o que hay casi 3 0 . 0 0 0 terminales nerviosas en el o í d o y sólo 16 " n e u r o t n i m a s " en este a p a r a t o , a lo q u e hay q u e s u m a r l e el efecto d e la audición b i n a u r a l q u e parece ser bast a n t e más c o m p l i c a d o q u e la simple suma de los efectos de cada oído. N o o b s t a n t e , y a pesar d e la " b r e -

cha tecnológica" (para usar un térm i n o de m o d a ) q u e existe e n t r e el

1000

0

600

400

200

800

i nu ii \ el ii n t<> it • e n ,) t t l 1 »¡ )i j ll ' I ll ll Il e I ) ) i I lt ^ lt n > t < is ni i h tt i r uti (S) ii i 11 | m t!

i \í)

t t

lt

1 t1» P l 1 1 1 t

'ir i U Altn i n 0

o

1

i t

mi

1

e|tl

s 11 s

v¡ le.

1 n ni 1 i

íii

i

du

i

tn tt

i% i

e. 1 l ' • p U i O

i

lili

li

pll

ti

U '

til

i « i, \< ni r ítte.

II ib i 1 i ( n

'11 I

11

P M

el

1

u.,?,t.j/

h

ftv

n il ili u

letn itm¡

1

f

!./*,(,

J,

A,,ur^jtt.

r-von-idi e,

n ' 'i

i

dt

p i e 1

i

ti

e

' u n

tk o

11

i

*

1

n'l

í

II

leel

n i

la

ie t t q u t u t a •> p r o

t utn-

ttumdo

tpi

t ip < n i ' i p u i i t il i d o s

n L udi

'ni

i

ii'

torre-

tt it i' 1 t 1 o

( ¡ ti ibt u ) «n

d

1 de»

q ¡ • le

iL ntn»

de

¡ li i 11 d ul i

i ¡

t , n i e non t-, | ie tr*n

w 1

ti

i

ti. i ¡ d t l ¡n mr, t 11 t > i <1 r e' ni i ti iii^ntal

1 i lt i! m 1 > ti 11 n* u t >!t n e e lililí o i i' 11 * el 1 i li e j 11 elu nt ti un i i k¡i in i d o í i l u t Iti ti t i t i mi ' i m (i ii i it i i i

i > e

u

t

i i v i

¡o

i-,

n medir

>el n 11 'e. i k tr n u t b >s Ritüeiun 1 1 m íe¡n tu no

oti i t t

mivl

•> • e. h u m me i m

I oiuhr.

i >' ar

1 i n i

el

el

n

| u ii

d i i eii e

íi

¡ e mil

i i

todo

¿e t i d o e< " n t l d 1, t

¡nt

u il eii

ti i-.

d-'rirte

esa

ti i i

'IV I

til

" i

t

n ei a i

uno m

Ui u ito 1 m a i (o nm i! (i n i le un n I h 1 t m i >. ' t 1 v ¡o p t id > ton i 11' t pt l it i i m 'i i' i x t iodo n Ii tr to 1 ( ttt ti - !t 11 il, •> c 1 «. lll d i dt lo 11 ' p it ul u tu> ib n tt un i lo t i d u t u »i i ir * t oí i iti nu d t i d ti i J t n t I

i' í

i ü „

t U ipil 1 1 t

inip' ' u d

/ / • ai \ > I ' i I ' I i f i ¡un nu

;( "

1

i, i

F. 1

I

mo

i i

i

1400

• )[•> ti

pi

I i < } n n i dvl i M j ' c ii 11 t i t h i t n i n " i'"» di i t o n t n di d t' 1 i i u i h i co dt filrn

1200

M '

oíd Lt

ni

1000

4

ii >

»

i is<

t J i

los

u ' i

I'

l i l i

l

,n

i to d

11 \

i

q i

' t

hl

I ( 1

ii u

t k 1 f! I lt t

i 'n [n

1

I n > "i(leí 1 d e

n! i vf) t ic-

43


Figura. 7. El fonetógrafo de filtros simula:, aunque en una escala muy grosera, los principales elementos del oído humano: el oído medio (no indicado), un banco de filtros qtte representa al oído interno, y urz conjunto de comparadores que en forma muy simplificada simulan los terminales nerviosos. Una lógica de reconocimiento y los actuadores electromecánicos permiten escribir t?¿ ismo tiempo que se habla.

toares puramente fonéticos podría s o l u c i o n a r los problemas de discrim i n a c i ó n de los elementos del IenS u a j e , ahora nos parece demasiado ° F > t i m i s t a , a pesar de los grandes v a r í e es logrados, y cuanto más nos i n t e r n a m o s en los vericuetos de la C o m u n i c a c i ó n oral, mayores son las • d i f i c u l t a d e s que se advierten. , L a mayor parte de los investigac l o 1 : e s j g r e c o n o c i m i e n t o automático h a b l a sigue trabajando en los t a J l e s que permitan extender los ' i r r i t e s logrados ele reconocimiento. / Í ' - ' J c l i o s operan ahora con modelos en computadoras para ^ i t a r el enorme trabajo de andar

cambiando componentes de circuitos electrónicos y aunque esta simulación no permite por el momento hacer un análisis simultáneo con la locución, las ventajas de no trabajar con el soldador y el osciloscopio son tan grandes que casi todas las publicaciones importantes generalmente describen modelos simulados. Tomemos por ejemplo el trabajo de D. R. Reddy. Este investigador, simulando un sistema de reconocimiento en un computador digital ha sido capaz de reconocer todos los fonemas del inglés americano, aunque con certeza variable: 100 % de fonemas reconocidos para algunas vocales, pero tan sólo 43 % para otros. Y eso que la máquina se ajustaba para optimizar los resultados para unos pocos locutores. En opinión de quien esto escribe, estamos llegando al límite que permite el reconocimiento fonético estereotipado, es decir aquel que no puede adaptarse en poco tiempo a nuevas condiciones de locución o a nuevo locutor. Los sistemas no adaptables no pueden "aprender" en el sentido de aprendizaje que empleamos los técnicos y aunque podamos con ellos conseguir reconocer sin errores la

voz de un locutor, ellos aparecerán tan pronto como haya alguna variación de esa voz. Pero en nuestro conocimiento todavía no hay ninguna máquina, real o simulada que pueda adaptarse a una nueva voz. Este camino está todavía inexplorado y ofrece un espléndido desafío al investigador.

La estadística contribuye No obstante, hay otra vía, la del reconocimiento estadístico, que fuera planteada hace unos años por D. B. Fry y P. B. Denes. Es sabido que un mensaje típico en una lengua tiende, cuanto más largo es, a seguir mejor las pautas estadísticas de los mensajes ergódicos. Por la misma existencia de palabras y de una sintaxis, las letras tienden a concatenarse en cadenas markovianas. Un ejemplo sencillo aclarará estos conceptos: en español hay letras que aparecen muy frecuentemente en los mensajes típicos (E, A. S, etc.) mientras que otras tienen poca probabilidad de aparecer (X, W , Q, etc.). Pero además la probabilidad


T de que a una letra le siga otra depende en grado variable de las anteriores: hay certeza de que a una Q debe seguir una U, y hay una probabilidad muy grande que a una consonante siga una vocal, mientras que la probabilidad de que haya una palabra de cinco consonantes seguidas es prácticamente nula. A estas probabilidades que relacionan estas secuencias de letras se las llama probabilidades de cadenas mar kovi anas y su estudio constituye una rama fundamental de la estadística. Pues bien, sin que normalmente sea muy consciente, normalmente hacemos uso de estas correlaciones para "adivinar" sílabas, palabras y aun frases enteras antes de haberlas recibido (detección "a priori") después de haber hecho el primer reconocimiento (detección "a posteriori"). Fry y Denes pensaron que estas cadenas markovianas podían aprovecharse para mejorar el grado de reconocimiento de un fonetógrafo si lograban dar un "peso" a la probabilidad de que en una cadena aparezca tal o cual fonema. Cuando la máquina dudaba al elegir entre dos fonemas, el "peso" de los fonemas anteriores terminaba por "decidir" una elección. Las experiencias realizadas en el University College de Londres probaron que efectivamente en la mayoría de los casos el grado de reconocimiento mejoraba (ellos usaban la cadena más elemental, de sólo dos letras) pero empeoraba si en algún momento se producía un error, pues un fonema mal reconocido cambiaba el "peso" de los siguientes y podía desmejorar la situación.

(electrónicos claro está), en transformaciones ortogonales de la señal, usando las funciones de Laguerre y de Walsh y en sistemas que permitan obtener la "función analítica" de una señal. Nuevos sistemas de vocoders permitirán enviar varios canales de voz donde hoy sólo se envía uno. Vocoders ópticos y táctiles serán de gran ayuda en la enseñanza del lenguaje a niños sordos. E n el campo de la fisiología del lenguaje se está trabajando activamente en encontrar otros correlatos entre la voz y los movimientos musculares de los órganos de la fonación: los electromiogramas promediados muestran invariancias sumamente interesantes. Muchas mediciones de la presión glótica han llevado a un mejor conocimiento de su generación y distribución a lo largo del tracto sonoro. En fisiología del oído los avances son espectaculares, especialmente en el conocimiento de los sistemas de transducción del movimiento de las membranas basilar" y tectoria a los terminales (cilias) en sus diversos tipos de movimiento. Experimentos con distintos productos químicos (brucina, tetrodotoxina) permitirán a no dudarlo, conocer el mecanismo íntimo de la transmisión nerviosa y muchas experiencias de sicoacustica tratan de dilucidar el todavía no completamente conocido sistema de transformación de la presión sonora.

E n fonética el uso creciente d e sintetizadores permite hallar elementos característicos que previamente eran inseparables y no se los podía variar independientemente. Las variaciones de la frecuencia glótica permiten detectar trastornos presentes o f u t u r o s de la laringe, en particular neoformaciones. La teoría de la detección ha avanzado mucho en el campo teórico con distintos tipos de clasificadores y nuevas técnicas de análisis de señales (transformada rápida de Fourier o F F T ) el uso de matrices de Hadamard para correlacionar las salidas de filtros en los analizadores y el empleo casi rutinario de filtros digitales abre campos insospechados en el estudio de las complejas señales de la voz. T o d o esto nos lleva a poder creer que dentro de poco tiempo pasará del campo experimental al de la práctica comercial la interesante posibilidad de emplear la voz para dar órdenes a computadoras y máquinas clasificadoras de correos, así como hace poco hemos visto que ciertas terminales de cómputos son capaces de dar respuestas sonoras, con voz sintéticamente generada a las preguntas que por escrito hacemos a la máquina. Estas máquinas están dando respuesta al creciente interés de poder comunicarnos con la computadora con la misma facilidad con que hoy lo hacemos con otros hombres. O

Como vemos, existe un campo sumamente atractivo para el trabajo interdisciplinario, pues el reconocimiento de la voz humana, requiere conocimientos que abarcan desde la electrónica hasta la fisiología, pasando por la lingüística, las teorías de transformación de señales y la teoría de la detección (en el sentido general de separación de componentes). Un breve pasaje por lo que se está haciendo en otros lugares nos permitirá ver este extenso panorama: en el campo electrónico se está trabajando en nuevos circuitos de filtros activos para analizadores y sintetizadores de voz, en correladores de señales, en "neuromimas" con memoria que puedan "aprender" por el método de castigo y recompensa

45-


NUEVAS TECNICAS PARA TIEMPOS NUEVOS

CIENCIA NUEVA y BCEOM de París, una de las más importantes firmas consultoras del mundo, especializada en estudios y proyectos de grandes obras públicas, han convenido publicar en la Argentina la edición castellana de la colección técnica francesa BCEOM. Las obras que aparecerán están dirigidas a ingenieros, economistas, funcionarios y estudiosos preocupados por las múltiples cuestiones que plantea el equipamiento material de los países en crecimiento.

d« ta» murtón cM — •gua tit mar y d» . 3 b * * lai agua* uKtbraa

En ellas se recoge la experiencia vivida por expertos de prestigio internacional que, tanto desde sus cargos de altos funcionarios, como en el sitio mismo , de las obras, han debido afrontar los complejos y novedosos problemas del desarrollo económico y social del Tercer Mundo. Esa experiencia y la versación de los autores destacan la importancia de la nueva colección, llamada a prestar valiosos servicios a técnicos" y profesionales de nuestro país

CAMINOS DE TIERRA - Estructura y mantenimiento por Gérard Mellier ADMINISTRACION Y EXPLOTACION PORTUARIAS por Jean Georges Baudelaire PROBLEMAS DE DESALINEACION DEL AGUA DE MAR Y DE LAS AGUAS SALOBRES por J. R. Vaillant y más títulos sobre temas viales, portuarios, de economía, de transportes, etc.

Bureau Central d'Etudes pour les Equipements d'Outre-Mer Editorial e i E i l O f l flIUEWffi BUENOS AIRES 46

S.R.L.

PARIS


Novedades de Ciencia y tecnología

i

2

• Otra "interminable"

El primer elemento superpesado

Un británico, Leroy Prouty, patentó una nueva hoja de afeitar que, de llegarse a fabricar, podría transformarlo en multimillonario. Su "hoja" es una cinta de metal, flexible y muy delgada, plegada en forma de cinta de Moebius, con su único borde convenientemente afilado. Prouty piensa fabricar una afeitadora utilizando esta cinta, la cual tendría una longitud equivalente a siete hojitas de afeitar comunes de dos filos, es decir, que una revolución completa de la cinta correspondería a la longitud de 14 filos. Además del hecho de que la duración de la cinta sería por lo menos igual a siete veces la de una hojita de afeitar común, la parte del filo expuesta en cada momento sería la estrictamente necesaria para asegurar una buena afeitada. O

Después del elemento 105 (ver C I E N C I A NUEVA N? 4 ) , el 112. El salto fue realizado por un grupo de investigadores ingleses, dirigidos por A. Marinov, quienes trabajaron con el acelerador de 28 GeV del CERN, en Ginebra. La idea fue bombardear tungsteno puro con un haz de protones de alta energía. Si un protón choca con un átomo de tungsteno, en algunos casos (en especial para ángulos de dispersión grandes), el átomo adquiere una energía mayor de 1 GeV y puede reaccionar a su vez con otro átomo de tungsteno. Los cálculos teóricos predican, en efecto, que la ruta más fácil hacia la "isla de estabilidad" es la de las interacciones entre iones pesados, para poder reunir así la cantidad de neutrones requerida para "construir" un átomo de un elemento super-pesado. Pero los iones pesados también contienen muchos protones, lo que hace que deban poseer una gran energía para superar la "barrera de Coulomb" creada por las fuerzas de repulsión. En el caso del tungsteno, la energía necesaria para que un átomo choque con otro del mismo elemento es de 1 GeV y esto no puede lograrse en ninguno de los

aceleradores de partículas actualmente en funcionamiento. Una forma de lograrlo, sin embargo, es provocando reacciones secundarias y esto es lo que hizo el grupo dirigido por Marinov. Como la probabilidad de que ocurran tales reacciones secundarias, a choques dobles, es muy pequeña, los blancos deben ser irradiados durante un largo tiempo, por lo menos un año, lo cual corresponde a dosis superiores a los 10 18 protones. Teóricamente, las propiedades químicas del elemento 112 deberían ser similares a las del mercurio. E n efecto, luego de disolver el tungsteno y agregar mercurio como "carriel - ", se pudo identificar una radiación alfa que no era debida a ninguna fuente conocida. La energía de estas partículas alfa, las características de la fisión espontánea observada y la vida media estimada (500 años), coincidieron con lo que debía esperarse para el elemento 112. Naturalmente, faltan aún las experiencias concluyen tes: el espectro de masas, por ejemplo. Es por esta razón por la que Marinov y sus colegas se muestran tan cautelosos y remisos a hacer comentarios sobre sus resultados. Pero los datos recogidos hasta el momento son fuertemente indicativos de que el elemento 112 podría estar presente en las muestras examinadas. Y si la síntesis del "skamercurio" (según la terminología mendelesviana) se llega a confirmar, habrá que busc'ar u n nombre para bautizarlo. O

47


Gusto eléctrico Para estudiar la formación del sentido del gusto en el sistema nervioso central, fueron estimuladas eléctricamente con impulsos rectangulares las lenguas de nueve personas y analizados los electroencefalogramas correspondientes. Mediante compudoras pudieron descubrirse "potenciales evócales" cuyas relaciones con el gusto fueron discutidas. ( Z. Biol. 116, 1969, páginas 161-211). La dependencia de la sensación subjetiva de intensidades de estímulo se corresponde con los resultados de Békésys, Cuando se varía como parámetro de estímulo tanto la frecuencia como la duración de los impulsos rectangulares aplicados, el sujeto experimental siente diferencias cualitativas del gusto. El diagrama muestra los diferentes resultados obtenidos en 20 personas: la sensación de gusto "dulce" fue experimentada solamente erf frecuencias bajas, mientras el "amargo" aparece preferentemente en los impulsos de duración corta hasta mediana y con frecuencias más altas. "Salado" y "ácido" se encuentran en los valores medios. <>

4 Manzanas sin manzanos El Congreso Internacional de horticultura, que tiene lugar cada cuatro años, permite la presentación de nuevas invenciones y destaca los adelantos de la ciencia hortícola. El término ciencia no debe parecer exagerado ya que la fisiología vegetal, la bioquímica, la genética, la climatología y los estudios de mercado están transformando completamente la producción de legumbres, frutas y flores. El caso de Israel, donde se llevó a cabo el X V I I I Congreso de Horticultura en marzo de 1970, es particularmente significativo. En este país, los métodos de utilización del agua comprenden desde el sistema de charcos sucesivos, ya empleado por los nabateos en el Neguev, hace más de tres mil años, hasta la desalihización del agua de mar (actualmente funcionan dos plantas en Eilat, sobre el Mar Rojo).

Las numerosas sesiones del congreso mostraron en qué medida han O0S 0,0 1 progresado las investigaciones sobre .10 so 100 150 200 300 las sustancias que regulan el creci(imp/s) miento de las plantas, particularmente en lo que respecta a sus "Duración de cada impulso: dulce, aplicaciones. De esta manera, hoy amargo, ácido, salado, amargo. es posible la producción de flores en Distintos tipos de gusto en la manzanos y perales mediante la pulestimulación eléctrica de la verización de diversas sustancias, talengua humana (20 sujetos les como el ácicló N-dimetilaminoexaminados. Electrodo de lámina de 1 succinámico. Este fenómeno podría plata de 70 mm ). 0.1

4a

Futura producción de células alimenticias en frascos: cultivos de células vegetales en el laboratorio de fisiología pluricelular del CNRS, en Gif-sur-Yvette, Francia.

ocasionar una verdadera revolución en la producción de dichos frutos, tratados en lo sucesivo en cultivos bianuales. Por ejemplo, una vez florecidos los pimpollos, se recogerían las manzanas con la cosechadora, cortando los tallos al ras del suelo. Al año siguiente, se induciría la floración de los retoños que reposan en las capas del suelo, para obtener una nueva fructificación un año después. Estas posibilidades se están tomando en cuenta seriamente, tanto más que en Israel la mano del hombre no toca el tomate, por ejemplo, desde la siembra en el campo hasta la cosecha con la máquina.* Se han presentado algunas ideas aún más revolucionarias, como la supresión total del manzano para no cultivar más que el fruto, en condiciones asépticas. Estas investigaciones, efectuadas en el Laboratorio de Fisiología Pluricelular del CNRS, son precursoras de la agricultura industrial, en la que la calidad de los productos será estrictamente controlada y desaparecerá el peligro de los distintos pesticidas. Estas novedades "futuristas" son fruto de las técnicas de cultivos de células y de tejidos separados de la planta, técnicas que ya se utilizan para liberar a las especies hortícolas de sus virus y que acaban de permitir la producción de plantas haploides a partir únicamente del polen.


Cada una de las células de estas plantas contienen sólo la mitad del bagaje cromosómico habitual, de modo que ellas acusan inmediatamente las mutaciones que se les pueda provocar. Después puede efectuarse la duplicación de los cromosomas, ya sea mediante un tratamiento con colquicina, o bien mediante una nueva técnica que aprovecha la endomitosis. Este último fenómeno duplica el número de los cromosomas dentro del núcleo celular sin que la célula se divida en dos. Esto se revela con particular intensidad cuando se cultivan fragmentos de tallos en algunos medios nutritivos. Es asi como la horticultura, que ya utiliza ampliamente los plásticos transparentes, recibe los últimos progresos de la ciencia a tal punto que se está preparando para desarrollar un día una nueva disciplina que podría llamarse "horticultura del espacio". O J. P. Nitsch La Rechercbe

5 Calcitonina: una hormona recientemente descubierta La calcitonina era totalmente desconocida hace 10 años. Sabemos que se trata de una hormona, que junto con su contraria, la hormona paratiroidea, regula el equilibrio del nivel de calcio en el organismo (homeostasis del calcio). La parathormona, que se produce en la paratiroides, equilibra con la liberación de calcio del hueso una falta de calcio en el líquido extracelular, mientras que la calcitonina, recientemente descubierta, actúa a través de la inhibición del metabolismo óseo en la normalización del nivel de calcio aumentado. Aún son poco frecuentes los casos de cuadros patológicos humanos; el uso terapéutico cíe la hormona se encuentra en estado experimental. Hasta principios de la década del 60 se consideraba a la parathormona (PTB), secreción interna de la paratiroides, como única hormona específica para la regulación del nivel

de calcio en la sangre: la P T H se esparce cuando se produce un descenso en el nivel del calcio y desencadena un proceso de liberación en el hueso (osteolisis), por el cual se libera calcio hasta equilibrar la falta inicial en el espacio extracelular. En 1962-63 fue descubierta una contraria de la P T H , el factor llamado Tireocalcitonina (CT) es segregado cuando aumenta el calcio por encima de_ su nivel para las células C de la ^tiroides. Este mecanismo de secreción se comprobó también en el cuerpo últimobranquial del pollo, que representa un órgano puro de célula-C.. _ La calcitonina produce una inhibición del catabolismo óseo; la disminución del flujo de calcio del hueso lleva a la reducción del nivel sanguíneo anteriormente aumentado. De esta manera la homeostasis del calcio pertenece a aquellos procesos metabólicos del organismos doblemente controlados (figura). Cada trastorno del equilibrio, un exceso o una insuficiencia de calcio (hipo o hipercalcemia) se equilibra en un circuito regulador por una hormona directamente controlada. Las últimas investigaciones bioquímicas han posibilitado nuevas ideas respecto del mecanismo de efectos en el ámbito celular v subcelular. (Ver figura). La P T H parece activar en la membrana celular a la adenilciclasa, que cataliza la formación de 3', 5' —adenosimonofosfato cíclico (cAMP). Un enrique-

Catefuria Calciemia

n

_

Célula

om«

cimiento intracelular de cAMP pone en marcha las distintas funciones celulares específicas —en el caso de las células óseas J a liberación de enzimas lizosomales para la disolución del hueso. Su contraria, la CT, podría producir una aceleración del metabolismo del cAMP a través de la fosfodiesterasa e inhibir de esta manera el catabolismo óseo. _ Con el descubrimiento de la calcitonina se plantea el problema de si —en analogía con otras hormonas— su infra o superproducción puede llevar a síntomas patológicos. Hasta ahora se ha discutido solamente la posibilidad de un hipocalcitonismo como causa, por ejemplo,

La importancia de la calcitonina en la patología y terapia. Los hallazgos seguros aparecen en bastardilla. Patología de la calcitonina Función disminuida ¿Osteoporosis? (Hipocalcitonismo) ¿Atrofias óseas? ¿Osteodistrofia fibr. gen. cist.? , ¿Trastornos de crecimiento? Función aumentada Carcinoma melular de la tiroides (Hipercalcitonismo) ¿Osteopetrosis? ¿Tetania? ¿ Seudohipoparatiroidismo ? Terapia con calcitonina Disminución del calcio en: Hiperparatiroidismo primario Hipercalcemia idiopática y semejantes Influencia en el esqueleto en: Enfermedad de Paget ¿Osteoporosis? ¿Atrofia inactiva? ¿Falta de gravedad? ¿Curación de fracturas?

49


de un catabolismo óseo aumentado por efecto de una insuficiente inhibición en los casos de osteoporosis. en atrofias óseas, etc., pero esto no fue demostrado fehacientemente (tabla ). El cuadro de hipercalcitonismo existe con seguridad en el carcinoma de tiroides medular. Este tumor está constituido por células C y segrega grandes cantidades de calcitonina, pero inexplicablemente estos enfermos casi nunca tienen un nivel de calcio disminuido. De este modo también es problemático un calcitonismo como causa de tetanias, lo mismo en la osteopetrosis o seudohipopara tiroidismo. La disminución del efecto de la calcemia de la CT ya se aprovechó terapéuticamente ante niveles patológicamente aumentados de calcio (tabla). El efecto inhibitorio de la osteolisis despertó la esperanza de su aplicación en procesos de descalciíicación. En el trastorno congénito de la enfermedad de Paget se pudo llegar también a una inhibición del metabolismo óseo enormemente acelerado. Por el contrario, los éxitos de tratamiento en la osteoporosis, atrofias óseas, etc., todavía son problemáticos. Quizá ayude aquí el mayor efecto biológico de nuevos tipos de CT, como la calcitonina del salmón. O

6

tídica (por eliminación de agua) entre dos aminoácidos. Por otra parte, el medio acuoso presente probablemente en las primeras etapas ele la evolución de la Tierra, no facilita una reacción de este tipo. Para tratar de vencer esta "barrera energética" y disminuir el efecto desfavorable del medio acuoso, los químicos intentaron utilizar monómeros que posean suficiente energía como para permitir que la reacción de policondensación se realice a temperatura media, con p l l fisiológico y a partir de soluciones diluidas. Se ensayaron diversos reactivos, tales como la diciandiamida (molécula que puede obtenerse por síntesis abiótica), o los aminofosfo-anhidridos. No obstante, las condiciones necesarias para obtener la formación de polipéptidos, aún de pequeño tamaño (dos, tres o cuatro aminoácidos), están demasiado alejadas de las condiciones llamadas "prebiológicas" para que puedan extraerse conclusiones sobre el origen natural de estas moléculas. La hipótesis de Bernal En consecuencia se hizo necesario encontrar monómeros ricos en energía, suficientemente parecidos a los metabolitos naturales a partir de los cuales se forman, en los organismos vivos, las macromoléculas esenciales para ia vida y principalmente los catalizadores capaces de bajar la "barrera energética" que imposibilita la reacción de policondensación en medio acuoso. El primer paso en este sentido lo dio, hace ya varios años, el cristalógrafo británico J. D. Bernal, quien sugirió que los barros de arcilla podrían catalizar la policondensación de aminoácidos, absor-

hiendo y fijando, en una posición favorable, los monómeros reactivos. Según Bernal, esas partículas de arcilla serían también susceptibles de inhibir la reacción inversa de hidrólisis y de impedir que los polímeros formados se disgreguen en monómeros individuales. Basándose en la hipótesis de Bernal, varios laboratorios intentaron preparar polipéptidos en medio acuoso y en presencia de distintos tipos de arcillas (caolinatos, apatitas, etc.), pero los rendimientos obtenidos fueron siempre muy escasos. La repetición de estos fracasos confirman el valor particular de los recientes resultados obtenidos por A. Katchalsky y colaboradores, del Instituto Científico Weíz» man de Rehovot, en Israel. 2 En efecto, el equipo del Instituto Weizman no sólo logró reunir los elementos requeridos para una realización espontánea de la síntesis de polipéptidos, sino que creó las condiciones energéticas (medio termodinámico "abierto") que permiten la continuidad de la reacción hasta un grado de polimerización elevado. El mejor catalizador: la arcilla inontinorillonita El equipo de Katchalsky ha ensayado varios tipos de catalizadores (intercambiadores iónicos, silica gel, suspensión coloidal de metales) pero, como lo había predicho Bernal, los mejores resultados se obtuvieron con la arcilla montmorillonita. 3 Los monómeros utilizados en las reacciones de policondensación fueron aminoacil adenilatos (figura 1), es decir, aminoácidos vinculados mediante una unión anhídrido al ácido adenílico, formado este último con la conocida asociación: adenina-ribo-

Proteínas primitivas: catálisis por arcillas Figura

Al lograr la síntesis de cadenas proteicas en condiciones "prebiológicas", A. Katchalsky conf i r m a algunas hipótesis sobre el origen de la vida.

N.

adenina

A pesar de los progresos espectaculares realizados estos últimos años en la síntesis abiótica 1 de moléculas biológicas, el problema del origen de las proteínas no estaba aún completamente esclarecido. La síntesis de cadenas polipeptídicas es complicada debido a la cantidad de energía necesaria para formar una unión pep-

50

ríbosa

aminoácido AMINOACIL ADENILATO

1.


Figura 2.

+ CHS

EH3 + © r—unio'n peptídica

aminoácido

+ EHD

uto

aminoacil adenilato

EN3 + EH3

OfaS~Q

etc...

•~EH3 + © cadena polipeptídica

acido adenílico Figura

E M nHHJM - Q + E H 5

EH3-EN3

grupo de Katchalsky entre los más completos de los realizados en los últimos años en química prebiótica. Durante una reacción de policondensación en catálisis homogénea, los aminoácidos liberados por hidrólisis reaccionan con los aminoacil adenilatos para dar un péptido y ácido adenílico libre (figura 2 ) . Por el contrario, en una reacción de catálisis heterogénea (como en el caso de las partículas de arcilla), la absorción sobre la montmorillonita protege los polipéptidos formados o los aminoacil adenilatos de la hidrólisis. En este caso no hay, por lo tanto, aminoácidos liberados. La reacción se lleva a cabo según la figura 3. Los polipéptidos formados están siempre ligados a un grupo fosfato por una unión anhídrido, hasta la terminación del proceso por formación de una unión fosfo-ester. Uno de los factores claves de la reacción es la disociación del grupo N H 3 + en N H 2 y H + . Sin esta disociación, que por otra parte sólo puede hacerse en medio alcalino, la reacción de policondensación no tendría lugar. Ahora se comprende por qué la reacción de policondensación por catálisis heterogénea es autorregulada: el ácido adenílico liberado en cada etapa acidifica el p H del medio de reacción, lo cual inhibe la reacción de policondensación. Esta última se detiene hasta que el ácido adenílico libre —que, como ya hemos visto, no es absorbido por la montmorillonita— pueda difundirse lejos de le superficie catalítica. Hay entonces "envenenamiento" de esta superficie por los productos de la reacción, difusión del inhibidor y continuación de la polimerización. Este proceso ilustra a la perfección el tan

conocido mecanismo de regulación por "feedback" negativo. Se establecen entonces una serie de ciclos, de oscilaciones periódicas, que dependen de las respectivas velocidades de difusión de las moléculas y de polimerización de los monómeros.

3.

sa-fosfato, que se encuentra en el ATP o en los nucleótidos de los ácidos nucleicos. Katchalsky eligió los aminoacil adenilatos porque ellos constituyen los elementos básicos a partir de los cuales las células vivientes fabrican sus proteínas. También se piensa, sobre la base de las experiencias realizadas por C. Ponnamperuma, C. Sagan y R. Mariner 4 que los aminoacil adenilatos pudieron formarse espontáneamente en las condiciones reinantes en las primeras etapas de la evolución terrestre, por reacción entre los aminoácidos sintetizados en la atmósfera de la Tierra bajo el efecto de los rayos ultravioletas y las moléculas de ATP formadas en condiciones análogas. La asociación de los aminoacil adenilatos y de la arcilla montmo'rillonita presenta particularidades sumamente interesantes: • el ácido adenílico libre no es absorbido por la arcilla; • los aminoácidos sólo son absorbidos con un p H ácido; • los aminoácidos adenilatos son fácilmente absorbidos por las partículas de arcilla en proporciones que llegan hasta 1 0 - 3 moles de aminoacil adenilato por gramo de montmorillonita. Semejantes propiedades permiten comprender cómo la absorción y la polimerización de moléculas de adenilatos en la superficie de la arcilla está condicionada y regulada por la acidez local del medio de policondensación. Una serie de factores aún más importantes permite la explicación de la totalidad del proceso, ubicando los resultados de las experiencias del

Cii^etc""

Las cadenas de 5 0 m o n ó m e r o s Es así que analizando las condiciones teóricas de esta reacción autorregulada, Katchalsky y colaboradores pudieron poner a punto las condiciones ideales de su experiencia. 5 Ellos lograron obtener, con buen rendimiento y partiendo del alanil adenilato, cadenas de pesos moleculares mayores de 4000 que comprenden más de 50 monómeros unidos entre sí. Nunca se habían obtenido tales resultados con p H fisiológico y en condiciones "abióticas" tan suaves. Por otra parte, la montmorillonita protege tan bien a los adenilatos que prácticamente no ha sido detectado ningún aminoácido libre (hidrolizado) en el medio de polimerización. La periodicidad de la reacción, basada en la velocidad de polimerización de los monómeros y en la velocidad de difusión de las moléculas del inhibidor, permite explicar una cierta periodicidad en la longitud de las cadenas que han sido preparadas. En efecto, dichas cadenas comprenden 9, 16 (18); 27; 32 ( 3 6 ) ; 42 (45) y 54 (56) aminoácidos. Según Katchalsky, esta periodicidad (en grupos de 9) estaría determinada por el tiempo mínimo necesario para la difusión de las moléculas de ácido adenílico, lejos de la superficie de ' reacción. La polimerización se produciría por impulsos sucesivos muy rápidos que conducen a una

51


concentración local elevada de ácido adenílico, lo cual modifica el p H y detiene la reacción. Una vez difundido el inhibidor y cuando el p H se ha vuelto alcalino, hay tiempo para que se realicen aproximadamente 9 uniones peptídicas antes de una nueva detención de la reacción, y así sucesivamente. Las experiencias de Katchalsky y su equipo abren nuevos caminos prometedores, todavía muy poco explorados. Por ejemplo, es posible que, según las condiciones, el pH, la velocidad de difusión de los reactivos y de los productos de la reacción, la policondensación de los aminoacil adenilatos se realice como formación de ácido poliadentlico con liberación de aminoácidos. Ahora bien, el ácido poliadenílico no es más que un ácido nucleico constituido por la sucesión de un mismo nucleótido. Por consiguiente se podría concebir, por catálisis heterogénea en un sistema abierto que permita una serie de reacciones oscilantes, la formación simultánea de polipéptidos y polinucleótidos, es decir, los materiales fundamentales de la vida. O Joel de Rosnay Le Recherche

1

Abiótica significa "en ausencia de organismos vivos".

2 Nature, 228, 636, 1970. 3 Este tipo de arcilla tiene la propiedad de dilatar considerablemente su red cristalina absorbiendo algunas moléculas. * Nature, 199, 222, 1963, « Ver Alomes, tí> 270, pág. 688, noviembre 1969.

7 El diagnóstico de la leucemia Ya en 1911 Peyton Rous comprobó que un virus provocaba, en los pollos, un cáncer transmisible en el tejido conectivo. Hace una década

32

que se discute ardientemente sobre la teoría viral del cáncer, pero hasta hace pocos meses sólo había sido posible confirmarla en animales, ya que era imposible detectar la presencia viral en el hombre. La leucemia es un cáncer que produce la multiplicación anárquica de células correspondientes a los glóbulos blancos de la sangre o sus precursores. Ya se conocía el origen viral de la leucemia en ratones pero sólo recientemente se tienen indicios que parecen confirmar el origen viral de la leucemia humana. En CIENCIA NUEVA N? 7 se describió el importante hallazgo de Temin y Baltimore: la enzima ADN polimerasa ARN dependiente en virus a ARN. En un coloquio organizado por los laboratorios Lepetit (Milán), en noviembre del año pasado en el Instituto Pasteur de París, se presentaron varios trabajos importantes relacionados con el tema: el doctor Spiegelman (de la Universidad de Columbia, N. Y.) expuso los trabajos de su grupo sobre la leucemia humana. En los leucocitos (o glóbulos blancos) de nueve enfermos de leucemia que fueron estudiados, se pudo detectar la presencia de una ADN polimerasa A R N dependiente. Esta enzima es idéntica a la aislada de una capa de leucemia de rata cuyo origen' viral es ya reconocido; durante la remisión y los tratamientos con agentes quimioterápicos, la polimerasa desaparece.

cíficamente esta enzima en virus a ARN inhibe también esta actividad en extractos de células leucémicas. Finalmente, el producto de esta polimerasa aislada de leucocitos de leucémicos es resistente a la hidrólisis con ribonucleasa y es degradada por la desoxirribonucleasa. ¿Qué conclusión puede extraerse de estos trabajos? En primer lugar, se espera que un método sensible de ensayo de la polimerasa podría dar base a un método para el diagnóstico de la leucemia y la medición de la efectividad de un tratamiento, ya que sólo se necesitarían pocos milímetros de sangre.. Este descubrimiento no lleva a una posibilidad terapéutica inmediata pero abre perspectivas interesantes. Como aún no se sabe si esta inversión de información (de ARN al A D N ) genética tiene lugar en la economía normal de células sanas, no es posible usar un inhibidor de esta actividad en el tratamiento de la enfermedad. Actualmente se busca saber si en tumores sólidos humanos también se puede detectar esta actividad. En el hombre, el linfoma de Burkitt, el cáncer de mama y el cáncer cervical, dan indicios de un origen viral. La imposibilidad de aislar la partícula viral no significa que ésta no sea la causa, ya que en el caso de células transformadas experimentalmente por virus a ADN, como el virus simio 40 o polioma virus, no se producen viriones pero existen pruebas de que el material genético viral existe.

Gallo y sus colaboradores (del Instituto de la Salud de Bethesda, Estados Unidos) también encontraComo última conclusión de estos ron la enzima en individuos leucémitrabajos (y de más de una decena cos, pero no pudieron detectarla en los linfocitos (componentes de los de otros estudios relacionados con glóbulos blancos) de 48 sujetos nor- el tema), podemos citar un artículo aparecido en New Scientist (vol. males, tal como lo describen en un trabajo p u b l i c a d o recientemente 48, pág. 4 2 6 ) : "La opinión pública (Nature, vol. 228, pág. 9 2 7 ) . Los exige una cura para el cáncer y la linfocitos normales se estimularon adopción de las decisiones financiecon fitohemoaglutinina para que se ras necesarias para asegurar que redividieran; esto se hizo para que la cursos suficientes se dediquen a resíntesis de ADN sea máxima, o sea solver el problema en pocos años. Se que las actividades polimerásicas puede predecir que el año próximo sean comparables con la actividad de la prensa hará anuncios estrepitosos las células neoplásticas. Estos auto- sobre el "secreto" del cáncer, aunres demostraron que la actividad de que la cura esté a varios años de la ADN polimerasa ARN dependien- distancia. Pero con la actual duplite, es función de ionas magnesio, de cación de investigaciones, el alto porcentaje de fumadores y problela presencia de los cuatro deoxitrimas tan angustiantes como los de fosfatos y de la adición de una mala salud mental, prácticamente sin triz de ARN. Además, un derivado atacar, el dinero será bien utilide la rifampicina (ver C I E N C I A zado. . . " . O NUEVA N? 7) que bloquea espe-


p

Qué harfapsted con unal computadora?

El problema lo plantea usted, nosotros ponemos la computadora. Ciencia Nueva y el servicio de Time Sharing Honeywell Bull están interesados en sus ideas. Díganos qué haría si tuviera una computadora a su disposición. No nos interesan las aplicaciones standard ni queremos un programa de computación. Sólo estamos buscando ideas originales. Tenemos una computadora para resolver su problema y una revista para publicar los resultados. La computadora y la revista estarán a disposición de la mejor idea. Un jurado de expertos elegirá el mejor tra-

bajo en cuatro categorías: Escuelas secundarias (equipos de estudiantes y profesores). Estudiantes de temas de computación. Profesionales en computación. Personas cuyos conocimientos y actividades no estén relacionados directamente con computación. Los autores de los cuatro trabajos seleccionados tendrán a su disposición gratuitamente durante un mes, el servicio de computación Time Sharing Honeywell Bull. (Incluyendo un curso elemental) Envié el cupón adjunto. Le enviaremos el reglamento del concurso. Aceptaremos ideas originales hasta el 1 o de septiembre próximo.

T i m e S h a ring

Service

Honeywell Bull

f 1 1

i I

Sr. Director, CIENCIA NUEVA, Diagonal R. Sáenz Peña 825, 4° piso, of. 43 Buenos Aires.

• ™

Por favor, envíeme detalles y reglamento del concurso. Nombre Ocupación Dirección

53

i


Cuadrillas Manuel Risueño

i*

9 9.

9

i» •

9 9

9

0 9

9

9

9 9 9 9 9 9 0 • • 9 9 0 0 9 0 0 9 9 • 9 • 9 9 9 w w 9 0 0 9 9 9 9 9 9 9 * 9 % • 0 ». 0 0 0 9 9 9 9 9 9 9 9 9 0 9 0 0 0 9 9 9 9 9 9 9 9 9 0 9 ' 9 9 9 9 9 9 9 9 9 0 0 0 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 a 9 9 9 0 9 9 9 9 9 9 0

••••• • • V • V . • V . 9

0 9

9 0

0

9 9 9 9 9 9 9 0 0 9 9 9 99 9 9

9 0

0 0

9 0

0 9

9

Juegos Matemáticos

9

9

O 9 ' 9 9

9 9

9

9 fl

9

9 •

0

0 9 0 0 0 0 9 9 9 0 0 ® 0 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 0 9 9 9 9 9 9 9 9 9 9 9

0

0 0

9

9

9

0

9

9

0 9

9

9

9 0

0

9 9 9

9 6® 9 9 9 9® 9

9 9 ®

9 9® 9 0 9® ® 9 9 0 0 9®

0 * ® ® ® • ®

®

9

9 9 9 e ® a • ®® 9 9 9 ® 9 9 0 9 9

9

9 9 9 9 0® • 9 9 9 ® 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 0® 9 9 9 9 I® 9 9

••••• X

9 9 9 9 9 9 9 9 ® ¡9 9 9 9 ® 9 9

9

9 9 9 9

9

9

9 9

9

9

9 9 9 • • 9 ® ® 9

9 9 9 9 9 0 9 0 9 9 9 ® 0 ® 9 9 9 9 9 9 9 9 • 99 0 9 9 9 9 9 9 0 0 9 9 0 .0 9 9 9 9 9 0 9 0 9

9

0 9

Para el caso, ya poco probable, que aún haya algún lector que dude que todo se presta a las matemáticas recreativas, hablaremos hoy de un pasatiempo basado en el dominó. Pero antes, una breve explicación para el título, quizás necesaria en estos tiempos modernos. La referencia no es a las cuadrillas de trabajadores, ni a las de caballos, sino a una danza que gustaban bailar nuestros abuelos y abuelas, o tal vez nuestros bisabuelos y bisabuelas, según la edad del lector. Era una danza victoriana, de gran moda a fines del siglo pasado, cuyo nombre se derivaba del hecho de que las figuras de la danza se formaban entre dos parejas, es decir, entre cuatro personas. De un modo análogo, las cuadrillas a que nos referiremos hoy están formadas por un juego completo de fichas de dominó, con números iguales formando cuadrados. El pasatiempo y su nombre derivan del matemático Eduardo Lucas (18421891), a quien ya conocimos al hablar de la serie de Fibonacci y su complemento, la serie de Lucas (N 9 6 ) . Posteriormente ha sido estudia-

54

9 0 0 0 0 0 0 0

9 0 0

0 9 0 0 9 9 0 0 9 0 0 9 '9 9 9 9 9 0 9 0 0 0 9 9 9 9 9 9 9 9 0 0 0 0 9 0 9 9 9 9 9 9 9 9 9 9 9 • • v 0 9 9 9 9 9 * 9 9 9 0 0 91 9 9 9 9 9 0 0 9< 9 9 • • V % V 9 9 9 9 9 9 9 9 9 9 9 9 9V® 9 9 9 * 9 9 9 • 9 9

9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 0 9 9 9 9 9 9 9 9 9 9 9 9 9 9

9 9 9 9 9 9

9

0

l*

0

9

% v 9*9*0 9

«

do por Delannoy, un amigo de Lucas; por Wade E. Philpott, en un artículo de la revista Recreational Mathematics Magazine ( 1 ) , ya citada anteriormente (en CIENCIA NUEVA N? 5) y, finalmente, por Fred. Schuh en su libro "The Masterbook of Mathematical Recreations" ( 2 ) . Sabido es que aunque el juego usual de dominó contiene siete números (del 0 ó blanca, al 6 ) , existen dominós mayores, que llegan generalmente hasta el doble 9 y aun hasta el doble 12, siendo bastante usuales en Alemania. Por ello, dejemos originariamente indefinido el número del dominó, designando por "n-n" al mayor doble. Una fórmula muy conocida permite establecer que el número total de piezas, N, estará dado por N

=

(n+2)

(n+1)

2 En efecto, cada número aparecerá en combinación con n otros (la cantidad total de números diferentes es n + 1, ya que tradicionalmente van del 0 al n ) , formándose


n ( n + 1) pares; pero cada uno estará contado dos veces, de modo que la cantidad total de piezas con dos números desiguales estará dada por n~ + n , , ' — ; si a este numero le agre2 gamos los n + 1 dobles, el número total estará dado por n2 + 11 -ij - n•+i 11 — = 2 _ _ ir + _3n + 2 ___ __ ( n + 2 ) ( n + 1) ~ 2 Para que puedan formarse "cuadrillas", es evidente que cada número debe aparecer en el conjunto de fichas un número de veces que sea múltiplo de 4. Como cada número aparece n + 2 veces (n veces en combinación con los otros n números y dos veces en el doble) es necesario que n + 2 sea divisible por - 1 2 4, o sea, que — — debe ser un nút mero entero, que denominaremos k. Se obtiene así la ecuación n + 2 k que, resuelta para n, nos da n = 4k — 2, en que k puede ser cualquier entero positivo. Esta última fórmula nos da todos los posibles juegos de dominó que pueden formar cuadrillas, que estarán representados por la serie 2, 6, 10, 1 4 , . . . , Como lo indica Philpott en su ar-

Figura 1.

tículo citado, es fácil encontrar una solución para n = 2 (véase figura 1) y no es tampoco muy difícil demostrar que esta solución es única, en el sentido de que todas las soluciones se pueden derivar de ella por permutaciones de los números entre sí, formando un total de ( n + 1)! (en este caso, 6) soluciones distintas. Lucas se ocupó principalmente del caso n = 6, es decir, el del dominó común, obteniendo para la figura doblemente simétrica indicada en la figura 2 cuatro grupos de soluciones diferentes, caracterizados por la posición de los dobles, que hemos indicado sombreados en dicha figura. Delannoy encontró dos tipos de soluciones para la otra figura doblemente simétrica indicada en la figura 3, encontrando Philpott dos tipos ele soluciones adicionales. En la figura 3 las caracterizamos todas, como siempre, por la posición de los dobles, indicados con sombreado; las soluciones de Delannoy son las primeras dos y las de Philpott las dos restantes. Finalmente, Delannoy encontró también una solución, la de la figura 4, para una figura simplemente simétrica.

así a un total global de 171.360 soluciones. Finalmente, para la figura .3, encontró cinco tipos diferentes de soluciones (en la figura 5 indicamos la solución adicional), que dan origen, respectivamente, a 14, 8, 2, 2 y 3 soluciones diferentes, o sea, un total de 29 soluciones, que de nuevo corresponde multiplicar por 5.040 si se consideran las permutaciones de los números entre sí. Finalmente, estudió Schuh las figuras carentes de simetría, determinando las que tenían el menor y mayor número de ángulos. Después de demostrar que todas las figuras posibles con cuatro, seis y ocho ángulos (que indicamos en la figura 6 sin tomar en cuenta la correcta proporción de los lados, sino únicamente la sucesión de ángulos), no llevan a ninguna solución, encontró que de las ocho figuras posibles con diez ángulos, una sola, la de la figura 7, lleva a una solución de un tipo único, que a su vez tiene 14 soluciones diferentes, dos de las cuales tienen la particularidad de tener adyacentes dos cuadrillas del mismo número en la parte marcada en la figura 7 con sombreado en la dirección opuesta.

Schuh, en su obra citada, demostró que el. tipo de solución dado en la figura 4 es único, por lo que todas las soluciones posibles se obtienen de una de ellas permutando los números entre sí, lo que forma un total de 5.040 soluciones. Este número se duplica si se consideran diferentes las soluciones que se obtienen de las anteriores por simetría en el eje medio de la figura. También demostró que para la figura 2 sólo se encuentran los cuatro tipos de soluciones indicados en ella, que dan origen, respectivamente, a 8, 14, 4 y 8 soluciones diferentes, o sea, un total de 34 soluciones diferentes, de cada una de las cuales se obtienen 5.040 por permutación, llegándose

Para el número mayor de ángulos, encontró Schuh la solución de la figura 8, con 24 ángulos, el máximo teóricamente posible. Esta solución también es de un tipo único y lleva a dos soluciones diferentes. Schuh no se ocupó del caso siguiente, n = 10, y es fácil comprender que, si hubiera deseado estudiarlo tan exhaustivamente como lo hizo con el caso anterior, el número de combinaciones le hubiera resultado enteramente fuera del alcance de la vida humana. Philpott sí ha estudiado este caso, encontrando soluciones del tipo único mostrado en la figura 9 ( 5 distintas, al menos) y varias de los 4 tipos mostrados en la fig. 10. Resul-

55


0

1 A\\ 1

1

1

i

i i

i

ยกS |

i

1I 1 1 i ยง \N

]

Figura 3.


ta interesante comparar las soluciones para n = 2, 6, 10, . . ., pudiendo apreciarse que el tipo dado en las figs. 1, 4 y 9, lleva siempre a soluciones con una ubicación fija de los dobles y orientación fija también para los demás dominós. Siguiendo esta analogía, cabe suponer que para la forma dada en la figura 10, debe haber otros tipos de soluciones, como ocurrió con las figuras 3 y 5. También cabe suponer la existencia de soluciones para una forma análoga a la de la figura 2 y pueden buscarse las soluciones, no necesariamente simétricas, con el mayor o menor número de ángulos, también siguiendo la analogía de las figuras 7 y 8. Si algún lector con intereses menos amplios que los míos desea concentrarse en estos problemas y llega a resultados de interés, con mucho gusto me encargaré de hacérselos publicar. O

1 No. 14, enero-febrero de 1964, pp. 6-11. 2 Edición inglesa traducida por F. Gobel y editada por T. H. O'Beirne, publicada por Dover, pp. 38/66.

Los Polióminos III, Juegos Matemáticos (CIENCIA NUEVA N 9 8 )

Respuestas y aclaraciones En la figura 11 damos una solución del problema de formar con los doce pentóminos un rectángulo de 15 X 4 unidades. Según puede apreciarse, puede dividirse en dos mitades congruentes. La segunda solución se obtiene de la indicada, haciendo girar en 180° la parte sombreada. No daremos las soluciones para los problemas de la figura 4 hasta el próximo número, por haberse omitido erróneamente indicar en ella el número de soluciones. La cruz que tiene una solución indicada, tiene 13 soluciones distintas, incluyendo aquélla; la otra cruz, de brazos iguales, que se encuentra debajo, tiene 9 soluciones distintas y la cruz que se encuentra encima de la " I i " al otro lado de la figura, 18 soluciones distintas, en tanto que la " H " tiene sólo dos que sólo difieren entre sí

Figura 11.

en la posición de dos piezas. Para las dos graderías de la parte central, el número de sus soluciones se cuenta al menos por centenas. Señalemos finalmente algunos errores de imprenta que alteran u ocultan el sentido de lo dicho: En la primera columna de la página 49, 6? línea desde abajo, se ha omitido un "no", debiendo decirse: "Para ello no es necesario estudiar todas. . . " . Las referencias a las figuras 2 y 3 han sido intercambiadas en la mayoría de los casos, como habrá resultado obvio para el lector despierto. O

Errata de "La guerra química" La dirección de la revista La Recherche nos informa acerca de algunas omisiones y errores que se deslizaron en la nota de Nguyen Dang Tam publicada por la revista francesa. Esas fallas fueron lógicamente repetidas en la traducción del mismo trabajo publicado en CIENCIA N U E V A N ? 9, página 5 y subsiguientes. En la página 12, columna de la izquierda, al final del primer párrafo, se omitió el siguiente texto: "Es necesario destacar que la 2,4,5T puede penetrar en el orga-

nismo por vía cutánea y, de esa manera, la población que camina con los pies desnudos o la que trabaja con brazos y piernas desnudos en los arrozales, está particularmente expuesta a intoxicaciones graves que pueden llegar hasta la parálisis de los miembros inferiores." En la página 11, en el cuadro de agentes neurotóxicos debe corregirse lo siguiente: — E l nombre químico correcto del tabún es: dimetilaminoáanofosfonato de etilo. —El

nombre

químico

correcto

del sarín es: metil-fluorofosfonato de isopropilo. — E l nombre químico del somán es: metil-jluorofosfonato de pinacolil. —El último subíndice a la derecha de la fórmula química del V X , debe ser un 2 y su nombre químico correcto es: metil-S (2-dimetilaminoetil) tiolfosfonato de etilo (bromhidrato). Finalmente, en la misma página y en la columna derecha, el D N O C que figura en primer lugar como esterilizante del suelo, debe ir en último lugar entre los defoliantes. O

57


El filtro de las noticias

• Prótesis de nervios. En la cátedra de anatomía topográfica y cirugía operatoria del Instituto Central de Moscú, se han realizado a lo largo de varios años experimentos de sustitución de sectores de nervios con prótesis metálicas de tantalio, platino, oro y wolframio. Mediante centenares de experimentos en animales se ha comprobado que hasta los grandes troncos nerviosos, como, por ejemplo, el nervio facial del perro, pueden sustituirse parcialmente con metal, obteniéndose así una recuperación total de las funciones del nervio. Este trabajo fue realizado por la doctora Z. Skudarnova, apoyada en experiencias del ingeniero V. Gudov, quien sustituyó por primera vez en un perro un trozo de nervio con uno de metal y desarrolló la argumentación teórica de este tipo de intervenciones. Ya se han practicado las primeras operaciones en enfermos con lesión del nervio facial. Se eligió este nervio porque es el que suele sufrir mayor daño en los traumatismos craneanos, en las heridas del tejido facial y en los distintos procesos inflamatorios. Hasta ahora se ha practicado esta intervención en más de treinta enfermos. En casi todos los casos, después de injertada la prótesis se restablecieron totalmente las funciones del nervio. Operativamente, se elimina la parte lesionada del nervio y en su lugar se injerta una prótesis metálica. Se la introduce en la parte central del nervio para que sirva de conductora a los impulsos procedentes de las fibras nerviosas con las que se pone en contacto. El número de electrodos colocados depende del diámetro del nervio. Se piensa, incluso, emplear prótesis

58

múltiples —que ya se fabrican—, y dar paso así a mayor cantidad de estímulos que van del centro a la terminación periférica. Las prótesis utilizadas actualmente son pequeños alambres de tantalio de uno a cuatro centímetros de longitud. Su diámetro oscila entre 30 y 150 micrones. La longitud y el diámetro de la prótesis fueron determinados durante los experimentos practicados en animales. Se ha resuelto también el problema de la longitud del extremo del electrodo, la afilación, el acabado y el modo de introducción del mismo en el tronco nervioso según sea el diámetro de este último. i* LSD: acción teratógena nula. C. Roux, R. Dupuis y M. Aubry analizaron 1.003 fetos de ratas, 521 fetos de ratones y 189 de hámster después de haber suministrado a las hembras preñadas dosis unitarias de tartrato del ácido dietilaminlisérgico comprendidas entre 5 y 500 p-g por kilo y por día, al principio o durante la gestación. (Science, 169, 588, 1970). Contrariamente a otros trabajos, los autores citados no comprobaron ninguna diferencia significativa con los testigos. Como es natural, no se puede extraer ninguna conclusión para el caso del hombre y sólo una observación clínica exhaustiva podrá proporcionar una información satisfactoria. • Espuma ele plástico. Un grupo de investigadores agrícolas húngaros está utilizando con éxito algunos materiales para el mejoramiento del terreno. Los llamados productos industriales de carga eléctrica, es decir, materiales plásticos que no se

descomponen rápidamente al entrar en contacto con el terreno, demostraron ser extraordinariamente apropiados para la conservación de la estructura y el acondicionamiento de los suelos productivos. Principalmente se tiende al uso de espumas de materiales plásticos. Al ser inyectadas al terreno, éstas mejoran rápidamente la reserva de agua de la tierra debido a que la espuma de plástico acumula la humedad del terreno, incrementando a la vez el contenido de oxígeno del suelo. Esta espuma se descompone en un 3 al 5 por ciento anual y el nitrógeno liberado durante la descomposición es bien aprovechado por los vegetales.

• Metabolismo calcico y vitamina D. E. Kodicek y colaboradores (Nature, 228, 763, 1970) establecieron que diferentes metabolitos polihidroxilados de la vitamina D, y no la vitamina D por sí misma, son, en realidad, responsables de la regulación del metabolismo del ión C a + + . Algunas avitaminosis D son consecuencia de la imposibilidad enzimática, por parte del enfermo, de oxidar la vitamina D en esos metabolitos hidroxilados.

• Interferón. W . A. Cárter (Proc. Nat. Acad. ScL, 67, 620, 1970) comprobaron la existencia de proteínas de peso molecular diferente en los interferones humanos y de ratones. Estos resultados demuestran que los interferones son dímeros de subunidades idénticas; cada unidad es activa y la formación del dímero no incrementa dicha actividad.


Cursos y reuniones científicas

Iniciación de cursos en el Centro Argentino de Ingenieros En la primera semana de junio comenzarán cinco cursos sobre temas diversos en el Centro Argentino de Ingenieros. Los cursos se dictarán en la sede del CAI, Cerrito 1250 y la inscripción es libre, es decir 110 está limitada a los socios del CAI. Los interesados deben dirigirse a Cerrito 1250, 2° piso, teléfonos 429520 y 42-6447, de lunes a viernes, de 13 a 20 horas. A continuación detallamos las principales características de los referidos cursos: Inglés Técnico, Profesora: María Esther Casares. Programa: 1. Temas de estructura gramatical; 2. Tiempos verbales; 3. "El hierro y el acero"; 4. "Tratamiento calórico del acero"; 5. "Lubricación de cojinetes"; 6, "Soldadura"; 7. "Calderas de vapor"; 8. "Condensación y condensadores"; 9. "Reguladores centrífugos" y "Turbinas de acción"; 10. "El motor de nafta"; 11. "El sistema de carburación" y "El motor de reacción"; 12. "El motor de turbina"; 13. "Planos de sustentación" y "Radiactividad"; 14. "Reacción en cadena"; 15. "Sistemas de enfriamiento del reactor" y "Conductores y conductividad"; 16. "Motores de inducción"; 17. "Electrólisis" y "El flujo de los líquidos y su medición"; 18. "Bombas para líquidos"; 19. "Petróleo" y "Subrrasantes"; 20. "Pavimentos rígidos"; 21. " P i l o t e s p a r a cimientos" y "Puentes suspendidos". Maestreo del trabajo, Profesor: Ingeniero Américo Ghioldi ( h . ) . Te-

mario: Herramientas de la productividad; Estudio del Trabajo y Muestreo del Trabajo; Conceptos estadísticos fundamentales; Métodos y recursos para la medida del trabajo; Unidades de tiempo a emplear; Cálculo del número de observaciones a realizar; Gráficos de control; Nivel de confianza y precisión deseada; Tablas de números al azar; Aplicaciones industriales.

tor Adolfo Likerman. Temario: Las épocas, los estilos, las tendencias; Revista de algunos grandes pintores; Pintura no occidental; Algunos conceptos fundamentales en la historia del arte pictórico; Relaciones de la pintura con otras áreas de la cultura. O

Organización de Depósitos, Profesor: Ingeniero Pablo Tanzer. Programa: 1. Políticas de inventarios; 2. Distintos casos en problemas de "stocks"; 3. Concepto de catalogación y codificación de materiales; 4. El dimensionamiento de los depósitos; 5. Discusión de casos prácticos.

Primer Simposio Argentino sobre Prevención en Pediatría

Introducción al Mundo de la Pintura, Profesor: Doctor Adolfo Likerman. Temario: 1. Ubicación del arte en nuestra vida; 2. Orígenes y evolución de la pintura occidental, de Egipto al Rococó; 3. Desde Giotto hasta nuestros días. Relaciones de la filosofía con la pintura. 4. Naturalismo, Impresionismo, Expresionismo; 5. El cuadro frente a la historia, la psicología y la sociología; 6. Pintura de la naturaleza, pintura abstracta; 7. La pintura mental; 8. Racionales y sensoriales; 8. Orígenes de la pintura moderna; 10. Divisionistas y puntillistas, el expresionismo; 11. Los "fauves", el instinto, el cubismo; 12. Futurismo, Dadaísmo, Pintura onírica, Surrealismo; 13. Pintura abstracta; 14. Suprematismo-Tachismo, Texturalismo, Informalismo; 15. Una nueva visión del mundo, Neofiguración, Arte y Humanismo. Visión del Arte

de la Historia Universal Pictórico, Profesor: Doc-

El Servicio de Pediatría del policlínico Gregorio Araoz Alfaro realizará, del 7 al 12 de junio próximo, en la Facultad de Medicina de la Universidad de Buenos Aires, el Primer Simposio Argentino sobre Prevención en Pediatría. En el referido simposio serán analizados diversos temas relativos a la prevención de las enfermedades en el niño, con vacunas, gamma-globulinas y antibióticos, como asimismo la prevención de procesos en el recién nacido, enfermedades metabólicas y genéticas, etc. H a n sido especialmente invitados a participar en las reuniones, los especialistas extranjeros profesores Guido Franconi, de la Universidad de Zurich, Suiza; Alexander Schaffer, de Estados Unidos y Roberto Caldeyro-Barcia, de la Organización Mundial de la Salud. Los interesados en obtener mayor información, deben dirigirse al citado Servicio de Pediatría en Río de Janeiro 1910, Lanús, teléfonos 2414051 al 4059. O

59


Libros nuevos

Transformadas

de Laplace

II. Transformada inversa de Laplace: Definición. Unicidad. Teorema Richard H. Lindeman de Lerch. Algunas transformadas inMurray R. Spiegel versas de Laplace. Algunas propiedades importantes. Linealidad. PriTraducción del original inglés: mera y segunda propiedad de traslaJosé D. Arias Páez ción. Propiedad del cambio de esMe Graw-Hill Editores Impreso en Colombia cala. Transformada inversa de LaColombia, 1 9 7 0 , 2 6 1 páginas. place de las derivadas e integrales. Multiplicación por s". División por Sumario-, I. Transformadas de La- s. Propiedad de la convolución. Méplace: Definición. Notación. Trans- todos para hallar la transformada formadas de Laplace de algunas inversa de Laplace. Método de las funciones elementales. Continuidad fracciones parciales. Método de las seccional o a trazos. Funciones de series. Método de las ecuaciones diorden exponencial. Condiciones su- ferenciales. Derivación con respecto ficientes para la existencia de la a un parámetro. Distintos métodos transformada de Laplace. Algunas que utilizan los teoremas anteriores. propiedades importantes de la trans- Uso de tablas. Fórmula de inversión formada de Laplace. Propiedad de compleja. Desarrollo de Pleaviside. la linealidad. Primera propiedad de La función beta. Evaluación de intetranslación. Segunda propiedad de grales. I I I . Aplicaciones a las ecuatranslación. Propiedad del cambio ciones diferenciales: Ecuaciones dide escala, la transformada de Lapla- ferenciales ordinarias con coeficience de las derivadas. Transformada de tes constantes. Con coeficientes vaLaplace de integrales. Multiplicación riables. Simultáneas. Aplicaciones a por tn. División por t. Funciones pe- la mecánica. Aplicaciones a los cirriódicas. Comportamiento de / ( í ) cuitos eléctricos. Aplicaciones a las cuando s c o . Teorema del valor vigas. Ecuaciones diferenciales parinicial. Teorema del valor final. Ge- ciales. IV. Aplicaciones a las ecuaneralización del teorema del valor ciones integrales y de diferencias: inicial. Generalización del teorema Ecuaciones integrales. Ecuaciones indel valor final. Métodos para calcu- tegrales de tipo convolutorio. Ecualar transformadas de Laplace. Méto- ción integral de Abel. Problema de do directo. Método de las series. Mé- tautócrona. Ecuaciones integro-difetodo de las ecuaciones diferenciales. renciales. Ecuaciones de diferencias. Derivación con respecto a un pará- Ecuaciones diferenciales de diferenmetro. Diversos métodos. Mediante cias. V. Teoría de variable compleja: el uso de tablas. Evaluación de in- Sistema de números complejos. Fortegrales. Algunas funciones especia- ma polar. Operaciones en la forma les. La función gama. Funciones de polar. Teorema de De Moivre. RaíBessel. Función de error. Función ces de los números complejos. Funcomplementaria de error. Integrales ciones. Límites y continuidad. Deride seno y coseno. Función escalona- vadas. Ecuaciones de Cauchy-Rieda unitaria. Función de impulso uni- mann. Integrales de línea. Teorema tario ó* función delta de Dirac. Fun- de Green en el plano. Teorema de ciones nulas. Transformadas de La- Cauchy. Fórmulas integrales de Cauplace de algunas funciones especiales. chy. Series de Taylor. Puntos singu-

60

lares. Polos. Series de Laurent. Residuos. Teorema de los residuos. Evaluación de integrales definidas. VI. Series e integrales de Fourier: Funciones pares e impares. Series de Fourier de seno y coseno de semiperíodo. Forma compleja de una serie de Fourier. Identidad de Parseval en las series de Fourier. Transformadas finitas de Fourier. Integral de Fourier. Forma compleja de las integrales de Fourier. Transformadas de Fourier. Transformadas seno y coseno de Fourier. Teorema de la convolución. Identidad de Parseval para integrales de Fourier. Relaciones entre las transformadas de Laplace y de Fourier. V I L Fórmula de inversión compleja. Contorno de Bromwich. Utilización del teorema del residuo para hallar transformadas inversas de Laplace. Una condición suficiente para que tienda a cero la integral alrededor de T. Modificación del contorno de Bromwich en el caso de puntos de ramificación. Caso de infinitas singularidades. V I I I . Aplicaciones a los problemas de valor frontera. Problemas de valor frontera que involucran ecuaciones diferenciales parciales. Algunas ecuaciones diferenciales parciales importantes. Ecuación de conducción del calor en una dimensión. Ecuación de onda en una dimensión. Vibraciones longitudinales de una viga. Vibraciones transversales de una viga. Conducción del calor en un cilindro. Líneas de transmisión. Problemas en dos y tres dimensiones. Solución de problemas de valor frontera mediante transformadas de Laplace. Apéndice A: Tabla de propiedades generales de la transformada de Laplace. Apéndice B: Tabla de transformados de Laplace especiales. Apéndice C: Tabla de funciones especiales.


Los indios de los Estados Unidos de América Clark Wissler Traducción del original inglés: Andrés Pirk Editorial Paidós Iiucnos Aires, 1 9 7 0 , 3 9 8 páginas.

Sumario: Prefacio. Introducción. Primera parte: El indio en la América prehistórica. 1, El precursor aborigen. 2, Aparición de los stone boilers. 3, Los agricultores y los alfareros. 4, Los constructores. 5, El origen de la pipa de la paz. Segunda parte: 6, Las grandes familias indias. 7, La antigua gran familia algonquina. 8, El antiguo noroeste. 9, Los cazadores de búfalos del oeste. 10, Los algonquinos del norte y del oeste. 11, La familia iroquesa. 12, La familia de los caddo. 13, Las tribus sudorientales. 14, La familia siux. 15, Las familias penutianas. 16, Las familias nadene. 17, Las familias azteco-tamoanas. Tercera parte: La vida india en general. 18, El modo de vida indio. 19, Cuando el hombre blanco

se hizo indio. 20, Tres extraños presentes del hombre blanco. 21, El misterio de la mente india. 22, La vida en una reserva. 23, ¿Vivió el indio en vano? Bibliografía.

La Ciencia de la Educación Comparada

en la educación comparada. 11. Introducción: identificando el problema. 12. Dos modelos de hipótesis. 13. Conceptos e indicadores. 14. Selección de casos. 15. Recopilación de datos. 16. Manipulación de datos. 17. Implicaciones de los resultados. Cuarta Parte. Conclusión. 18. Hacia una ciencia de la educación comparada. Apéndice.

Harold J. Noali y Max A. Eclcstein Traducción del original inglés: A. Bignami Editorial Paidós Argentina, 1 9 7 0 , 2 9 0 páginas.

Sumario-, Primera parte. Desarrollo de la educación comparada. I. Introducción. 2. Los relatos de viajeros. 3. Préstamos educaciones. 4. 'Cooperación internacional. 5. Fuerzas y factores. 6. Explicación por las ciencias sociales. 7. Conclusiones. Segunda Parte. El método científico. 8. Introducción: modos de conocer. 9. El método científico y el estudio de la sociedad. 10. El método científico y la educación comparada. Tercera Parte. El método científico

Tratado de educacional

medición

Richard H. Ltndeman Traducción del original inglés: Elvira Rissech de Wiñar Editorial Paidós Argentina, 1 9 7 1 , 2 1 8 páginas.

Sumario: 1. Naturaleza y alcance de la medición educacional. 2. Estadística básica. 3. Cómo evaluar la calidad de un instrumento de medición. 4. Construcción y análisis de tests de rendimiento escolar. 5. Otras medidas del progreso del alumno. 6. La evaluación del alumno: calificaciones e informes. Bibliografía.

Comentarios de libros Métodos aplicados

estadísticos

N. M. D o w n i e y R. W. Iieatli Traducción del original inglés: J . P . Vilaplana y A. Gutiérrez Vázquez Ediciones del Castillo, S. A., Madrid, 1 9 7 0 , 3 7 3 páginas.

Es un libro elemental de estadística escrito por N. Downie (Universidad de Pardue) y R. Heath (Universidad de Stanford). La primera edición de este libro data de 1959. La traducción española fue hecha de la edición actualizada de 1970. Su lectura no requiere ningún conocimiento previo de matemáticas. Son suficientes los conocimientos

elementales de aritmética a nivel de bachillerato. Abarca todos los temas clásicos de la estadística como la estadística descriptiva, distribuciones más usuales, test de hipótesis, muestreo, estimación de parámetros, correlación y regresión y algunos temas menos usuales en textos elementales como análisis de la variancia, tests no paramétricos y estudio de la sensibilidad y Habilidad de los tests. No se ha pretendido mayormente ni deducir fórmulas ni exponer la teoría estadística, ya que, como dicen los autores en el prólogo, los conocimientos matemáticos de los lectores a quienes se dirige el libro probablemente no son suficientes para ello.

Casi todos los ejemplos considerados son del dominio de la sociología y de la pedagogía (como resultados en la medición del coeficiente intelectual, escalas de medición de actitudes y comportamientos, sensibilidad de esas escalas, etc.). Cada capítulo está complementado por una serie de ejercicios pro-, puestos cuyas respuestas figuran al fin del libro. En definitiva se trata de un texto útil para los estudiantes y profesionales de pedagogía, sociología y psicología y para aquellos que, sin dedicarse específicamente a esas materias, puedan tener interés en conocer los métodos estadísticos aplicados a las ciencias sociales. R. M.

61


Correo del lector

Motor Wankel

Metegol del Reloj

Sr. Director:

Sr. Director:

La noticia publicada en CIENCIA NUEVA N° 9 acerca del motor Wankel de dos rotores en serie que está desarrollando Rolls-Royce es interesante porque vuelve a utilizar el compresor epitrocoidal en la misma forma en que fuera utilizado originalmente por Wankel, es decir, como compresor.

He encontrado una solución al Metegol N? 4 propuesto por el Sr. R. A. Rosendi y aprovecho para hacerles saber la gran satisfacción que me produce la lectura de vuestra revista, ya que sin profundizar ninguna especialidad científica me intereso por todas y encuentro en sus páginas una muy buena información de dichos temas.

El ingeniero Wankel utilizó por primera vez el sistema que lleva su nombre como compresor en una motocicleta NSU de 50 centímetros cúbicos de cilindrada con la que obtuvo varios record mundiales de velociclad. Después desarrolló ese mismo mecanismo como motor. En el sistema Rolls-Royce el rotor de mayor tamaño es utilizado como compresor de admisión, aunque simultáneamente, en otras de sus caras, recibe gases a presión y actúa como motor. Aún se me ocurren otras coincidencias funcionales con mecanismos ya existentes. Hubo motores de dos tiempos que utilizaron un cilindro compresor y un cilindro motor, notoriamente, en el campo de los automóviles, hubo un DKW de preguerra que tenía seis cilindros en V; el último cilindro de cada bancada era de doble efecto y se utilizaba como compresor para controlar el llenado de los otros dos. Finalmente y en cuanto a la utilización de gases motrices en dos etapas, el parentesco con la máquina de vapor es obvio.

Miguel Trancamuzzi San Fernando

62

Lo felicito asimismo por la seriedad de los artículos y por el diseño y compaginación de la revista. Las respuestas que he encontrado al problema antedicho son las siguientes: 14h24min; 16h48min; 9h36min; 7hl2min. Además se comprueba fácilmente que ninguna hora exacta o múltiplo de cinco lleva a una solución. Arq. Guillermo A. Tigalo Buenos Aires \

Unidades de medida Señor Director: He notado que CIENCIA NUEVA utiliza abreviaturas de unidades de medida que no coinciden exactamente con las de uso corriente en diarios y revistas, aun en secciones especializadas. No sé si existe y cuál es la forma correcta de expresar esas abreviaturas, pero estoy seguro que. hay una gran confusión en todo esto ya que ni siquiera los libros técnicos y de texto parecen ponerse de acuerdo acerca de lo que debe usarse.

Felicitaciones por la revista; es un esfuerzo singular que debe ser apoyado. Enrique Sánchez González Olivos Existe una normalización internacional en materia de abreviaturas de unidades de medida y esa norma es la utilizada por CIENCIA NUEVA,. Las normas básicas fueron establecidas por la International Standards Organization y tienen su correspondiente nacional en normas IRAM. Esas normas no coinciden, en general, con las que nos enseñaron en el colegio y, como usted lo hace notar, tampoco con los libros de texto o publicaciones. Quizá convendría recordar a maestros, profesores, periodistas, traductores, etc. que conocer la grafía correcta de las unidades de medida, abreviadas o no, es parte de sus obligaciones. Los errores que se detectan más frecuentemente son, entre otros: a) La "castellanización" y pluralización de los apellidos y el uso de mayúsculas. Ejemplo: Voltio o voltios por volt.; Julio por joule, etc. b) La utilización de abreviaturas de origen anglosajón en unidades métricas. Ejemplo: k.p.h. por k m / h; r.p.m. por rev/min. c) El uso descuidado de mayúsculas y minúsculas. Ejemplo: Km por km (kilómetro); w por W (watt), etc. d) El uso de punto a continuación de la letra o letras de la abreviatura. Ejemplo: m. por m (metro); kg. por kg (kilogramo). Un resumen de las normas antes citadas fue realizado por el ingeniero Lázaro Musih y publicado en el número 37 de la revista "Nosotros Fiat". O


Indice analítico 1970-1971 Indice de los números 1 a 10. La primera cifra indica número de revista; la segunda cifra indica número de página. Arqueología y paleontología Pirámide Maya (Arqueólogos norteamericanos reconstruyen una), 1-25 Susa: Textos surgidos de la arena, 8-46

Astronomía y cosmología

Computadora que se autocontrola en el Grand Four de los Planetas (Una), 5-18 Cosmología observacional (El resurgimiento de la), 10-27 Distancia de la Tierra a la Luna (La), 7-59 Galaxia (Cómo nace una), 7-56 Materia lunar (Precipitación de), 5-19 Nube de hidrógeno alrededor de un cometa, 4-24 Pulsar con un planeta (Un), 6-40 Universo oscilatorio (Sugestión matemática de), 5-22

Biología

Acción antiviral de la rifampicina (La), 7-55 Amebas (Desarmando y armando), 4-20 Botánicos patentan plantas, 1-24 Calcitonina, una hormona recientemente descubierta, 10-49 Código genético (El), 2-9 Cromosomas anormales con computadoras (Detección de), 2-23 Cromosomas de Adán y Eva (Los), 8-44 DDT convierte un huevo en una "omelette" (De qué manera el), 4-24 Dinosaurios (La superioridad de los), 3-52 "Dogma" cuestionado (Un), 7-58 Embrión (Desarrollo inicial del), 6-26 Enzimas (Simulación de), 7-36 Espermatozoide (El), 8-53 Factores R (La ecología de), 5-23 Fecundación de la reina (La), 9-45 Gene (La síntesis de un), 6-38 Genética, hoy y mañana, 2-6 Hemoglobina proporciona nuevos datos sobre el origen del hombre (La), 2-24 Hombre de medida (El), 1-10 Hongos y proteínas, 5-18 Insectos incompatibles (Impulso a los), 2-19 Inmunología de los vertebrados (La), •8-47 Instituto Salle estudiará la influencia de las ciencias biológicas en la sociedad (El), 3-19 Leloir: cronología de un Premio Nobel, 7-49 Leloir, Premio Nobel de química (Luis F.), 6-5 Lucha antiviral (Novedades en la), 7-52 Microorganismos que transforman las piedras (Los), 9-49 Neuronas reparten moléculas por sus terminales (Cómo las), 7-54 Partenogénesis en mamíferos, 8-43 Proteínas primitivas, catálisis por arcillas, 10-50 Reconocimiento extranjero (Sólo el), 7-3 Trigo melómano, 4-26 Virus y cáncer, 5-25

Comentarios de libros

"Ciencia e Investigación" cumple 25 años, 3-22

El fantasma tecnológico, G. Russo, 1-62 Hacia una política cultural autónoma para América latina, S. Bagá, W. Buño, R. Laguardia, O. Maggiolo, C. Quijano, A. Rama, D. Ribeyro, 2-60 Historia de la Ciencia, dirigida por R. Taton, 1-61 La escuela y la sociedad en el siglo xx,

]. Zanotti, 7-61

La Investigación Científica, su estrategia y su filosofía, Ni. Bunge, 4-57 Los Sentidos, O. Loivenstein, 7-62 Métodos estadísticos aplicados, N. Dorwnie y E. Heath, 10-61

Ecología

Contaminación del medio ambiente (La), 5-5 Día de la Tierra (El), 2-5 Dinosaurios (La superioridad de los), 3-52 Ecología de la guerra, 5-20 Guerra química (La), 9-5 Oxígeno? (¿Se acaba el), 3-21 Residuos de fisión vitrificados, 6-39 Ruido: una plaga social (El), 4-23

Educación Año mundial de la educación, 3-3 Educación nacional: problemas reales, soluciones teóricas, 7-3

Entretenimientos Algunos problemas relacionados con el tablero de ajedrez, 5-14 Computadora con lápiz y papel (Cómo construir una), 1-5 Cuadrillas, 10-54 Go (El juego del), 9-58 Metegol N° 1, 5-61; N? 2, 6-41; N? 3, 7-63; N? 4, 8-64; N? 5, 9-64; N? 6, 10-33 Permutaciones (Las), 3-23 Polióminos I (Los), 1-20 Polióminos II (Los), 4-15 Polióminos I I I (Los), 8-49 Reina de las matemáticas (La), 2-29 Respuesta al Metegol N? 1, 6-41; N? 2, 7-28; N? 3, 8-64; N° 4, 9-64; N? 5, 10-33 Serie de Fibonacci (La), 6-52

Espacio y astronáutica Cohete europeo (Acuerdo para un nuevo),, 3-20 Materia lunar (Precipitación de), 5-19 Satélites artificiales nos espían (Los), 6-35 Satélite cantor, 3-5

Física

Agua líquida (El), 9-19 Atomos? (¿Podemos ver los), 8-29 Born (Max), 8-4 Curie (María Sldodowska), 4-32 Física del sólido (Panorama de la), 4-40 Física y política, 6-42 Físicos soviéticos (Nuevo equipo para), 4-26 Hipersonidos (La ciencia de los ), 9-51 Inductores del interferón (Los), 9-45 Láser (Teoría general del), 2-33 Matemática con luz ; 6-36 Materia y antimateria (Desequilibrio entre), 9-50

Partículas más veloces que la luz, 3-43 Relatividad en un fin de semana (Cómo comprobar la), 6-34 Residuos de fisión vitrificados, 6-39 Superconductores (Un nuevo grupo de), 1-24 Teoría especial de la relatividad resiste la prueba del tiempo (La), 1-24 Tokamak: Un paso más hacia la fusión termonuclear controlada (El), 4-19 Ultramicrobalanza usa un rayo de luz como contrapeso (Una), 2-21

Geofísica, geología y oceanografía

"Anomalía magnética sudatlántica" (Información sobre la), 4-22 Antiguas glaciaciones en el sur argentino, 8-42 Biología marina y recursos pesqueros, 10-6 Microorganismos que transforman las piedras (Los), 9-49 Ondas gravitatoiias (Más pruebas de la existencia de), 1-25

Historia y filosofía de las ciencias

Bacon y la investigación científica de nuestros días (Francis), 2-26 Born (Max), 8-4 Ciencia como actividad cultural (D. H . R. Barton: La), 3-60 Ciencia e ideología, 10-12 Fresco toscano (Restauración del), 9-32 Fresco toscano (Técnica del), 7-16 Responsabilidad ética y social del científico, 9-26 Pensamiento pitagórico en América latina (El), 8-15 Pestes del Renacimiento (Las dos), 1-16 Presión atmosférica (Viva la), 2-52 Pseudociencia, 2-56 Sócrates (Un diálogo con), 6-17 Verne (Los nueve errores de Julio), 1-56 Yerbas y demonios (De), 5-49

Informática y computación

Burbujas magnéticas para el tratamiento de la información, 3-18 Centro de cómputo de la Fundación Bariloche (Inauguración del), 9-11 Computadora con lápiz y papel (Cómo construir una), 1-5 Computadoras de la cuarta generación (Las), 6-34 Computadoras en la Argentina? (¿Pueden construirse), 5-52 Computadora "juega" en un equipo de fútbol (Una), 2-20 Comunicación oral entre hombres y máquinas, 10-38 Información grabada en discos, 5-22 Simulando caracoles, 2-22 Teoría de la información? (¿Qué es la), 3-34

Ingeniería

ACHEMA 1970, 3-20 Avión que coloca conductos y líneas de alta tensión (Un), 1-26 Ciencia de los materiales: nuevas tecnologías para viejas técnicas (La), 7-6 Cuenca del Plata (Un modelo para la), 6-6

1

63


Domo geodésico con control solar (Un), 4-24 Nuevos materiales (La generación de), 7-8 Planificación vial (Tiempo de), 6-3 Puente sumergido (El), 9-48 Rieles más largos para ferrocarriles más baratos, 1-27 Tiempo de derrumbes, 3-6 Matemáticas Aspecto unitario de la matemática (El), 4-12 Congreso de matemáticas: sin comunicaciones orales, 1-25 Matemática (Perspectivas de la), 1-51 Ramanujan (Srinivasa), 3-49 Medicina Aprendizaje visceral: ¿Una facultad humana desaprovechada?, 7-22 Articulaciones humanas (El mecanismo de las), 4-5 Cirugía a baja temperatura, 7-52 Clínica médica (Investigación en), 3-26 Corazón (Energía para el), 5-22 Embrión (Desarrollo inicial del), 6-26 Espermatozoide (El), 8-53 Estaño hace bien (Un poquito de), 7-52 Factores R (La ecología de). 5-23 Flúor? (¿Pro o contra el), 2-23 Gripe de Hong-Kong (El enigma de la), 1-47 Gusto eléctrico, 10-47 Leucemia (El diagnóstico de la), 10-52 Litio. Un posible alivio para los maníacodepresivos (El), 3-19 Microcirugía ocular, 9-47 Perinatología, 8-7 Pildora anti-mosquito (La), 5-19 Poliomielitis. 3-5 Prostaglandina y el aborto (La), 8-48 Pseudociencia, 2-56 Psiquiatría en Lanús: Un ejemplo de aplicación social, 7-29 Record deportivo (Fisiología del), 10-22 Retina humana (Soldadura al láser en), 5-21 Virus criollo, 6-4 Virus y cáncer, 5-19

Política científica y tecnológica ANDI (Declaración de), 8-62 Barranca abajo, 5-4 Castelar (Misterio en), 9-3 Ciencia dependiente en la Argentina, 10-34 Ciencia, sociedad, política y premios, 8-20 CONACYT: Una montaña de papel, 5-3 223 grados centígrados, 8-3 Energía (Futuro de la), 4-47 Física y política, 6-42 Hiroshima (No olvidar), 4-3 Ingeniería civil uruguaya (Crisis de la), 4-52 Martillo de las brujas (El), 8-4 Matemáticos uruguayos frente a la OEA (Posición de los), 4-60 Plan Nuclear Argentino (Para el prontuario del), 1-32 Política científica oficial (La), 5-42 Política de comunicaciones, 2-41 Productividad científica, 6-40 Responsabilidad ética y social del científico, 9-26 Sin comentarios, 6-5 Yo no soy un pacifista, 4-5

Química y química física Agua líquida (El), 9-19 Curie (María (Sklodowska), 4-32 Diamantes para todos, 6-37 ¿Ekatantalio o Hahnio? (Elemento N 9 105), 4-21 Guerra química (La), 9-5 Químicos: Mucha investigación, poco trabajo, 7-57 Recuperación de plata en películas usadas (Nuevo proceso para), 2-21 Ultramicrobalanza usa un rayo de luz como contrapeso (Una), 2-21 Vidrio (El futuro del), 3-7

Tecnología e industria Bastones láser para guiar a los ciegos, 3-19 Carbonato de sodio (Producción nacional de), 2-25 Comunicación oral entre hombres y máquinas, 10-38 Conservación de alimentos, 3-18 Estado y petroquímica, 4-4

Generador solar, 9-48 Industria electrónica nacional (Una), 8-25 Investigación agropecuaria (La), 7-43 Manzanas sin manzanos, 10-48 Miniaturizar las pilas, 8-45 Motores eléctricos, nueva tecnología, 7-54 Otra "interminable", 10-47 Plásticos inorgánicos, 7-57 Rayos X que seleccionan papas, 2-20 Reactor de neutrones rápidos (El), 9-46 Reflector para advertir rutas heladas (Un), 4-22 Revolución de los plásticos (La nueva), 7-12 SEGBA: Programa de investigación y desarrollo, 9-39 Superficie de hormigón (Dando forma a la), 1-26 Tecnología exportable, 8-48 Uranio enriquecido por ultracentrifugación (Europa tendrá), 1-27 Vidrio (El futuro del), 3-7

Transporte y aeronáutica Automóvil eléctrico aún no tiene pilas (El), 9-40 Automóvil recurre a la electrónica (El), 6-58 Contar las vueltas que dio una rueda para saber dónde está, 1-26 Freno-radar para automóviles, 4-19 Peaje (Una computadora cobra), 2-21 Reducción de peso en estructuras y motores aéreos, 2-22 Rieles más largos para ferrocarriles más baratos, 1-27 Tren tubular que se divide por la mitad (Un), 4-20 "Wankel se complica (El motor), 9-49

Varios Balance anticipado (Un), 8-3 Caballeros de pelo largo (Los), 7-5 Censo: Un esfuerzo mal aprovechado, 6-3 Nuevo régimen arancelario aduanero (El), 2-3 Teoría matemática de la caza mayor, 4-28 Tránsito, tiempo de asfixia, 4-3 Viva la presión atmosférica, 2-52 <0>

Indice por autores Martin C. N„ 1-56 Merlo Flores J., 8-25 Montagner L., 5-25 Mosca G., 2-52

Albizuri, R„ 6-10 Amati D., 6-42 Amoroso E., 6-26 Auvernier J., 9-50

Dang-Tam N., 9-5 De Gennes P., 4-40

Babini M„ 1-16, 8-5 Badley S. R., 7-12 Bakker R. T., 3-52 Bannister R„ 10-22 Barton D. H. R., 3-60 Basov N., 7-59 Beare A. S., 1-47 Beckwith J., 8-2.0 Bonadeo L„ 7-16, 9-32 Bonfigliolí A., 8-29 Boschi E., 10-6 Bunge, M., 2-56 Burhop E. H. S„ 4-45 Buzzati-Traverso A., 1-10

Farrington B., 2-26 Fernández Long H., 9-58 Fernández Prini R., 9-19

Nitsch J. P , 10-49

Galli E., 2-41 Gradowczyk M., 6-13 Grompone J. A., 8-15

Petard tí., 4-28 Préteville G , 8-45

Caldeyro-Barcia R., 8-7 Chiarotti G., 7-6 Clerici G , 5-49 Closets F. de, 9-51 Commoner B., 5-5 Cotlar M., 9-26 Cottrel A. H., 7-8 Crick F„ 2-9

Klimovsky G., 10-12 Kugler \V„ 7-43

D'Alessio J. I., 2-33

Epstein A. Nuss de, 6-6

Hancock J. L., 8-53 Hartley H., 4-47 Ivanissevich L., 6-7 Jacob F., 2-6

Lanari A., 3-26 Levy-Leblond J. M., 8-23 Lichtenthal S., 3-34 Lubchansky I., 7-29 Maggiolo O., 4-52 Mari E. A., 3-7

Olavarría J. M., 7-36

Rebeyrol Y., 8-47 Renyi A., 6-17 Rey N„ 7-22 Risueño M., 1-20, 2-29, 3-23, 4-15, 5-14, 6-52, 8-49, 9-60, 10-54 Rocha L. F„ 10-38 Rosnay J. de, 10-52 Sábato J„ 1-32, 9-39 Sadosky M„ 1-5, 3-49 Sadosky C., 4-12 Sciama D. W„ 10-27 Speratti FL, 6-58, 9-40 Taquini A. C., 5-42 Taylor J. G , 3-43 Wheeler J. A., 4-32 Zubieta R., 5-52 O


Hace más de diez años nos volcamos al diseño y construcción de equipos para ingeniería sanitaria, tratamiento de agua, intercambio iónico, filtración, evaporación y otras operaciones de la ingeniería química. En este lapso hemos consolidado un eficiente , grupo de ingenieros argentinos en torno de una idea de calidad: TECNOLOGIA ARGENTINA EL INTERNACIONAL

Salgado S.A. Lima 187-37-0555/38-4687 Buenos Aires NICOII-


En el próximo número: Mariano N. Castex Seos í o

a

Q

NKde E s t U d i o s

Ge°-he o-

íibicos y opina sobre la política científica nacional. Darcy Ribeiro escribe sobre an 0

de

a n a S o desde una nueva perspectiva ' -rá analizado

AUSUfft Revista de ciencia y tecnología Diagonal Roque S. Peña 825 P. 4"? - Of. 43 • Buenos Aires


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.