Pesquisa FA PES P 2012 - edición 1

Page 1

Pesquisa FAPESP 2012 _ edición 1

2012 _ edición 1   www.revistapesquisa.fapesp.br

cÁncer

Un antihipertensivo detiene el crecimiento de tumores energía

El jugo de caña de azúcar puede usarse para generar electricidad demografía

Los migrantes no llegan más a São Paulo para quedarse Entrevista Laura de mello e souza

La historia con imaginación y rigor

Mal de Parkinson Al confundírselos con las células madre, los fibroblastros complican la terapia celular



2012 _ edición 1   www.revistapesquisa.fapesp.br

12 tAPA La contaminación de las células madre puede ser la causa de los malos resultados en el tratamiento contra el Parkinson Foto de tapa  Concepción artística de una neurona, la célula afectada en el mal de Parkinson Crédito: MedicalRF.com/ Gettyimages

entrevista 6 Laura de Mello e Souza Según la historiadora, faltan investigaciones innovadoras que lleguen al público masivo

SECCIONES 5 Carta de la editora 98 Arte

POLÍTICA CIENTÍFICA Y TECNOLÓGICA 18 Ecología

La FAPESP invierte hace cinco décadas en estudios sobre biodiversidad que van de la investigación básica a las políticas públicas

24 Integración

Investigadores que interactúan con ganadores del Premio Nobel planifican experimentos en biología y física

26 Cienciometría

Un estudio muestra que investigadores de Francia y de Alemania también pierden influencia cuando no publican en inglés

ciEncia 30 Antropología

En un nuevo estudio se sostiene que los primeros americanos se parecían a los africanos, lo que hace arreciar la polémica sobre el arribo del hombre al continente

34 Medicina

Un antihipertensivo detiene el crecimiento de los tumores y apunta nuevos blancos para medicamentos

38 Fisiología

Las células del endotelio almacenan información

del estado en que fueron extraídas del donante

40 Neurofisiología

desarrolla tecnologías destinadas a elevar la producción de vacunas y disminuir los costos

44 Evolución

70 Biotecnología En la ciudad de Juazeiro, en Bahía, soltarán mosquitos transgénicos para combatir el dengue

48 Geofísica

74 Láminas de colores Un nuevo material les muestra a los consumidores el deterioro de los alimentos

Los corticoides activan mecanismos inflamatorios en algunas regiones del cerebro Cruzamientos improbables originarían nuevas especies de plantas y animales Mediciones precisas deforman la vista de la Tierra desde el espacio

52 Astronomía

Un mecanismo alternativo explicaría la formación de estrellas de neutrones de tamaño mayor que lo normal

56 Física

humanidades 78 Demografía El perfil migratorio de São Paulo lleva la impronta del vaivén y la internacionalización

Desarrollan una estrategia que permite evaluar la interacción magnética entre las nanopartículas

82 Historia de la ciencia Investigadoras brasileñas encuentran una receta de la piedra filosofal en la Royal Society

tecnologíA

86 Biblioteca digital Material cartográfico revela el imaginario colonial portugués

58 Bioquímica

Una alternativa energética para generar electricidad

62 Energía

La vinaza, el residuo de la producción del etanol, puede utilizarse para elaborar biodiesel

66 Inmunización

El Instituto Butantan

90 Cine De qué manera muestra los trastornos mentales el séptimo arte 94 Clasificación Carreras brasileñas sobresalen en el panorama internacional PESQUISA FAPESP  | 3


18

Fundación de Apoyo a la Investigación científica del Estado de São Paulo

Celso Lafer Presidente Eduardo Moacyr Krieger Vicepresidente Consejo Superior alejandro szanto de toledo, Celso Lafer, Eduardo Moacyr Krieger, Horácio Lafer Piva, Herman Jacobus Cornelis Voorwald, joão grandino rodas, Maria José Soares Mendes Giannini, José de Souza Martins, José Tadeu Jorge, Luiz Gonzaga Belluzzo, Suely Vilela Sampaio, Yoshiaki Nakano Consejo Técnico Administrativo José Arana Varela Director presidente Carlos Henrique de Brito Cruz Director científico Joaquim J. de Camargo Engler Director administrativo

issn 1519-8774

Consejo editorial Carlos Henrique de Brito Cruz (Presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Marcelo Leite, 
Maria Hermínia Tavares de Almeida, Marisa Lajolo, Maurício Tuffani y Mônica Teixeira Comité científico Luiz Henrique Lopes dos Santos (Presidente), Cylon Gonçalves da Silva, Francisco Antônio Bezerra Coutinho, João Furtado, Joaquim J. de Camargo Engler, José Arana Varela, José Roberto Parra, Luís Augusto Barbosa Cortez, Luis Fernandez Lopez, Marie-Anne Van Sluys, Mário José Abdalla Saad, Paula Montero, Sérgio Queiroz, Wagner do Amaral y Walter Colli

Coordinador científico Luiz Henrique Lopes dos Santos Directora de redacción Mariluce Moura Editor en jefe Neldson Marcolin Editores ejecutivos Carlos Haag (Humanidades), 
 Fabrício Marques (Política), Marcos de Oliveira (Tecnología), Maria Guimarães (Edición online), Ricardo Zorzetto (Ciencia) Editores especiales Carlos Fioravanti y Marcos Pivetta Editores asistentes Dinorah Ereno e
 Isis Nóbile Diniz (Edición online) Tradución y revisión Damian Kraus Editora de arte Laura Daviña ARTE Ana Paula Campos y Maria Cecilia Felli Fotógrafos Eduardo Cesar y Leo Ramos Colaboradores Alexandre Agabiti Fernandez, André Serradas (Banco 
de datos), Bel Falleiros, Daniel das Neves, Evanildo da Silveira, Márcio Ferrari, Nana lahoz, Nelson Provazi y Salvador Nogueira

Impresión Plural Indústria Gráfica

Prohibida la reproducción total o parcial de textos y fotos sin la debida autorización previa PESQUISA FAPESP Rua Joaquim Antunes, no 727, 10º piso, CEP 05415-012, Pinheiros, São Paulo-SP, Brasil FAPESP Rua Pio XI, nº 1.500, CEP 05468-901 Alto da Lapa, São Paulo-SP, Brasil Secretaría de Desarrollo Económico, Ciencia y Tecnología Gobernación del Estado de São Paulo


carta dE LA editora

Un poderoso productor de la ciencia brasileña Mariluce Moura Directora de Redacción

L

as células madre constituyen quizá la entidad biológica que más sueños, esperanzas, frustraciones y decepciones ha esparcido durante la última década entre los científicos, los médicos y las personas acometidas por condiciones complicadas de salud y sus familiares. En mayo de 2011, un hallazgo de un grupo de científicos de São Paulo que investiga en este campo en su relación con el mal de Parkinson, se hizo acreedor a la portada de Pesquisa FAPESP en su edición brasileña, que se publica mensualmente. Y dado que el tema siguió ubicado entre los más valiosos en la selección de textos originariamente publicados en 2011, que ahora componen esta edición especial de la revista en lengua castellana, optamos por catapultarlo nuevamente a la tapa. En líneas generales, el reportaje en cuestión aborda, a partir de la página 12, una pista importante tendiente a explicar en parte el fracaso del tratamiento basado en trasplantes de células madre y el de las terapias celulares más antiguas, que se valían del trasplante de material extraído de la glándula adrenal o del cerebro de fetos abortados. Algunos de los villanos de esta historia, entre otros que aún no han sido identificados, podrían ser los fibroblastos, de acuerdo con la propuesta del grupo paulista que se lee en un artículo publicado el día 19 de abril de 2011 en la edición online de Stem Cell Reviews and Reports. Se trata de un tipo de células de la piel muy parecidas a ciertas células madre, pero que tienen propiedades distintas. Implantados junto con células madre mesenquimales (aquéllas extraídas de los cordones umbilicales de recién nacidos) en ratones con Parkinson, los fibroblastos anularon los buenos resultados que se habían logrado mediante el implante puro de células madre durante el experimento. Asimismo, los síntomas de la enfermedad se agravaron en dichos cobayos. ¿Qué deducción se podría desprender de esto? “Es posible que muchos de los malos resultados obtenidos en los trabajos científicos con terapias celulares se deban a este tipo de contaminación”, dice la genetista Mayana Zatz. En otros términos: los fibroblastos confundidos con células madre y mezclados con éstas en los implantes

pueden estar ocasionando nuevos problemas en enfermos que se someten a trasplantes sin demasiados controles en diferentes lugares del mundo. “Hay que advertirles a los pacientes en tal sentido”, enfatiza Zatz. Es más: la contaminación puede estar también erigiéndose en un obstáculo a la hora de arribar a conclusiones fehacientes acerca de los posibles efectos positivos de las terapias celulares. El lado bueno de esta historia radica en que se abre nuevamente una ventana para la realización de experimentos con células madre mesenquimales puras y bajo un estricto control en el tratamiento del mal de Parkinson. En otro ámbito, en la sección de ciencias humanas y sociales de la revista, el reportaje sobre los cambios en el perfil migratorio de São Paulo permite entender un poco más acerca de la impresionante dinámica demográfica de la mayor ciudad de Brasil y de América del Sur. São Paulo tiene actualmente algo más de 11 millones de habitantes, su área metropolitana eleva esa cifra a 19 millones de personas y, si bien durante la mayor parte del siglo XX la ciudad fue el gran polo de absorción de migrantes internos y externos, atraídos fundamentalmente por la fuerza del crecimiento de su industria y del empleo formal, en el siglo XXI la misma se ha insertado más que nada en la ruta de las migraciones internacionales. Hoy en día, São Paulo, según se informa en el artículo que comienza en la página 78, constituye el destino tanto de mano de obra altamente calificada como de trabajadores sin documentos y sin capacitación específica, pero que se encuadran en modalidades de producción flexibilizadas y amoldadas a la movilidad de la capital paulista. Pienso que los textos aquí destacados constituyen una buena muestra de la capacidad brasileña para producir conocimiento científico diversificado. Al mismo tiempo, el segundo de ellos acerca al lector a la realidad demográfica de uno de los grandes centros productores de ciencia de Brasil: el estado de São Paulo, dentro del cual se ubica la capital homónima, que es responsable por la mitad de la producción científica del país. ¡Que tengan una buena lectura! PESQUISA FAPESP  | 5


entrevista  Laura de Mello e Souza

Un país llamado pasado Según la historiadora, faltan investigaciones innovadoras que lleguen al público masivo

L

a historia requiere imaginación y un gran esfuerzo, mucho rigor. Es como si fuese una puesta en escena: sube el telón, todo parece estar en su lugar, tan armonioso y fluido, aunque pasaron meses o años hasta llegar ahí. Por eso me fascinan las bailarinas: cuánto esfuerzo puesto detrás de un gesto de aparente naturalidad”. La definición pertenece a la historiadora Laura de Mello e Souza, docente titular de historia moderna de la Universidad de São Paulo (USP) que acaba de publicar la biografía del poeta Cláudio Manuel da Costa (colección Perfis Brasileiros de editorial Companhia das Letras), un hermoso entrechat histórico de la investigadora, quien, partiendo de una casi total ausencia de información al respecto del personaje, construyó un retrato del hombre y de la época. Un jeté que exigió largas búsquedas en archivos históricos, una marca característica del trabajo de Laura, pero que, como en el ballet, no revela el esfuerzo, sino la belleza del texto. “Provengo de una familia de contadores de historias”, explica. Empero, no le significó una carga oír siempre de sus profesores: “Ah, ¿tú eres la hija de Antonio Candido y de doña Gilda de Mello e Souza?”. La familia de intelectuales era, por encima de todo, una familia, aunque rodeada de libros. “Mi relación con mis padres siempre fue buena. Ellos son personas especiales, tienen una noción precisa acerca de su rol, pero son modestos y tienen una muy linda relación con el conocimiento”. 6 | Publicada en mayo de 2011

Antes que llegar a la historia, Laura coqueteó con la arquitectura, la psicología y la medicina. Unificó todas esas pasiones en la historia, sumando una buena dosis de preocupación social y conciencia política. Fue la primera en tratar la cuestión de los “desclasados” en el libro Desclassificados do ouro (editado en 1983) y sus libros siempre contienen una fuerte relación con una lectura más comprometida de Brasil, sin que la autora deje de lado el rigor de los documentos. De tal modo que aunque diga “vivir” entre los siglos XVI y XVIII, sus obras ayudan a explicar el país actual, en aspectos anteriormente desdeñados por los académicos, tales como la religiosidad y la hechicería, presentes en los libros O diabo e a Terra de Santa Cruz (de 1986) e Inferno atlântico (de 1993). Más recientemente, ha venido repensando la forma de escribir la historia de Brasil. “El historiador no puede tratar solamente lo particular. Resulta como la historia de la selva: si vemos un árbol, tenemos que ver la selva, de lo contrario se perjudica la comprensión”. De allí su dedicación para comprender los imperios, para resolver los dilemas de la colonia que un día fuimos, un gran temps levé. De ese esfuerzo surgió el proyecto que cuenta con apoyo de la FAPESP: Las dimensiones del Imperio portugués, que Laura coordinó, y libros tales como O sol e a sombra (2006), por ejemplo. Lea a continuación, algunos pasajes de su entrevista.

eduardo cesar

Carlos Haag


PESQUISA FAPESP  edición especial | 7


¿Cómo comenzó su viaje “al país ex- atrayente. Considero que hay en eso una bles, destacadas, etc. Tampoco creo que cuestión de temperamento. No me intere- ellos tuvieran muchas expectativas en lo tranjero que es el pasado”? Me encanta esa frase del libro The Go- so únicamente por los historiadores. Me que a mí respecta, y siempre nos dieron between, de Hartley (el escritor británico encanta la antropología, especialmente las el espacio para que mis hermanas y yo Leslie Poles Hartley), a la que considero monografías clásicas, que son narrativas. fuésemos lo que quisiéramos. En mi caso, como la gran definición de lo que es la Me gusta mucho la historia del arte y la de incluso intenté abrirme, hacer otras cohistoria. Desde pequeña me apasionaba la literatura. Y fueron estos gustos los que sas, tales como arquitectura y medicina, la historia. La historia y las historias. me condujeron hacia otro tipo de historia, pero no lo logré. Tengo un trauma por Tuve el sueño de seguir medicina, que quizá más pasible de errores, aunque más no haber logrado ser médica. creo que no se encuentra muy alejada conectada con otras disciplinas. Usted fue la primera investigadora que de la historia, debido a la fascinación por los fragmentos que nos permiten ¿De qué manera la influenciaron sus trabajó con los desclasados y en sus libros se detecta una visión políticamente hacer una reconstitución. La medicina padres? no me parece una ciencia exacta: acudi- Creo que el ambiente familiar es deter- comprometida. mos al médico, y éste realiza una serie minante. Claro que el hecho de haber Cuando ingresé en la facultad, la dictade preguntas para poder construir una crecido en un hogar donde el ambiente dura estaba en su apogeo. Eso repercuhipótesis. Creo que el historiador hace intelectual era importante influyó, con tió en mi trabajo. Considero imposible lo mismo. Nunca contamos con acceso las conversaciones y el hecho de contar ser diferente, a menos que viviese en las directo al pasado, por eso el pasado cons- con libros, considero que ésas son las nubes: los historiadores viven un poco en la luna, en especial los tituye un país extranjero. Seque tratan de tiempos remoría excelente si pudiésemos tos. Yo misma creo que vivo contar con una línea que nos más en la luna de lo que deconectase en directo con el searía, pero el compromiso pasado, pero siempre debefue ineludible proviniendo mos ponderar que el pasado de un ambiente de izquierdebe explorarse con cuidado da. Incluso la gente como yo, a través de los vestigios que que no tenía vocación para ha dejado. El tiempo se ocula militancia política, intenpa de hacer que esas diferen“Hay historiadores que escriben taba hacer un tipo de historia cias se vuelvan muy grandes. para el público masivo y no que de alguna manera planNosotros nos diferenciamos tease temas importantes para entre generaciones, entre pageneran nada innovador, y están el país. Eso es lo que hice con dres e hijos, imagínese cuanuna historia social sobre el do hay muchas generaciones, los que lo hacen, pero no problema de la desigualdad, como con aquéllas con las que constituía una preocupaque trabajo, períodos remoescriben para el gran público. ción presente en los comientos de hasta 400 años. Es necesario encontrar un zos de mi carrera. Creo que es algo que marca a toda una ¿De qué manera, su modo de término medio” generación, es un intento de escribir historia es diferente acuerdo con el pasado que de otras formas de hacerlo? Resulté muy influenciada por mis fami- cosas más importantes. No leemos to- ya venía de Florestan Fernandes, en la liares contadores de historias. Mi padre dos los libros que tenemos, pero esa cosa época en que trabajó con Roger Bastide. es un gran contador de historias. Pero del contacto con el libro, ir al estante a Creo que actualmente la historiografía cuando ingresé en la facultad, ese tipo explorar, eso es muy importante. Mis brasileña se está emancipando, de algún de historia se hallaba desacreditada, so- padres eran gente de muy bajo perfil, modo, está abriendo un abanico mayor bre todo en la USP, donde predominaba por eso recién tomé conciencia de la in- de temas. Mi actual investigación, fila historia estructural. Creo que antes de fluencia que ellos ejercían en el ámbito nanciada por la FAPESP, es, por ejemla televisión, de esa gran transformación universitario cuando ingresé en la uni- plo, una investigación de la historia de en los medios de comunicación, las per- versidad. No tenía mucha idea. Como Brasil, aunque desde una perspectiva sonas contaban muchas historias. Cre- crecí durante la dictadura militar, era al muy europea, de intentar comprender cí en el interior, donde, en convivencia contrario, era algo incómodo tener los la historia de nuestro país dentro de la con mis abuelos y en el medio rural, las padres que tenía. Durante 10 años oímos historia de Europa. Hoy en día, cada vez personas poseían muchas historias. Por rumores de que mi padre sería cesan- tienen menos sentido las historias naeso la historia que siempre me gustó es teado. Había un clima de inseguridad cionales. Ya no me interesa demasiado la narrativa. Luego, en los años 1990, esa muy grande, lo cual no me generaba or- la historia nacional. Uno de los buenos historia volvió a estar en boga. La histo- gullo, sino que significaba algo marginal aspectos de la globalización es la posiria más analítica es muy importante, se pertenecer a aquel medio. Más tarde, fui bilidad de construir una historia total. equivoca menos, pero para mí es menos notando que ellos eran personas respeta- ¿Qué entiendo por historia total? No se 8 | Publicada en mayo de 2011


trata solamente de la historia de Brasil, sino de ella, en relación con otras historias, otros procesos y correlatos históricos contemporáneos. Hacemos historia nacional o regional para construir tesis. Sucede como con la niña, que para estudiar ballet, tiene que empezar por el ballet clásico, debe aprender punta, barra, y recién después puede deconstruir eso, y hacer ballet moderno, danza contemporánea. ¿Cómo tomó la denominada “fiebre de los documentos”? Comencé a trabajar con documentos porque elegí un tema sobre el cual no existía nada. Por cierto, tengo inclinación al abismo, a trabajar con temáticas que son prácticamente imposibles de trabajar. Como es el caso del libro sobre Cláudio Manuel da Costa. Yo no hice una biografía, pero acabé haciendo algo que ofrece esa noción. Sin embargo, en el caso de los descastados, decían que yo no podría hacerlo porque no contaba con documentación. Y realmente no la tenía. Trabajé con documentos publicados, pero lo sustancial fue documentación manuscrita. De esa manera, me introduje en los archivos para ver qué había y entonces, descubrí esa documentación extraordinaria, que anteriormente había sido poco trabajada y que me otorgó una visión posible de esa generación socialmente desclasada. En el caso de la hechicería sucedió lo mismo, no tenía alternativa porque no existían trabajos al respecto, por eso debía leer los procesos de la Inquisición. Era como pescar con línea: se hacía sin saber si venía un pez o no. Cuando me di cuenta, me había convertido en una historiadora de archivo. Soy una historiadora de archivo, lo sigo siendo y no me aparto de ello. No sé trabajar si no es con una investigación de manuscritos, es lo que me produce placer. ¿Es en ese sentido que usted expresa que la función del historiador es más bien comprender y no explicar? Creo que la comprensión surge de aquello que planteaste al comienzo, el pasado es un país extraño, entonces difícilmente podemos explicarlo. Debemos entenderlo. Por otra parte, es necesario buscar una explicación. Existe un margen de explicación del cual no nos podemos apartar, si no ni siquiera se entiende. Y existe también un margen de generaliad, que debemos establecer, si no, no se logra transmitir el mensaje.

¿Cómo funciona esa generalidad para el caso de Brasil? Si somos optimistas, creo que Brasil es un país del futuro realmente, porque, bien o mal, ya estamos operando con una cuestión que está planteándose sólo actualmente en Europa, que es la cuestión del mestizaje. El problema de los negros en Brasil aún es gravísimo, hay una exclusión social enorme de las personas afrodescendientes. Pero, de cualquier modo, Brasil es un país que no hubiera existido sin la inmigración, o sin la esclavitud, y que expolió la mano de obra indígena de una manera atroz. Aun así, ahí están los indígenas, que intentan alzar una voz cada vez más activa. De tal forma que Brasil constituye un fenómeno que fue tejiendo la diversidad cultural desde la colonización. No podría haber mantenido esa unidad que mantuvo si no hubiera entretejido esa diversidad cultural. Somos el único país de América que posee una multiplicidad cultural auténtica, en la medida en que es vivenciada: no se trata de supervivencia, es la vivencia. No ocurre acá una supervivencia indígena, o africana, todo eso es vivencia. Forma parte de nuestra experiencia, de nuestro ADN, que básicamente, es indígena. Por otra parte, considero falso negar la tradición europea, ya que también somos europeos. Entonces, creo que el nacionalismo precisamente, y la necesidad de crear un cuerpo de intelectuales y un pensamiento original para un país joven, construyeron una serie de explicaciones a contrapelo de esa idea de continuidad, que siempre se vendió como una idea reaccionaria. Pero bien puede no serlo. Creo que la historia que construí, incluso esa biografía de Cláudio, está siempre ante ese dilema que expresó con felicidad Sérgio Buarque de Holanda cuando dijo “nosotros somos unos desterrados en nuestra propia tierra”, en el libro Raízes do Brasil. Popularmente se atribuyen los males de Brasil a nuestra colonización, como “herencia de los desterrados” ¿Cuál es su visión? Todo eso es verdad y simultáneamente no lo es. Es verdad porque, de hecho, todo eso sucedió. Y lo más dramático no es ser una tierra de desterrados, ya que todas lo fueron: Estados Unidos, Australia, etc. Lo más terrible es haber mantenido la esclavitud hasta 1888, porque eso sí imprime una dinámica social que

resulta casi imposible revertir. Por eso el problema no es la colonización, sino la esclavitud. ¿Fuimos el único país que practicó la esclavitud? No. Pero somos el que lidió de una manera más perversa con esa cuestión. Cuando un niño, actualmente, entra en su cuarto, se desviste y deja su ropa amontonada en el suelo, así nomás, yo digo “esto representa una sociedad esclavista”. Esa descalificación del trabajo menos calificado, por ejemplo, menos considerado, como sucede hasta hoy en Brasil. Todo trabajador es básicamente igual: tenemos que creer en eso. En Brasil no sucede así. Ahora bien, atribuir todos los males a la colonización tiene relación con la afirmación de la independencia. En la medida en que Brasil construyó un proceso independentista diferente, con un Imperio esclavista, cuando luego vino la República, esas primeras generaciones republicanas tuvieron la necesidad de atribuir los males de Brasil a la colonización portuguesa. Eso explica pocos hechos. Por eso, los historiadores siempre estamos estudiando la esclavitud, que nos explica mejor. Junto con la esclavitud, las elites, ¿también ayudan a entender Brasil? Yo no sé si las elites brasileñas son peores que otras. Se encuentran más aferradas a un determinado tipo de privilegio, dependiendo de la región de Brasil. Veamos: las elites de São Paulo son completamente diferentes que las del nordeste. Al menos, yo que soy paulista veo que las elites de São Paulo hoy en día no son lo que eran en tiempos de mis abuelos. Son otras, que van reproduciendo los vicios de las antiguas elites. En el nordeste y en el norte de Brasil me parece que son las mismas. Es decir, son los mismos nombres los que encontramos en ambas regiones. En el sur, eso no sucede. ¿Quiénes conforman las elites de São Paulo hoy en día? No son más Paes Leme, etc. ¿Dónde está esa gente? No existe más. Entonces hay una circulación de las elites mucho más veloz en São Paulo y en el sur en general, debido al desarrollo capitalista, está claro. Porque es la idea de que la sociedad está abierta a quien tiene dinero y al que sabe hacer, al que tiene talento, por eso circulan de una manera mucho más intensa. Y en Estados Unidos creo que las elites son igualmente terribles, tales como las brasileñas. Creo que lo que caracteriza a las elites brasileñas es un gran rechazo PESQUISA FAPESP  edición especial | 9


a perder sus privilegios. Eso tiene que ver con el tipo de relación que establecieron con los aparatos del Estado en el transcurso de la historia. Y al hecho de que el Estado portugués sea un Estado tan antiguo y que a partir del siglo XVII empezó a mantener efectivamente a sus elites. Es decir, la nobleza portuguesa, particularmente en el siglo XVIII, es una nobleza que depende, del servicio del Imperio, o bien, del dinero que sale del bolsillo del rey para poder mantenerse. Existe una atención mucho más inmediata del Estado a las necesidades de los estratos dominantes, me parece. Aunque creo que es un tanto arriesgado decir lo que estoy diciendo.

algunos libros absolutamente extraordinarios, aunque todavía muy recortados. Eso tiene que ver con la crisis de los paradigmas, de que resulta imposible explicar, construir explicaciones generales, de que para entender un fenómeno general hay que partir siempre de un recorte específico; al impacto de la microhistoria, y del posmodernismo... Considero deseable que se supere esa fase, que sea posible realizar estudios monográficos, pero también explicaciones generales. Recortes que sean más abarcadores. Y lo que vemos hoy en día es que existe un público muy sediento de libros de historia, no siempre atendido por historiadores profesionales, sino por individuos que realizan investigaciones sin contar con una especialización. Aquéllos que cuentan con una formación más es-

vos solamente porque representan una novedad. Algunos vienen y me dicen “he leído todo, son puras tonterías, nadie habla de lo que quiero hablar”. Les digo “entonces me explícame porqué son tonterías”. Y entonces, en última instancia, lo que queda de tontería no es tanto, y aquella gran novedad que se quiere decir no es tan novedosa.

Otro punto importante resulta la ausencia de actuación del intelectual en el ámbito público. Observo eso con mucha tristeza. Creo que ése es un problema muy grave. Es uno de los indicios más serios de la mentada crisis de los paradigmas. Creo que debe haber sido muy bueno para las generaciones que contaban con certezas Hemos tenido grandes intelectuales, y verdades absolutas. Yo no que pensaban la historia cocuento con ninguna. Resulta mo un todo. ¿Y actualmente? muy desalentador. Por otro Eso es algo que me preocupa lado, es instigador, otorga un mucho, y cada vez más. Porámbito de libertad creativa. que, si alguien me preguntaNuestra producción universe, “Laura, quiero leer una hissitaria es muy buena, pero toria general de Brasil, ¿qué ya no existen los grandes leo?”, no sabría qué contestarintelectuales de antaño, y le. La última gran historia de eso constituye una pérdida. Brasil es la História geral da Creo que es una pérdida muy civilização brasileira, de Sérgrande. En 1998, cuando era gio Buarque de Holanda. Eso “Tengo una visión muy positiva profesora de la Universidad redunda, a mi entender, en del Brasil de hoy ya que somos de Texas, en Estados Unidos, un problema gravísimo, pues me impresionó sobremanera constituye un fenómeno gloel único país de América cuando leí el periódico The bal, pero existen determinaNew York Times y la primera das tradiciones historiográficon un proyecto propio. En página completa era la foto cas que siguen manteniendo del ataúd de Octavio Paz, y el las historias generales. Creo este mundo que está aquí, veo titular rezaba: “Murió el maque se necesitan. Cuando quea Brasil con optimismo” yor pensador de América”. remos contar con una deterQuizá él haya sido el último minada perspectiva general de Brasil, volvemos a Caio Prado Júnior o pecífica, pero optaron por vender mucho, gran pensador latinoamericano. Ahora a Sérgio Buarque de Holanda, o a Capis- en general reproducen, no innovan. Hacen ya no lo hay. Y creo que eso tiene relatrano de Abreu. Ningún libro escrito ahora algo correcto, pero no innovan. Aquéllos ción con el hecho de no existir más la ni en los próximos años sobre la llegada de que están innovando no escriben para el valentía y el candor como para producir la familia real será mejor que Dom João público masivo. Ése es el próximo paso explicaciones. Me pasa con El laberinVI no Brasil, de Oliveira Lima. Creo que que deben dar aquéllos que están reali- to de la soledad, que para mí es uno de quemamos etapas, salteamos una deter- zando investigaciones originales: deben los libros más extraordinarios que he minada etapa del conocimiento histórico, comenzar a escribir para el gran público. leído, que cuando se lo recomiendo a mis alumnos, ellos se quejan, “no, por que en Europa constituyó una base, que es el historismo, la publicación masiva de Usted suele criticar a los jóvenes his- el amor de Dios, no me venga con Octacolecciones de documentos, la descripción toriadores que descartan a los clásicos vio Paz, es reaccionario, una ficción”. Se exhaustiva de determinadas épocas. Noso- sólo por la búsqueda de novedades ¿De trata de lo mismo, si tomamos Raízes do Brasil. Caio Prado Júnior es uno de los tros nos salteamos una etapa, y pasamos qué se trata eso? directo al ensayismo, a la historia universi- A mí, cuando era joven, también me autores más castigados por mi generataria, que requiere un recorte. Actualmen- gustaba de lo novedoso. Creía que iba ción. Varios colegas refieren que no dan te, la producción historiográfica brasileña a inventar la rueda. Ahora bien, exis- Caio Prado Júnior en sus clases porque es buena; en las ciencias humanísticas es, ten determinados problemas que son es racista. La vida de un profesor universegún la FAPESP, la más numerosa, con falsos problemas y que resultan atracti- sitario puede ser profundamente seca y 10 | Publicada en mayo de 2011


carente de interés. Profundamente. Yo peleo desesperadamente para que la mía no lo sea. Aunque si yo fuera estrictamente una profesora universitaria como es debido, mi vida no tendría gracia, porque tengo que redactar montones de informes, elaborar un sinnúmero de dictámenes para la Capes, el CNPq, la FAPESP, debo representar a mi área en todos esos organismos, como ya lo he hecho, ya que tengo que tutelar iniciación científica, maestrías, doctorados, posdoctorados, porque debo asistir a ya no sé cuántos congresos por año para poder ser reconocida ante las agencias que financian la investigación, porque tengo que publicar una parva de artículos por año por la misma razón. Y se va creando una cierta distorsión. Ya he visto dictámenes mencionando que tal historiador, del más alto nivel, solamente publica libros, no publica artículos y que eso resulta indeseable. El hecho de habernos profesionalizado nos saca de la vida pública. Hoy en día, quien está en la universidad, salvo excepciones, no actúa en la vida pública. Los que más actúan en la vida públi“No ca terminan por hacer meque nos investigación.

estaba encaminando hacia una propagación más generalizada y girando hacia una posición más radical de lo que había sido en el comienzo. Durante años ellos iban a suplicarle al gobernador, “ay, mi Dios, podría ser mejor. ¿Y si tuviéramos mayor representatividad? ¿Si los luso-brasileños fuésemos más escuchados?”, y los gobernadoress: “no, creo que ustedes tienen razón”. Acto seguido los gobernadores escribían al Consejo Ultramarino, “miren, las cosas son así, ustedes las ven de lejos, aquí, de cerca, no son como ustedes piensan allá, yo que estoy aquí lo estoy viendo, no es factible aplicar de la manera en que ustedes ordenan”. Entonces, esa cosa de intentar contemporizar para mantener la dominación colonial fue aliada del deseo de participación soft de las elites, y ahí,

comenzó a creer que la ocasión era propicia para un movimiento emancipador, al menos, de la región. Hoy en día existen varios estudios que sugieren que existió un intento de organización entre São Paulo, Río de Janeiro y Minas Gerais, que las elites procuraban defender sus intereses económicos, que se hallaban vinculados, en esas tres regiones.

Usted refiere que vive entre los siglos XVI y XVIII. ¿Pero cuál es su visión del Brasil actual? Yo tengo una visión muy positiva del Brasil de hoy y creo que contamos con todos los motivos para ello, ya que creo que somos el único país de América con un proyecto propio. Pese a lo que diga la prensa, que nos encontramos siempre al borde del abismo y que nadie tiene ningún proyecto, creo que Cardoso y Lula da Silva hicieron dos gobiernos importantes. Creo que todo comenzó en el gobierno de Cardoso, por ser él una persona respetada, un gran intelectual en un contexto de enorme mediocridad internacional. Si nos ponemos a pensar quiénes son los dirigentes políticos del mundo, ganamos por goleada, existen más intelectuales ya sea con Cardoso, con Lula actúen en la sociedad. Creo o con Dilma. Pero los problemas de Brasil siguen siendo que eso tiene alguna relación los mismos. En menor escala ¿Por qué un libro sobre ahora, que hay distribución del Cláudio Manuel da Costa? con el hecho de que no existen ingreso y educación. El reto Fue un hombre dividido, un de la educación, educación de hombre desgarrado, que siente más ni la valentía y ni el candor calidad, pública, para la enseque lo que es, y lo que él hace para producir explicaciones” ñanza básica, creo que constino se hallaba en sintonía con el tuye el mayor desafío de Brasil. mundo del reino, aunque tampoco lograba dar un paso más allá. Por lo en una de esas coyunturas, que es cuando Porque actualmente, bien o mal, contamos tanto creo que él es muy típico del mundo cambia el gobernador, en 1784, ese grupo con una red universitaria competente. El luso-brasileño anterior a la independen- diferenciado resuelve realmente optar por desafío de los próximos años es la educacia, cuando no se era ni una cosa ni la otra. intentar el cambio, tal vez, hasta alcanzar ción. Porque creo que la salud, incluso, es Tengo una frase en la confesión de él que la independencia. Creo que en mitad del consecuencia de la educación, y en la medidice, que pese a haber dicho todo lo que proceso, el grupo se convierte en otro tipo da en que la educación engrane, la salud va dijo, no cree que los delatores sean mejores de movimiento, más contestatario, con un aparejada. Está, no obstante, la cuestión de que los que lucharon, que los delatados. Es carácter más popular, más vindicativo, y ahí la distribución del ingreso. Y ahí volvemos decir: “yo delaté, pero soy más mezquino es cuando los hombres de letras presionan a la cuestión de las elites brasileñas. Debe existir una motivación mayor, una mayor e insignificante que los que conspiraron el freno de mano. participación, y allí es donde faltan grandes contra el rey”. Constituye uno de los elefiguras públicas, que, por desdicha, ya no mentos que me permiten considerar que ¿Y la figura de Tiradentes? él se mató, que quedó con asco por lo que Si hay alguien que merezca el título de las hay. Faltan grandes causas, las grandes hizo. También fue importante revisar la héroe de la República, creo que ése es Ti- banderas. Pero soy optimista en cuanto a Inconfidência Mineira [Conspiración de radentes. Considero que era un agitador Brasil y pesimista al respecto del mundo, Minas Gerais] y cómo, hacia el final, ellos nato, un agitador político. Irresponsable, porque creo que el mundo se va a acabar. estaban apretando el freno de mano. No alucinado como todo agitador político. En este mundo que está aquí, veo a Brasil querían más. Aunque el movimiento se Era un agitador político que entonces, con optimismo. n PESQUISA FAPESP  edición especial | 11


La debilidad de las células madre La contaminación puede ser la causa de los malos resultados en el tratamiento contra el Parkinson Marcos Pivetta

12 | Publicada en mayo de 2011

D

esde hace tres décadas la terapia celular viene siendo una fuente sucesiva de entusiasmo y decepción para los pacientes con mal de Parkinson, una enfermedad caracterizada por la muerte progresiva de las neuronas responsables de la producción de una importante sustancia química, el neurotransmisor dopamina. En los años 1980, un polémico abordaje contra la afección, que inicialmente se mostraba prometedor, fue probado en animales y también en humanos en países tales como Suecia, Estados Unidos y México: la realización de trasplantes con células extraídas de la glándula adrenal o del tejido cerebral inmaduro de fetos abortados. La lógica de esas cirugías, discutibles incluso desde un punto de vista ético, era dotar a la estructura cerebral conocida como sustancia negra –lesionada en los pacientes debido a la pérdida progresiva de las neuronas dopaminérgicas– de una nueva población de células capaces de fabricar el neurotransmisor. De esa forma, los principales síntomas del Parkinson, tales como los temblores, la rigidez muscular, la lentitud de movimientos y la dificultad para hablar y escribir, podían eliminarse. Los resultados del tratamiento fueron decepcionantes. En los casos en que se observó mejoría, el bienestar de los pacientes resultó pasajero. En otros, ni siquiera ocurrió y la tentativa de tratamiento incluso agravó la enfermedad, causando la muerte de algunos individuos. Un grupo de biólogos y neurocientíficos paulistas puede haber descubierto uno de los motivos causantes del fracaso de las antiguas terapias celulares contra el Parkinson y, tal


MedicalRF.com / Gettyimages

tapa

vez, dilucidado por qué las versiones más modernas y refinadas de esa clase de tratamiento experimental, actualmente basadas en el empleo de las denominadas células madre, siguen dando resultados inconsistentes. Los trasplantes que han sido testeados en los estudios preclínicos, en animales de laboratorio, pueden contener una cantidad significativa de fibroblastos, un tipo de células de la piel extremadamente parecido a algunas células madre, pero con propiedades totalmente diferentes. Científicos de la Universidad de São Paulo (USP) y de la Universidad Federal de São Paulo (Unifesp) publicaron el pasado 19 de abril un estudio en la versión online de la revista científica Stem Cell Reviews and Reports que revela que, en ratas con Parkinson inducido, la presencia de fibroblastos humanos anula los posibles efectos positivos de un implante de células madre mesenquimales, extraídas del tejido del cordón umbilical de los recién nacidos. “Cuando administramos solamente células madre, las ratas mejoraron de sus síntomas de la enfermedad”, expresa la genetista Mayana Zatz, una de las autoras del artículo, quien coordina el Centro de Estudios del Genoma Humano de la USP, uno de los Centros de Investigación, Innovación y Difusión (Cepid) mantenidos por la FAPESP, y el Instituto Nacional de Ciencia y Tecnología de Células Madre en Enfermedades Genéticas Humanas. “Pero cuando injertamos también los fibroblastos, los efectos benéficos desaparecieron e incluso hubo una desmejora. Es posible que muchos malos resultados en trabajos científicos con terapias celulares se deban a PESQUISA PESQUISAFAPESP  FAPESP | 13


Las señales que controlan los movimientos del cuerpo son transmitidas por neuronas que se proyectan desde la sustancia negra hacia el núcleo caudado

Núcleo Caudado

Dendritas Ventrículos laterales

Putamen

Axón Neuronas nigroestriatales

Sustancia negra

Terminal

Neurona normal Movimiento normal

Dopamina

Receptores

Neurona afectada por Parkinson Problemas motores

este tipo de contaminación”. Según los investigadores, el trabajo es el primero en revelar, en el modelo animal, tanto los efectos positivos del empleo de células madre mesenquimales contra el Parkinson como los perjuicios de la contaminación con fibroblastos. Además de representar un avance en el conocimiento básico al respecto de los eventuales beneficios de las terapias celulares en un órgano tan complejo y delicado como el cerebro, el resultado del trabajo constituye una advertencia para los familiares de pacientes con Parkinson. No hay, en ningún país del mundo, un tratamiento oficialmente aprobado a base de células madre para combatir esa u otras enfermedades neurodegenerativas. “Es necesario revisar cuidadosamente las investigaciones con células madre y no realizar falsas promesas de curación”, afirma otro de los autores del artículo, 14 | Publicada en mayo de 2011

el neurocientífico Esper Cavalheiro, de la Unifesp, quien encabeza los trabajos del Instituto Nacional de Neurociencia Traslacional, un proyecto conjunto de la FAPESP y del Ministerio de Ciencia y Tecnología (MCT). “Antes que propongamos terapias, necesitamos comprender todo el mecanismo de diferenciación de las células madre en los diversos tejidos del organismo y cómo hace el cerebro para ‘conversar’ y orientar la actuación de esas células”. Hasta ahora, las únicas enfermedades que cuentan con un tratamiento a base de células madre son las de la sangre, en particular los cánceres (leucemias). Contra ese tipo de afección, los médicos echan mano, desde hace décadas, del trasplante de médula ósea, rica en células madre hematopoyéticas, que son precursoras de la sangre. Todavía sin cura, el Parkinson se controla con ayuda de medicamentos, tales

como la levodopa, que pueden ser transformados en dopamina por el cerebro. Para los casos más graves, existe incluso una segunda alternativa: el implante de electrodos en el cerebro de los pacientes que no responden adecuadamente al tratamiento o padecen muchos efectos colaterales debido al uso de los medicamentos. Conectados con un pequeño generador implantado debajo de la piel, los electrodos intentan mejorar la comunicación entre las neuronas. La delicada cirugía destinada a la colocación de los electrodos se conoce como estimulación cerebral profunda (deep brain stimulation, o simplemente ECP). Con excepción de esos dos abordajes, el resto de los procedimientos contra la enfermedad aún se encuentran en período de ensayo, sin aprobación de los órganos médicos. Las dopamina, una mensajera química producida por menos del 0,3% de las células nerviosas, perteneciente a un tipo de sustancias denominadas neurotransmisores, cuya función básica consiste en transmitir la información, bajo la forma de señales eléctricas, entre una neurona y otra. Ese proceso de comunicación entre neuronas se conoce con el nombre de sinapsis. La dopamina actúa específicamente en los centros cerebrales involucrados con las sensaciones de placer y dolor, cumpliendo un rol comprobado en los mecanismos que generan adicciones, como así también en el control de los movimientos. En los casos de Parkinson, la cuestión motriz se ve claramente afectada debido a la falta del neurotransmisor. Resulta muy sencillo mezclar los fibroblastos con las células madre mesenquimales, y esa confusión puede ser la causa de los resultados inconsistentes y contradictorios de muchas tentativas de tratamiento del Parkinson con terapias celulares. Ambos tipos de célula tienen un mismo origen. Derivan del mesénquima, el tejido conjuntivo elemental, presente en los embriones, a partir del cual se formarán varios tipos de células. Pese a su origen común, los fibroblastos y las células madre mesenquimales exhiben propiedades distintas. Los fibroblastos, responsables por la síntesis del colágeno, conforman la base del tejido conjuntivo en el individuo adulto. Son, por ende, células especializadas y diferentes. En el caso de las células

ilustración daniel das neves  fuente nih

El circuito cerebral del Parkinson


Rodrigo A. Bressan/ UNIFESP

madre mesenquimales, aún no se encuentran suficientemente diferenciadas, y poseen la capacidad de generar diversos tipos de tejidos, tales como huesos, cartílagos, grasa, células de soporte para la formación de la sangre y también tejido fibroso conectivo. “Resulta casi imposible distinguir esos dos tipos de células simplemente observándolas en un microscopio”, comenta el bioquímico Oswaldo Keith Okamoto, del Centro de Estudios del Genoma Humano, y coordinador del artículo publicado en Stem cell Reviews and Reports. “Ellas crecen in vitro bajo las mismas condiciones y sólo logramos distinguirlas con la ayuda de marcadores y ensayos específicos”. Las células madre mesenquimales presentan además una importante particularidad. Poseen propiedades inmunosupresoras, y pueden reducir la necesidad de tomar remedios para disminuir el rechazo en órganos y tejidos trasplantados. No existen evidencias sólidas de que las células madre mesenquimales cuenten con la capacidad para generar las neuronas que faltan o son poco funcionales en los pacientes con Parkinson. Parecen mejorar el ambiente en que ocurren las lesiones asociadas con las enfermedades, disminuir la inflamación local y favorecer la preservación de otras células nerviosas. “Sus efectos podrían ser indirectos, al disminuir la inflamación en el cerebro”, expresa Okamoto. Eso fue lo que los investigadores paulistas verificaron en el experimento con ratas. Injertaron las células madre en los cerebros de un grupo de 10 roedores enfermos con Parkinson inducido y, un mes más tarde, observaron que los mismos no exihibían síntomas del mal. Se hallaban tan sanos como los animales del grupo control que no padecían Parkinson. Este resultado corrobora otras conclusiones de estudios similares realizados en Brasil y en el exterior. Lo novedoso ocurrió en la segunda parte del experimento. Los científicos injertaron un cultivo de fibroblastos en otro grupo de 10 ratas, también con Parkinson. El resultado fue desastroso. Un mes después del procedimiento, los animales exhibían mayores problemas motrices y la cantidad de neuronas dopaminérgicas en la sustancia negra se había reducido a la mitad. A una tercera camada de roedores enfermos se le administró una mezcla, en partes igua-

Imagen de un cerebro sano con más neuronas que producen dopamina (a la izquierda), y de otro afectado por Parkinson

La inyección de fibroblastos hizo que ratas con Parkinson empeorasen en lo que hace a los síntomas de la enfermedad y anuló los beneficios ocasionados por las células madre

les, con ambos tipos de células. En ese grupo no se verificó ninguna mejora. Parecía que los fibroblastos hubiesen anulado los aparentes efectos benéficos de las células madre. “Parecen ser neurotóxicos”, afirma Mayana. En la India, un grupo de médicos y científicos del BGS-Global Hospital, de Bangalore, está ensayando con el uso de células madre mesenquimales en siete pacientes humanos con Parkinson, con edades entre 22 y 62 años. Las células, extraídas de la médula ósea de los propios pacientes, se injertaron en los cerebros dañados de acuerdo con un protocolo local creado por los indios.

En un artículo publicado en febrero del año pasado en la revista Translational Research, los investigadores reportaron una disminución de los síntomas de la enfermedad en tres de los siete pacientes y dijeron que el abordaje parece seguro. Los resultados, sin embargo, todavía son preliminares y deben ser tratados con reservas. “Tal vez los trasplantes de células madre mesenquimales no se conviertan en un tratamiento definitivo para el Parkinson, sino más bien complementario, como una especie de neuroprotección”, pondera Okamoto. “Este tipo de estudios puede ayudarnos a entender cómo mitigar el ámbito degenerativo en el cerebro y –quién sabe– crear nuevos fármacos contra la enfermedad”. Genes, ámbito y misterio

Pese a que existen casos de individuos jóvenes con Parkinson, como el caso del famoso actor canadiense Michael J. Fox, quien, a los 30 años, recibió el diagnóstico de la enfermedad, ese de­ sorden neurológico aparece con mayor frecuencia en personas con más de cinco o seis décadas de vida. “A los pacientes menores de 50 años se los considera precoces y representan un 20% del total”, dice el neurólogo Luiz Augusto Franco de Andrade, del Instituto De Enseñanza e Investigación del Hospital Albert Einstein, de São Paulo. “Aunque ya he tratado a un niño de 13 años con Parkinson”. Existen evidencias crecientes de que factores ambientales y genéticos pueden hallarse involucrados en la aparición de la enfermedad, al menos en algunos casos. Un estudio de investigadores de la Escuela Médica de Harvard, publicado PESQUISA FAPESP  | 15


El doble de enfermos en 2030

En una línea similar de investigación, un estudio dado a conocer en septiembre de 2010 por los National Institutes of Health (NIH), de Estados Unidos, sugirió que los individuos con una determinada versión del gen GRIN2A podrían beneficiarse mayormente con el consumo de café y té. En las personas con ese perfil genético, la ingestión de bebidas con cafeína actuaría como un factor de protección ante el Parkinson. La búsqueda de sustancias que ayuden a la preservación de las neuronas constituye una sólida estrategia adoptada por varios grupos de investigación. El suministro de la proteína GDNF, que actúa en ese sentido, es objeto de pruebas desde hace años, para constatar su posible acción contra la enfermedad. Más allá de los avances particulares en la comprensión de los posibles mecanismos implicados en su génesis, el Parkinson todavía mantiene el status general de enfermedad neurodegenerativa de causa misteriosa y sin explicación. Nadie sabe con certeza por qué las neuronas productoras de dopamina comienzan a morir o directamente dejan de funcionar en un momento de la vida de ciertos individuos. De hecho existe un dato comprobable en la realidad actual: el envejecimiento de una población constituye un gran factor de riesgo para la incidencia del Parkinson. Esto resulta particularmente preocupante para las naciones en desarrollo que están modificando velozmente la estructura etaria antes de hacerse ricas. Brasil, que todavía es visto como una nación de jóvenes, verá alterado drásticamente su perfil demográfico durante las próximas décadas. Un informe del Banco 16 | Publicada en mayo de 2011

mariane secco

en octubre del año pasado en la revista Science Translational Medicine, reveló que centenares de genes relacionados con el funcionamiento de las mitocondrias, los orgánulos que constituyen la central de energía del organismo, se encuentran menos activas en los pacientes con Parkinson. Incluso las personas que se encuentran en un estadio inicial o también en uno pre-Parkinson parecen presentar estas alteraciones. Si esa conexión entre las mitocondrias y la enfermedad se confirmara, las drogas que actúan sobre esos genes pueden resultar útiles para el tratamiento del trastorno.

Células madre mesenquimales (a la izquierda) y fibroblastos: difíciles de distinguir

La cantidad de casos de la enfermedad crece de manera más significativa en los países en desarrollo que en las naciones ricas Mundial divulgado el mes pasado destaca que su segmento de habitantes con 65 años o más trepará del actual 11% hasta un 49% en 2050. En un período de 40 años la cantidad de ancianos se triplicará. Saltará de menos de 20 millones hasta alrededor de 65 millones de personas. “La velocidad del envejecimiento poblacional en Brasil será significativamente mayor que la ocurrida en las naciones más desarrolladas durante el siglo pasado”, dicen los responsables del informe Envejeciendo en un Brasil de más edad. En Francia, se necesitó más de un siglo para que su población con edades iguales o superiores a 65 años aumentara desde el 7% hasta el 14% del total. “Durante los últimos años la gerontología

moderna enfatizó más las mejoras que las pérdidas físicas y mentales del proceso de envejecimiento”, afirma la antropóloga Guita Grin Debert, de la Universidad Estadual de Campinas (Unicamp), quien estudia las cuestiones relacionadas con las mujeres y la vejez. “Contamos con expertos en enfermedades, pero no tantos en el proceso de envejecimiento”. Un estudio de revisión publicado en enero de 2007 en la revista Neurology analizó datos divulgados por otros 62 trabajos y arribó a la conclusión de que el número de casos de Parkinson en individuos mayores de 50 años se duplicará durante las próximas dos décadas en 15 países del globo. El trabajo analizó estadísticas de las naciones más populosas del mundo, entre las cuales se ubica Brasil, y de las cinco mayores de Europa. En 2005 este conjunto de países contaba con entre 4,1 millones y 4,6 millones de pacientes con Parkinson. En 2030 tendrá entre 8,7 millones y 9,3 millones de casos de la enfermedad. Para ese mismo período, la cantidad de enfermos en Brasil crecerá de 160 mil a 340 mil. Según el artículo científico, los índices estimados de crecimiento de la incidencia del Parkinson en los países en desarrollo, tales como China, la India y Brasil, que se encuentran atravesando recién ahora un proceso de envejecimiento de su población, serán superiores al 100%. En las economías ya desarrolladas y compuestas actualmente por una gran cantidad de ancianos, tales como Japón, Alemania, Italia y el Reino Unido, la cifra de enfermos aumentaría menos de un 50%. Grosso modo, se estima que el 1% de los habitantes del planeta mayores de 65 años padecerán Parkinson. Aunque dicho índice puede variar bastante de acuerdo con las características de la población


Ilustraciones Instituto Santiago Ramón y Cajal / Wikimedia

analizada. Un estudio realizado en 2006 en la ciudad de Bambuí, en Minas Gerais, reveló una elevada incidencia del Parkinson, de más del 7,2%, en promedio, de un grupo de 1.186 individuos mayores de 64 años. Ese porcentaje resultó tres o cuatro veces mayor al hallado en trabajos similares realizados en Europa, Asia y Estados Unidos. Casi la mitad de los casos de la enfermedad en Bambuí había sido inducida por el uso descontrolado de medicamentos contra la psicosis y los vértigos. “Actualmente consideramos que la cantidad de casos de la enfermedad producto del empleo sin control de drogas ha disminuido”, afirma Francisco Cardoso, de la Universidad Federal de Minas Gerais (UFMG), y coordinador del estudio. “El control en la venta de fármacos ha mejorado en el país”. Las células madre representan la única apuesta de la ciencia para perfeccionar las formas de tratamiento del Parkinson. No existen perspectivas de cura de la enfermedad a corto plazo. Con todo, los investigadores creen que será posible detener el avance de ese trastorno neurológico o al menos retardar su progresión mediante el desarrollo de nuevos remedios y cirugías más eficaces, y, de ser factible, menos invasivas. “Actualmente intentamos compensar los efectos del Parkinson mediante la administración de medicamentos orales”, expresa Cardoso. “Pero la forma en que reponemos la dopamina no es buena”. Cuando, por ejemplo, el paciente consume la droga levodopa, un precursor de la dopamina, su cerebro entra en contacto con altas concentraciones del neurotransmisor. Con el correr del tiempo, la cantidad de la sustancia disminuye. De esa manera, el enfermo tratado experimenta ciclos de exceso y de carencia del neurotransmisor, vivenciando un movimiento que parece un columpio químico, con altibajos de dopamina. Algunos medicamentos intentan regular el momento en que la dopamina, producida en forma artificial debido a la ingesta de levodopa, se encuentra disponible para su utilización en el cerebro del enfermo. Pero el control de ese proceso todavía debe perfeccionarse y la reproducción de los mecanismos fisiológicos resulta imperfecta. La situación se vuelve aún más compleja cuando las drogas dejan de controlar los síntomas del Parkinson o comienzan a provocar

Las cirugías menos invasivas destinadas a mejorar la comunicación entre las neuronas representan otra de las apuestas contra el Parkinson

efectos colaterales. El uso prolongado de precursores de la dopamina causa, en ocasiones, movimientos involuntarios y repetitivos, denominados técnicamente con el nombre de discinesias, que pueden originar que el paciente se muerda los labios, saque la lengua o guiñe un ojo rápidamente. En esos casos, la cirugía de estimulación profunda del cerebro, la ECP, puede ser lo indicado. Hace dos años, un equipo del neurocientífico Miguel Nicolelis, de la Universidad Duke (Estados Unidos) y fundador del Instituto Internacional de Neurociencias de Natal Edmond y Lily Safra (IINN-ELS), sugirió que la estimulación eléctrica quizá produzca buenos resul-

tados contra el Parkinson sin necesidad de abrir el cráneo de los enfermos. En un artículo que fue tapa de la revista científica Science, en su edición del 20 de marzo de 2009, Nicolelis reportó un exitoso experimento con ratas y ratas con Parkinson inducido: la instalación de pequeños electrodos en la superficie de la médula espinal de los animales los condujo a recobrar la capacidad normal de locomoción. Según el científico, el procedimiento de colocación de los electrodos demora 20 minutos, resulta poco invasivo (sólo se corta la piel del animal) y seguro. Este nuevo abordaje, que actualmente está probándose en monos, constituyó el primer intento de tratamiento para el Parkinson sin actuar directamente en el cerebro. Resulta difícil prever si nuevas terapias contra el Parkinson surgirán de estudios tales como los realizados por los equipos de Mayana Zatz, de la USP, y Esper Cavalheiro, de la Unifesp. Por el momento, estos trabajos, y también los de otros científicos, constituyen líneas de investigación que deben ser exploradas y no posibilidades inmediatas de tratamiento. Aunque los médicos que atienden a las personas con Parkinson no encuentran motivos para el pesimismo. Los pacientes viven cada vez por más tiempo aun con la enfermedad, décadas inclusive, pese a que existe la delicada cuestión de los efectos colaterales causados por los medicamentos, y los electrodos y de baterías utilizados en las cirugías de ECP se van tornando menores y más eficientes. “Todavía no conocemos cómo ‘conversan’ las neuronas entre sí, pero actualmente logramos registrar la actividad de una mayor cantidad de células del cerebro”, afirma el neurocirujano Manoel Jacobsen Teixeira, docente de la USP y miembro del Instituto de Enseñanza e Investigación del Hospital Sirio-Libanés de São Paulo. n

Artículos científicos 1. PEREIRA, M.C. et al. Contamination of mesenchymal stem-cells with fibroblasts accelerates neurodegeneration in an experimental model of parkinson’s disease. stem cell reviews and reports. Publicado online, el día 19 de abril de 2011. 2. VENKATARAMANA, N. K. et al. Open-labeled study of unilateral autologous bone-marrowderived mesenchymal stem cell transplantation in Parkinson’s disease. Translational Research. v. 155 (2), p. 62-70. Feb. 2010. PESQUISA FAPESP  | 17


 política C&T _  e cología

Un sendero ecológico La FAPESP invierte desde hace cinco décadas en estudios sobre la biodiversidad que van de la investigación básica a las políticas públicas texto

Fabrício Marques

ilustração

Ana Paula Campos

C

entenares de investigadores paulistas en disciplinas relacionadas con el estudio de la biodiversidad se reunieron en la ciudad de São Carlos, a comienzos de julio, para debatir acerca de los avances en sus trabajos. Paralelamente, un comité de evaluación compuesto por científicos extranjeros analizaba el conjunto de los resultados presentados y sugería propuestas para los próximos años. Ambos eventos signaron la evaluación del Programa de Investigaciones en Caracterización, Conservación, Recuperación y Uso Sostenible de la Biodiversidad del Estado de São Paulo, más conocido como Biota-FAPESP, un esfuerzo que involucra a 1.200 profesionales para la identificación de la biodiversidad paulista que comenzó en 1999. El programa promovió más de un centenar de proyectos de investigación, generando avances en el conocimiento, tales como la identificación de 1.766 especies (1.109 microorganismos, 564 invertebrados y 93 vertebrados), además de la publicación de más de 1.145 artículos científicos, 20 libros, 2 atlas y diversos mapas que sirvieron para orientar políticas públicas. Actualmente, el estado de São Paulo posee seis decretos guberna18   Publicada en agosto de 2011


mentales y 13 resoluciones que citan las directivas del programa. En el campo de la calificación de recursos humanos ha formado 190 másteres, 120 doctores y 86 posdoctores. Solamente durante los primeros 10 años, la FAPESP invirtió 82 millones de reales en el programa. El Biota-FAPESP se convirtió en el primer programa científico brasileño con una inversión regular durante más de 10 años, sostiene su coordinador, el botánico Carlos Alfredo Joly, docente de la Universidad Estadual de Campinas (Unicamp). Cuando cumplió 10 años, sus organizadores le propusieron a la FAPESP un nuevo plan científico para la década siguiente. “Esta reunión de evaluación es muy especial, ya que es la primera desde que la FAPESP renovó su apoyo al programa hasta el año 2020”, dice Joly. “Una perspectiva a largo plazo resulta fundamental para la investigación científica”, afirma. El Biota-FAPESP constituye el principal ejemplo de la fuerte inversión de la Fundación en investigaciones en el campo de las ciencias naturales y la ecología, que comenzó muchos años antes de que fuera acuñado el término biodiversidad. Desde sus comienzos, la FAPESP promovió estudios sobre las algas marinas, inicialmente en el litoral

del estado (1962-1963) y luego en el litoral norte, nordeste y este de Brasil (1964-1965), llevados a cabo por el Departamento de Botánica de la antigua Facultad de Filosofía, Ciencias y Letras de la USP, que más tarde fue incorporado al Instituto de Biociencias (IB). El estudio realizado en el litoral del estado generó la publicación de varios trabajos de investigación en revistas científicas, la capacitación de biólogos marinos especializados en algas y la ampliación del herbario de algas del Departamento de Botánica. En tanto, el de la flora de algas del resto de la costa brasileña forma parte de un trabajo de cooperación internacional, apoyado por la División de Oceanografía de la Unesco. El conjunto de los resultados de estos proyectos constituyó la primera versión de la Flora Ficológica Marina de Brasil. Una personalidad clave en esa línea de investigación fue Aylthon Brandão Joly (1924-1975), profesor de la Universidad de São Paulo, quien dio inicio, durante los años 1950, al estudio de las algas en Brasil. En 1957 publicó el libro Contribuição ao conhecimento da flora ficológica marinha da baia de Santos e arredores, que constituyó el primer estudio florístico planificado de las algas de una región específica de Brasil. PESQUISA FAPESP  edición PESQUISA especial FAPESP   19


acervo pessoal

“Aproximadamente hasta 1960, Joly trabajó solitariamente en la universidad. A partir de entonces instituyó en el Departamento de Botánica de la USP una verdadera escuela, y dirigió en forma directa o indirecta a buena parte de la primera generación de su descendencia de ficólogos brasileños, e incluso de algunos otros países de América Latina”, escribió Carlos Bicudo, investigador del Instituto de Botánica de São Paulo, en el artículo intitulado “El estudio de las algas en el estado de São Paulo”, publicado en 1998. Aylthon Joly dejó muchos descendientes, uno de ellos en el sentido literal y académico del término. Su hijo, Carlos Alfredo Joly, el coordinador del Biota-FAPESP, siguió los pasos de su padre. “Existe toda una generación de investigadores de las algas marinas que son nietos académicos de mi padre”, dice Joly. “La profesora Mariana Cabral de Oliveira, de la USP y miembro de la coordinación del Programa BiotaFAPESP, constituye un buen ejemplo de esa nueva generación, ya que además, al incorporar técnicas de ADN barcoding en su investigación, evidencia el mismo espíritu innovador que siempre ha caracterizado a los ficólogos brasileños”. Represas

Durante la década de 1970, cuando la FAPESP tomó la iniciativa de organizar proyectos especiales, decidió dedicar uno de ellos al campo de la ecología y encomendó la elaboración de una propuesta al profesor José Galizia Tundisi, que por aquel entonces era un referente en cuanto a estudios sobre el agua. El resultado fue el proyecto Tipología de las Represas del Estado de São Paulo, que involucró a 70 investigadores del Laboratorio de Limnología de la Universidad Federal de São Carlos (UFSCar), del Instituto de Biociencias de la USP y del Instituto de Pesca de la Secretaría de Agricultura del Estado de São Paulo. “En aquella época, un investigador de España había realizado un estudio sobre el perfil de 104 represas de dicho país, que contemplaba la biología de las aguas, la contaminación y el daño ecológico, y yo propuse hacer un trabajo similar”, dice Tundisi. El proyecto generó buenos frutos científicos. Amplificó el conocimiento sobre los mecanismos de funcionamiento de las represas, esclareciendo las diferencias entre lagos y reservorios. Enriqueció las colecciones 20   Publicada en agosto de 2011

de organismos acuáticos conservadas en institutos científicos y motivó la publicación de 150 trabajos en Brasil y en el exterior, además de cuatro libros (tres de ellos en otros países), formando a 10 doctores y 15 másteres. Permitió, entre otras cosas, que se desarrollara una metodología destinada a la comparación de ecosistemas acuáticos inédita en Brasil. También generó un conjunto de informaciones acerca de la distribución geográfica de organismos acuáticos y sobre las características de los reservorios, que tuvo impacto en la forma de utilización de las cuencas hidrográficas y aún en los días actuales sirve como base para nuevos estudios. Finalmente, estableció parámetros para la gestión de las represas. “Logramos determinar que el tiempo ideal de retención del agua en los reservorios debe ser inferior a 10 días, para garanti-

Aylthon y Carlos Joly: de la flora de algas marinas al Biota-FAPESP

zar la calidad del agua y la salud de los ecosistemas. Cuando se tarda demasiado en cambiar el agua de un reservorio, la retención de contaminantes, nitrógeno y fósforo impacta en la conservación de las especies. Esta información resultó fundamental para la planificación de nuevas centrales hidroeléctricas”, afirma Tundisi. Cuando el proyecto fue aprobado, Tundisi llamó al director científico de la FAPESP, William Saad Hossne, y le comunicó que tenía una nueva demanda. “Le solicité 15 becas de iniciación científica para la capacitación de nuevos investigadores en el marco del proyecto. Fue un éxito. De aquellos 15 jóvenes becarios, 13 son ahora docentes titulares”, expresa.


Así como el estudio de las represas formó líderes y aportó capacidad en un campo del conocimiento, el proyecto Flora Fanerogámica del Estado de São Paulo constituyó un hito en el aprendizaje en cuanto al trabajo multiinstitucional, que más tarde se amplificaría hasta conformar una red de instituciones e investigadores en el Programa Biota-FAPESP. El proyecto, que se inició en 1993, reunió a expertos de las tres universidades estaduales – Unicamp, USP y Universidad Estadual Paulista (Unesp)–, de tres institutos de investigación –Botánico, Forestal y Agronómico– y de un organismo municipal, el Departamento de Parques y Espacios Verdes de la alcaldía de São Paulo. Uno de los mayores aportes en curso para el conocimiento de la diversidad de la flora brasileña, que ya produjo seis volúmenes con la descripción de las especies de plantas fanerógamas, que son aquéllas que producen flores. La intención es publicar otros diez, además de actualizar las primeras obras en internet. El objetivo del proyecto consistía en cubrir una laguna al respecto de la conservación ambiental en Brasil, que estaba siendo discutida entre los miembros de la Sociedad Botánica de Brasil (SBB): la flora brasileña, que aunque era reconocida como la de mayor número de especies, se encontraba entre las menos conocidas y más amenazadas del planeta. “En 1992, en el marco del Congreso Nacional de Botánica, realizado en Aracaju, Sergipe, se consolidaron y aprobaron los principios para la elaboración del proyecto Flora de Brasil, que preveía, además del estudio de la vegetación, el desarrollo de acciones orientadas a la formación de recursos humanos y la creación de programas de expediciones botánicas en los distintos ecosistemas existentes en el país”, recuerda Maria das Graças Lapa Wanderley, investigadora del Instituto de Botánica, quien actualmente coordina el proyecto. Durante el año siguiente, junto con la primera edición de proyectos temáticos de la FAPESP, los botánicos reunidos en un congreso en São Luís do Maranhão decidieron presentar una propuesta, convirtiendo al plan de la flora del estado de São Paulo en un proyecto piloto. Su coordi-

antoninho perri / ascom / unicamp

Descripción

1

Hermógenes Leitão: Flora Fanerogámica

A comienzos de los años 1990, la flora brasileña se encontraba entre las menos conocidas y las más amenazadas al mismo tiempo nación le cupo al profesor Hermógenes de Freitas Leitão Filho (1944-1996), del Departamento de Botánica de la Unicamp, uno de los pocos especialistas brasileños en la familia Compositae, que agrupa a alrededor de 10 mil especies, incluyendo a la margarita, la manzanilla y varias plantas medicinales. Los primeros dos años tuvo lugar una fase de planificación, mediante el estudio

de las colecciones de los herbarios, que permitió la creación del banco de datos del proyecto. La segunda etapa fue la de las expediciones científicas, la mayoría de ellas llevadas a cabo entre 1996 y 1997. Se registraron alrededor de 20 mil números de plantas, que fueron distribuidas en los herbarios del estado. Con la muerte súbita de Hermógenes Leitão, en febrero de 1996, mientras dirigía una actividad de campo, el proyecto pasó a ser coordinado por Maria das Graças Lapa Wanderley, George Shepherd, de la Unicamp, y Ana Maria Giulietti, de la USP. La tercera fase dio comienzo a la divulgación de los resultados, que preveía la publicación de 16 tomos. La FAPESP sustentó el proyecto hasta 2005. Los seis tomos publicados hasta ahora describen 132 familias, incluyendo 655 géneros y 2.767 especies, el equivalente a un 37% de las 7.058 especies referidas para el territorio paulista. “Todos los investigadores que quieren estudiar una planta fanerógama consultan nuestras bases de datos. El impacto del proyecto se extiende al resto de los campos de la botánica”, dice Maria das Graças Wanderley. PESQUISA FAPESP   21


El ejemplo del proyecto Flora Fanerogámica sirvió de inspiración para el BiotaFAPESP. En 1995, la Secretaría de Medio Ambiente del Estado de São Paulo intentó, vanamente, interesar a investigadores para realizar trabajos que iban más allá de la elaboración de una lista de especies amenazadas en el territorio paulista. “Existían muchas lagunas en el conocimiento, pero los investigadores se resistían a comprometerse, temiendo que los eventuales cambios políticos en la secretaría comprometieran la continuidad del trabajo”, dice Carlos Joly, quien, en esa época, se desempeñaba como asesor del secretario de Medio Ambiente, Fabio Feldmann. En ese entonces, Joly también formaba parte de la Coordinación de Ciencias Biológicas de la FAPESP, y trabajaba junto al profesor Naércio Menezes. “La idea de un programa de investigación en biodiversidad fue madurando en la FAPESP. Yo había conversado bastante con el profesor Hermógenes en la Unicamp y conocía muy bien el proyecto Flora Fanerogámica. Aunque, contrariamente a éste, que era un proyecto temático enfocado solamente en un grupo taxonómico, nosotros queríamos abarcar toda la biodiversidad del estado, lo cual, evidentemente, no cabía en una sola temática”, recuerda Joly. La idea de crear un programa con un conjunto de proyectos temáticos articulados estuvo a cargo del director científico de la FAPESP, José Fernando Perez, por ocasión de un workshop realizado en la localidad de Serra Negra en 1997. El grupo de coordinación de entonces (vea detalles en el sitio www.biota.org.br/info/ historico) decidió utilizar internet para la creación de herramientas de integración e intercambio de datos. Se había creado el Instituto Virtual de la Biodiversidad, otra denominación utilizada para designar al Biota-FAPESP. Los datos acumulados actualmente por el Biota-FAPESP orientan los criterios para la creación de nuevas unidades de conservación y las autorizaciones para la extracción de la vegetación nativa; y fundamentan la demarcación agroecológica para la plantación de caña de azúcar en territorio paulista. Los decretos gubernamentales y las resoluciones de la Secretaría de Medio Ambiente citan en sus consideraciones los mapas sobre 22   Publicada en agosto de 2011

Miguel Boyayan

Lagunas

Los datos del Programa Biota-FAPESP orientan los criterios para la creación de nuevas unidades de conservación en São Paulo zonas prioritarias para la conservación y restauración de la biodiversidad paulista producidos por los investigadores del programa Biota. Así como los primeros 10 años del Biota-FAPESP estuvieron signados por el avance en la caracterización de la biodiversidad y en la utilización de la base de datos como herramienta para perfeccionar políticas públicas, el programa busca hoy ampliar sus objetivos, principalmente, por ejemplo, con

la ampliación del BIOprospecTA, un subprograma que investiga compuestos o moléculas de interés económico, la producción de material educativo para la red de educación primaria y media, y estudios vinculados con los servicios ecosistémicos y con el funcionamiento de los ecosistemas terrestres. “El profesor Arthur Chapman, del Servicio Australiano de Información sobre Biodiversidad, quien forma parte del comité internacional de evaluación, elogió el programa, mencionando que en su marco se lleva a cabo un esfuerzo por implementar las sugerencias del comité”, dice Joly. “En 2008, los evaluadores criticaron el reducido número de proyectos en cuanto a biología marina y microorganismos. Ahora existen 10 nuevos proyectos en biología marina y, en el caso de los microorganismos, donde sólo había un proyecto temático, fueron remitidas más de 40 nuevas propuestas en el último llamado a presentación de propuestas. Hay grupos capacitados y la coordinación ha tenido la sensibilidad de atender los anhelos de la comunidad científica paulista. Por eso es que estas cosas están sucediendo tan rápidamente”, dice Joly. n


La nueva ruta de l

dores a g i t s e v in s e n os jóve

La Fundación de Apoyo a la Investigación Científica del Estado de São Paulo – FAPESP, es una de las agencias de fomento de la investigación científica más importantes de Brasil. Con un presupuesto de 450 millones de dólares, sostiene más de 11 mil becas y concede alrededor de 8 mil premios de investigación. El Premio FAPESP para Jóvenes Investigadores prevé la creación de nuevos grupos de investigación dirigidos por científicos en comienzo de carrera y altamente prometedores, en cualquier campo del conocimiento y provenientes de cualquier país. Los postulantes seleccionados reciben becas de valor competitivo y considerables fondos. Estos candidatos son alentados a desarrollar sus proyectos en centros de educación superior e institutos de investigación del estado de São Paulo, Brasil. Las áreas de investigación más importantes son: biodiversidad, bioenergía, cambios climáticos, neurociencias, cáncer, ciencia de los materiales, óptica y fotónica, estudios urbanos y violencia. También se considerarán y se seleccionarán propuestas en otros campos mediante un proceso de revisión por pares. Puede leerse más información al respecto en: www.fapesp.br/yia. Las becas de posdoctorado de la FAPESP están dirigidas a distinguidos investigadores con título de doctorado reciente y una exitosa trayectoria de investigación. Estas becas permiten el desarrollo de investigaciones en centros de educación superior e institutos de investigación de São Paulo. Información adicional en: www.fapesp.br/en/postdoc.


_ Integración

El mapa de la luz Investigadores interactúan con ganadores del Premio Nobel y planifican experimentos en biología y física Carlos Fioravanti

A

quéllos que ya trabajaban con luz sincrotrón para el estudio de proteínas, huesos fósiles, rocas, medicamentos o materiales para computadoras, ajustaron sus planes de trabajo al ver lo que otros grupos de investigación están haciendo. Quienes aún conocían poco de ese campo, observaron que ese tipo de luz puede contar con aplicaciones académicas e industriales. Del 17 al 25 de enero, 18 expertos de seis países –entre ellos una ganadora de un Premio Nobel de Química y otro de Física– convivieron con investigadores y con 76 estudiantes de posgrado de 24 países (13 de ellos eran brasileños) en el marco de la Escuela São Paulo de Ciencia Avanzada (ESPCA), del Laboratorio Nacional de Luz Sincrotrón (LNLS), de Campinas. La ESPCA es una modalidad presentada en el año 2009 por la FAPESP para financiar la organización de cursos de corta duración en investigación avanzada en las diferentes áreas del conocimiento del estado de São Paulo. “Queremos expandir la visibilidad del laboratorio para potenciales investigadores del exterior”, comentó Antonio José Roque da Silva, director del LNLS. “En este momento, en el que iniciamos el proyecto de un nuevo anillo de luz, debemos tener la visión enfocada en el futuro y en lo que otros están haciendo”. Denominado Sirius, el nuevo anillo tendrá 460 metros de circunferencia –el actual cuenta con 93 metros– y una energía bastante mayor. Como única fuente

24   Publicada en febrero de 2011

de luz sincrotrón en América Latina y una de las dos del Hemisferio Sur, junto con la de Australia, el LNLS atiende a investigadores de universidades y empresas de Brasil y de otros países. A veces, el contraste con otros países es enorme. “Mientras muchas empresas brasileñas todavía están intentando averiguar cómo utilizar la línea de luz sincrotrón para mejorar la calidad de sus productos, la empresa japonesa Toyota está utilizando una línea propia”, dice Silva. Antigua usuaria del European Synchrotron Radiation Facility (ESRF), de Grenoble, Francia, la compañía resolvió construir una línea propia, que funciona desde el año 2009 en Japón. Gemma Gillera, investigadora que cooperó con Toyota, reveló que esa línea de luz sustentará el desarrollo de nuevos catalizadores destinados a la reducción de contaminantes de baterías y células de combustible. “La espectroscopía de absorción de rayos X [una de las formas de análisis mediante el empleo de luz sincrotrón utilizadas por el equipo de Toyota] provee información sobre longitudes de las uniones atómicas, el tipo y el número de átomos”, dice ella. Los investigadores y estudiantes vieron cómo emergen las investigaciones, y cuánto pueden tardar hasta conducir a resultados grandiosos. La israelí Ada Yonath reveló que trabajó durante casi 30 años en su laboratorio del Instituto Weizmann, Israel, y en fuentes de luz sincrotrón de Estados Unidos, Alemania y Brasil hasta descubrir la estructura y la función de los com-


eduardo cesar

El anillo de luz del LNLS: múltiples usos

ponentes celulares conocidos con el nombre de ribosomas, que resultan esenciales para la producción de proteínas. Para avanzar, ella y otros especialistas necesitaban obtener cristales de esos componentes celulares, algo considerado imposible durante décadas, pero que finalmente se logró mediante el enfriamiento de las células. El dominio de la técnica y el consiguiente avance cualitativo del conocimiento sobre los ribosomas les rindieron a ella y a otros dos investigadores –Venkatraman Ramakrishnan, del Laboratorio de Biología Molecular de Cambridge, Inglaterra, y Thomas Steitz, de la Universidad Yale, de Estados Unidos– el Premio Nobel de Química en 2009. Al final de la presentación, ella agradeció al Instituto Weizmann “por haberme permitido seguir mis sueños”.

infográficos  tiago cirillo

Nuevas memorias

El físico francés Albert Fert, investigador del Centro Nacional de Investigaciones Científicas (CNRS) y uno de los ganadores del Nobel de Física en 2007, se refirió a los fundamentos y aplicaciones de la espintrónica, una nueva forma de electrónica que estudia la carga eléctrica, y otra propiedad, el spin (sentido de giro), de los electrones. Ése es el fundamento para lograr memorias de computadoras de mayor potencia que empresas de Estados Unidos, Francia y Japón lanzarán en los próximos años. Fert y el físico alemán Peter Grünberg recibieron el Nobel de Física de 2007 en función de la identificación simultánea, en 1988, de la magnetorresistencia gigante, un efecto mecánico cuántico observado en materiales compuestos por materiales magnéticos y no magnéticos que resulta en una variación intensa de la resistencia eléctrica con el campo magnético. Ese efecto permitió la ampliación de la memoria de computadoras y celulares, que ahora aumentará todavía más, mediante una nueva generación de dispositivos basados en la espintrónica. Los que almorzaron con Fert verificaron que él piensa con placer no solamente en las computadoras del futuro, sino también en sus propias vacaciones. Aprestándose a cumplir 73 años, en marzo, Fert practica windsurf, normalmente en Francia o en el Caribe. Ha visitado dos veces el barrio de Botafogo, en Río, pero no para disertar sobre física, sino para surfear. n PESQUISA FAPESP   25


_ CIENCIOMETRÍA {

26   Publicada en marzo de 2011


Código sagrado Un estudio muestra que investigadores de Francia y Alemania también pierden influencia cuando no publican en inglés texto

Fabrício Marques

L

ilustraciones

Nelson Provazi

a proverbial barrera del idioma, responsable de la baja repercusión de la producción científica escrita en cualquier lengua que no sea el inglés, no las resulta incómoda sólo a los investigadores de países emergentes como Brasil. Un estudio liderado por el físico Anthony van Raan, director del Centro para Estudios de Ciencia y Tecnología de la Universidad de Leiden, en Holanda, mostró que este problema también perjudica a potencias europeas de la ciencia como Francia y Alemania, precedidas únicamente de cuatro rivales (Estados Unidos, China, el Reino Unido y Japón) en el ranking de las naciones que publican más artículos científicos. Aun así, científicos franceses y alemanes se lamentan de que su producción científica tenga un impacto más modesto cuando la divulgan en sus propios idiomas. Anthony van Raan, especialista en cienciometría, la disciplina cuyo objetivo es generar información que estimule la superación de los desafíos de la ciencia, es uno de los responsables del Ranking Leiden, colección de datos generados por la universidad holandesa que busca analizar la producción científica de países e instituciones de investigación y enseñanza superior. En la más reciente edición del ranking holandés, la Universidad de São Paulo (USP) despuntaba en la 15ª posición en la lista de universidades con mayor volumen de producción científica. El estudio sobre la barrera del idioma se centró en una lista de las 500 principales universidades del mundo, clasificadas en consonancia con el impacto obtenido por sus artículos científicos en la base de datos Web of Science (WoS), de la empresa Thomson Reuters. El factor de impacto se mide

por la cantidad de citas de un artículo en otros trabajos científicos. El investigador holandés había observado que la evaluación modesta de varias universidades francesas y alemanas en rankings no se correspondía con el prestigio académico del que ellas disfrutan. Para hacer un ejercicio de comparación, elaboró una segunda lista, en la cual sólo fue considerada la producción científica publicada en revistas en inglés y los artículos en idioma local fueron despreciados. Van Raan constató que el rendimiento de las universidades alemanas y francesas era superior en la clasificación sólo con artículos en inglés, pues el impacto de esos trabajos era mayor que el de los artículos divulgados en el idioma nativo. La Universidad de Nantes, por ejemplo, aparece en la 106ª posición en la lista de los artículos en inglés y en la 201ª en la que considera artículos también en otras lenguas. Las universidades alemanas de Heidelberg y LMU de Múnich aparecen, respectivamente, en 109ª y 114ª posición en el ranking del factor de impacto basado sólo en los artículos en inglés, pero caen para las posiciones 150ª y la 166ª cuando se cuentan todos los artículos. “Encontramos un efecto dramático y subestimado en las medidas del factor de impacto”, afirmó Van Raan. “Los artículos no publicados en inglés diluyen el factor de impacto promedio de países como Alemania, Austria y Francia. Eso sucede particularmente con campos aplicados, como la medicina clínica y la ingeniería, y también con las ciencias sociales y las humanidades. Como la medicina representa una parte considerable de la ciencia de un país, ese efecto influye en la posición de la universidad.” PESQUISA FAPESP   27


El impacto limitado de los artículos publicados en idioma nativo hace caer el desempeño de las universidades en los rankings

Herramienta

La preocupación de Van Raan tiene que ver con el uso de indicadores bibliométricos vinculados a factores de impacto. Como las citaciones tienen un peso importante en rankings de universidades, como el de la Times Higher Education y el de la Universidad Shanghai Jiao Tong, de China, el investigador sugiere cautela al analizar esas listas y propone una alternativa polémica para contrarrestar la situación: tomar en cuenta, a efectos de comparación, sólo la producción científica en inglés de las instituciones, despreciando los artículos en otros idiomas. “Calcular los indicadores basados sólo en publicaciones en inglés es el único procedimiento justo”, afirma. No es novedad afirmar que la suficiencia en inglés es una herramienta indispensable para los investigadores de todos los campos del conocimiento. Eso ya era un hecho los años 1930, cuando investigadores alemanes publicaron, en su propio idioma, un estudio que relacionaba el consumo de tabaco a la incidencia mayor de cáncer en el pulmón. Debido a la barrera del idioma, los datos se mantuvieron prácticamente desconocidos hasta los años 1960, cuando británicos y norteamericanos llegaron a la misma conclusión. Actualmente, luchar contra la supremacía del inglés en la ciencia es contraproducente, dice Sonia Vas28   Publicada en marzo de 2011

concelos, investigadora de la Universidad Federal del Río de Janeiro (UFRJ) y autora de una tesis doctoral sobre la barrera del idioma defendida en 2008. “Los países en los que el inglés es el idioma principal tienen gran ventaja, pero existe un movimiento internacional por parte de instituciones de investigación y editores científicos de varios países no anglófonos para reducirla. En el caso de Brasil, es necesario que nuestros investigadores, especialmente en las áreas de ciencia y tecnología, estén cada vez mejor preparados para escribir bien en inglés y alcanzar cierta independencia que les permita comunicarse con sus iguales en contextos internacionales”, afirma. “Hoy en día, en Alemania, hay carreras de posgrado que se imparten en inglés, lo que ayuda a los estudiantes a romper esa barrera. Eso sucede también en Francia, que siempre cultivó, y continúa cultivando, aunque con una actitud estratégica con respecto al inglés, su idioma en el escenario académico. Sin embargo Brasil no tiene una estrategia articulada para enfrentar ese desafío”, dice. La sugerencia de Van Raan de ignorar la producción científica en lengua nativa para mejorar las comparaciones internacionales podría causar otro tipo de revés, generado por la ausencia de contribución en importantes áreas

del conocimiento. “La producción en lengua local es parte indisociable del conocimiento generado por los países y no se puede dejar de lado”, dice Abel Packer, de la coordinación de la biblioteca electrónica científica SciELO Brasil. Packer recuerda que hay una tradición en el país de publicar en portugués en disciplinas tales como, por ejemplo, las ciencias de la salud y las agrarias, pues eso es importante para hacer llegar el conocimiento a los profesionales de esas áreas. “La cuestión no tiene que ver sólo con los científicos, que en general conocen el inglés, sino con otros usuarios de la información científica que no tienen la misma suficiencia en el idioma”, dice. “El multilingüismo es parte de la comunicación científica y tiene sus raíces en el hecho de que la ciencia es parte de la cultura. La ciencia no se hace en una torre de marfil separada del resto de la sociedad, sino que se la reconoce como una fuente de conocimiento que contribuye al desarrollo económico y tecnológico. Si no existe un esfuerzo de la comunidad científica nacional para crear semánticas en su lengua nativa, el país y su cultura no serán capaces de absorber ideas y conocimiento que en su esencia sirven a su sociedad”.


Para Luiz Henrique Lopes de Santos, coordinador adjunto de Ciencias Humanas y Sociales, Arquitectura, Economía y Administración de la FAPESP y profesor del Departamento de Filosofía de la Facultad de Filosofía, Letras y Ciencias Humanas de la USP, la cuestión requiere una solución de compromiso, pues no se reduce a la cuestión del impacto. “Es también una cuestión cultural”, dice. “La lengua es un elemento esencial de la cultura de un país y se constituye y se enriquece por la interacción entre sus usos más ordinarios y los más sofisticados, como en la literatura, en la ciencia, en la filosofía. Ningún país puede darse el lujo de desestimar por completo su lengua como vehículo de la producción del conocimiento.” Añádase al debate, propone Packer, el hecho de que la producción escrita en portugués esté creciendo en el conjunto de revistas indexadas. Hasta 2007, el porcentaje de los artículos publicados en portugués en la base Web of Science era del 8,5%. Ahora es del 22%. “Eso aumentó porque se amplió el número de revistas brasileñas indexadas. Eran 34 revistas en 2007 y hoy son 133. Así, Brasil subió a la 13ª posición en el ranking de pro-

Es útil recordar que escribir en inglés, aunque ayude a ampliar el alcance de un artículo científico, no garantiza citas y prestigio

ducción científica. Si no queremos que se consideren las revistas en portugués, volveremos a la 17ª posición”, afirma. UN DATO SIGNIFICATIVO

También se debe tener en cuenta que escribir en inglés no es condición suficiente para garantizar citas y prestigio. Un estudio publicado por Rogério Meneghini, coordinador científico de la biblioteca SciELO Brasil, mostró que aunque los artículos estén escritos en inglés, si se publican revistas brasileñas, producen en promedio menos citas. Meneghini invitó a nueve científicos brasileños habituados a divulgar sus trabajos en revistas internacionales a publicar un artículo original en la edición de mayo de 2008 de los Anales de la Academia Brasileña de Ciencias. La intención era evaluar hasta qué punto esos autores serían capaces de transferir su prestigio a la revista brasileña, que es publicada en inglés. Dos años después de la publicación, se observó que el número de citaciones de esos artículos superó el de los demás artículos de la revista, fue 1,67 de citas frente a 0,76 de los otros. Sin embargo, los 62 artículos publicados por los mismos autores en revistas internacionales en 2008 tuvieron, en promedio, 4,13 de citas cada uno. Según Meneghini, la diferencia puede se puede atribuir al hecho de que las revistas

brasileñas tengan menos visibilidad internacional, aunque también haya una tendencia de los autores a enviar sus mejores artículos al exterior. Pero un dato importante fue constatar que los nueve autores se abstuvieron de citar artículos de revistas brasileñas. Sólo el 1,52% de las citas que hicieron en 2008 se referían a trabajos publicados nacionalmente. Meneghini sugiere que citar revistas nacionales no da prestigio. “Parece que los autores optaron por obviar citas en periódicos brasileños asumiendo que podían transmitir la impresión de que el artículo no es suficiententemente bueno”, dijo. Tal contingencia no va en detrimento del consenso en el sentido de que resulta fundamental estimular la producción en inglés. “Cuando un investigador se esfuerza para citar trabajos de su país, es frustrante ver que la referencia no puede ser consultada en el extranjero porque el trabajo está disponible sólo en portugués”, dice Sonia Vasconcelos. Para Abel Packer, de la SciELO, la solución es invertir en la traducción de artículos escritos en portugués, tornándolos disponibles también en inglés. “Eso exigiría importantes inversiones, pero no veo otra salida para aumentar la visibilidad del conjunto de la ciencia brasileña”, afirma Packer. n PESQUISA FAPESP   29


 ciência _antropología

eduardo cesar

Como nuestros padres

30   Publicada en abril de 2011


En un nuevo estudio, sostienen que los primeros americanos se parecían a los africanos, lo que hace arreciar la polémica sobre el arribo del hombre al continente Marcos Pivetta

Los cráneos de Lagoa Santa: americanos con rasgos africanos

E

l Homo sapiens no se habría diferenciado en razas o tipos físicos distintos antes de establecerse en todos los continentes, incluso en América, el último gran bloque de tierra conquistado por la especie, con excepción de la gélida Antártida. La oleada inicial de cazadores-recolectores que ingresó aquí, hace más de 15 mil años, proveniente de Asia, por un camino actualmente ocupado por el estrecho de Bering, poseía una estructura anatómica muy similar a la de la primera población de humanos modernos que emigró de África, hace entre 70 mil y 55 mil años. Luego de abandonar la cuna de la humanidad, el hombre penetró en Asia, que en principio sirvió de base para la conquista de otros dos puntos importantes del globo, Europa y Australia, y más tarde de un tercero, América. “Hasta unos 10 mil años atrás, todos los Homo sapiens presentes en cualquier continente poseían la morfología craneana del patrón africano”, comenta el bioantropólogo Walter Neves, de la Universidad de São Paulo (USP). “El proceso de racialización todavía no había comenzado”. El surgimiento de tipos físicos, tales como los caucásicos o los mongoloides (asiáticos de ojos estirados y rostro plano), constituiría un fenómeno biológico muy reciente y habría ocurrido luego de que el hombre se diseminara prácticamente por toda la Tierra. El investigador sostiene esta polémica hipótesis en un artículo científico publicado en la edición de marzo del American Journal of Physical Anthropology. En ese trabajo, Neves y otros dos antropólogos físicos –el brasileño Mark Hubbe, quien trabaja en el Instituto de Investigación Arqueológica y Museo de la Universidad Católica del Norte, en Chile, y la griega Katerina Harvati, de la Universidad de Tübingen, Alemania– comparan 24 características anatómicas presentes en los cráneos de seres humanos que vivieron hace entre 10 mil y 40 mil años en América del Sur, Europa, y el Este de Asia con los de individuos actuales oriundos de las mismas tres regiones, además del África Subsahariana, Oceanía y la Polinesia. En total se confrontaron 48 esqueletos antiguos (32 de América del Sur, 2 de Asia y 14 de Europa) con 2 mil actuales. “Independientemente del origen geográfico, los miembros de las poblaciones antiguas se asemejan mayormente con sus contemporáneos del pasado que con los humanos actuales”, comenta Hubbe. En otras palabras, los rasgos físicos del humano que abandonó África 40 mil años después colonizó América eran prácticamente los mismos. En concordancia con esa visión, la conquista del mundo fue un fenómeno tan rápido –el Homo sapiens habría utilizado rutas costeras, menos complejas de superar- que no dio tiempo para que el hombre desarrollara de inmediato adaptaciones físicas a los nuevos ambientes. Los resultados del estudio avalan el modelo de población de nuestro continente defendido PESQUISA FAPESP   31


Tres teorías de la llegada a América 15 mil años

Una migración

10 mil años 18 mil años

Dos migraciones

Emigrantes con facciones africanas cruzan Bering y se establecen aquí. Posteriormente, una nueva oleada de colonizadores, con rasgos asiáticos, penetra en América y se vuelve dominante

0

Una única oleada de humanos abandona Siberia e ingresa en Alaska. Individuos con distintos tipos físicos, algunos más africanos, otros más asiáticos, componen el grupo Por el Atlántico

100 mil años

El hombre llega al nordeste brasileño proveniente de África. Viene navegando de isla en isla durante una época en la que el nivel del mar era más bajo. Esta idea es sostenida por Niède Guidon

5,000 Kilómetros

desde hace más de dos décadas por Neves, cuyos trabajos son financiados en gran parte por la FAPESP. Según esa hipótesis, América fue colonizada por dos corrientes migratorias promovidas por pueblos distintos que cruzaron en diferentes momentos el estrecho de Bering. La primera habría estado compuesta por humanos que hace 15 mil años todavía exhibían esa morfología “panafricana”, remitiendo a un término empleado por el investigador de la USP. Los miembros de ese clan inicial de cazadores-recolectores habrían sido parecidos a Luzia, el famoso cráneo femenino de 11 mil años rescatado de la región de Lagoa Santa, Minas Gerais. Presentaban nariz y órbitas oculares anchas, rostro prominente y cabeza estrecha y alargada. Aunque resulte imposible determinar con certeza el color de su piel, probablemente eran negros. Todos sus descendientes desaparecieron misteriosamente en algún punto de la Prehistoria por motivos que se ignoran y no dejaron descendientes entre las tribus actualmente presentes en el continente. Los humanos con rasgos africanos fueron, siempre en concordancia con las ideas de Neves, mayoritariamente reemplazados por individuos que arribaron a América en una segunda corriente migratoria provenientes de Asia. El nuevo grupo habría ingresado en el Nuevo Mundo más recientemente, entre 9 mil y 10 mil años atrás, e incluiría solamente a individuos con las características físicas de los denominados pueblos mongoloides, tales como los actuales orientales y las tribus aborígenes encontradas hasta la actualidad en nuestro continente. Los seres humanos con esa apariencia más asiática, surgida posiblemente como una adaptación al clima extremadamente frío de Siberia y eventualmente 32   Publicada en abril de 2011

del Ártico, no pueden haber tomado parte en la primera oleada migratoria hacia América, por la sencilla razón de que ese tipo físico aún no había surgido sobre la Tierra. Por lo menos eso es lo que afirman Neves, Hubbe y Harvati. Esa teoría al respecto del poblamiento de América lejos está de ser consensuada. Los análisis del ADN extraído de poblaciones extintas y vivas de aborígenes del continente, en especial de las secuencias contenidas en los genomas de la mitocondria (por linaje materno) y del cromosoma Y (de herencia paterna), revelan una historia distinta. Favorecen la hipótesis de que sólo hubo un movimiento de entrada de individuos de Asia en dirección al Nuevo Mundo y de que esa travesía ocurrió algunos miles de años antes que lo sugerido por las evidencias arqueológicas. “Prácticamente toda la diversidad biológica de los actuales tipos humanos ya se hallaba presente en la única corriente migratoria que ingresó en América”, expresa el genetista Sandro Bonatto, de la Pontificia Universidad Católica de Rio Grande do Sul. “Solamente los esquimales, una población que representa el caso más extremo y tardío de la denominada morfología mongoloide, aún no se habían originado y no participaron en esa oleada”. Junto con colegas brasileños y argentinos, Bonatto publicó en octubre de 2008 un artículo científico en el American Journal of Physical Anthropology, la misma revista en que se publicó el trabajo de Neves. El estudio analizó 10 mil informaciones genéticas y la anatomía de 576 cráneos de poblaciones extintas y actuales halladas desde el norte hasta el sur de América. Según el artículo, hace aproximadamente 18 mil años, un grupo físicamente ya bastante heterogéneo de cazadores-recolectores partió de Siberia y se instaló en

El Proyecto Orígenes y microevolución del hombre en América: un abordaje paleoantropológico nº 2004/ 01321-6 MOdalidad Proyecto temático Coordinador Walter Neves – Instituto de Biociencias de la USP Inversión R$ 1.555.665,94 (FAPESP)


El sitio más antiguo de Estados Unidos

michael waters

Alaska. Formaban parte de ese grupo primigenio personas con facciones del tipo asiático y también con rasgos más africanos. El modelo también se diferencia de las ideas de Neves y Hubbe porque sustenta no obstante que, antes de ingresar en el Nuevo Mundo, ese grupo de colonizadores realizó una larga escala forzada en Beringia, la antigua porción de tierra firme que conectaba Asia con América. Actualmente sumergida en el mar, Beringia originó el estrecho de Bering. La detención en el límite de ambos continentes habría ocurrido entre 26 mil y 18 mil años atrás, un período en el que la presencia de enormes glaciares bloqueaba el ingreso en América. Cuando el camino al Nuevo Mundo se abrió, la migración se hizo efectiva. Pero la escala obligatoria en Beringia, según esa hipótesis, produjo mutaciones específicas en el ADN de la población migratoria atrapada en la frontera entre los dos bloques de tierra. Esas alteraciones genéticas no se encuentran presentes en los pueblos de Asia, sino que fueron transmitidas a los descendientes de los primeros americanos. Un estudio reciente, en el cual participaron brasileños, sugiere que una de esas mutaciones favorece la acumulación de colesterol en los aborígenes del continente. Ambos modelos descritos, que no constituyen los únicos que abordan la cuestión del poblamiento de América, parecen irreconciliables. Pero el antropólogo físico argentino Rolando González-José, del Centro Nacional Patagónico de Puerto Madryn, quien ya escribió artículos científicos con Neves, Bonatto y otros brasileños, vislumbra puntos fuertes y débiles en ambos abordajes. “Coincido en que muchas variaciones presentes en el cráneo del hombre tienen un origen reciente, pero también es necesario mencionar que las poblaciones antiguas podían ser bastante heterogéneas”, afirma González-José. “El modelo de Neves no es totalmente incorrecto, pero el dato genético es difícil de rechazar y revela que todos los aborígenes americanos descienden de una sola población”. Existen otras visiones al respecto del proceso de poblamiento de América, algunas todavía más controversiales. Según la arqueóloga Niède Guidon, fundadora y presidente de la Fundación Museo del Hombre Americano (Fumdham), que administra el Parque Nacional Serra da Capivara, en Piauí, el hombre ya se encontraba en el nordeste brasileño hace 100 mil años. Vino de África, navegando de isla en isla, aprovechando momentos en los que el océano se encontraba bastante por debajo del nivel actual. “La navegación es mucho más antigua de lo que se cree”, dice Niède. “No creo que el Homo sapiens haya colonizado América por el estrecho de Bering”. Con alrededor de 1.300 sitios prehistóricos, poblados de bellas pinturas rupestres, el parque ha

Piedras laminadas de Texas

Una nueva e importante pieza del

los científicos afirman que los objetos

complicado rompecabezas que intenta

fueron inequívocamente tallados por

reconstruir el momento en que el

el Homo sapiens y podrían haber sido

Homo sapiens ingresó en América

utilizados como cuchillos o puntas de

apareció a finales de marzo. Un equipo

lanza. Quizá formaran parte incluso

de investigadores encabezado por

de un kit que los antiguos humanos

Michael Waters, de la Universidad de

transportaban en sus andanzas.

Texas A&M, dio a conocer el hallazgo

El estudio fue divulgado con

del vestigio más antiguo de la presencia algarabía. Al fin y al cabo, los antiguos humana en América del Norte. Ubicado

habitantes de Buttermilk Creek vivieron

en la localidad de Buttermilk Creek,

2.500 años antes de la denominada

en Texas, el sitio Debra L. Friedkin

cultura Clovis, definida a partir de un

alberga alrededor de 15.500 artefactos

sitio arqueológico de Nuevo México

construidos por la mano del hombre

donde se encontraron, hace alrededor

hace aproximadamente 15.500 años.

de 80 años, puntas de lanza de piedra

Se trata, básicamente, de láminas, muy

con edades de 13 mil años. Hasta los

incompletas, algunas de doble faz,

años 1980 predominó sin demasiados

realizadas con una clase de cuarzo.

cuestionamientos la idea según la cual

“El sitio se encuentra localizado en el

esa cultura sería la más antigua de

centro del estado y debe haberle llevado América. Pero el descubrimiento en bastante tiempo al hombre encontrar

las últimas décadas de otros sitios con

ese lugar”, dice Waters, en entrevista

edades tanto o más avanzadas que

con Pesquisa FAPESP. “Es posible que

Clovis, tanto en América del Norte como

haya arribado a América antes de esa

en América Central y del Sur, puso en

época. ¿Cuánto tiempo antes?, no

duda cada vez más esa teoría.

podría afirmarlo. Sólo el tiempo y más trabajo duro lo podrán decir”. La datación de los artefactos se

Los nuevos hallazgos en Texas parecen sepultar definitivamente las aspiraciones de que los antiguos

obtuvo mediante la técnica de la

habitantes de Nuevo México fueron los

luminiscencia. Este método mide la

primeros en instalarse en el continente.

energía de los últimos rayos de Sol (o

Debido a que las láminas del sitio

la exposición final a un calor intenso)

Debra L. Friedkin fueron halladas en

que fue atrapada en los sedimentos del

cercanías de vestigios de puntas del

estrato geológico de 20 centímetros

estilo Clovis, y ambos tipos de piezas

en que fueron halladas las piezas del

presentan similitudes, los investigadores

sitio arqueológico. No se encontró

consideran que la segunda cultura

ninguna osamenta en el lugar, aunque

puede derivar de la primera.

provisto 33 esqueletos humanos y más de 700 mil piezas líticas a la colección de la institución. Los datos divulgados por la arqueóloga, que sustentan una presencia humana en el nordeste desde hace al menos 50 mil años, son rechazados por muchos de sus pares. Niède no arriesga a esbozar cómo habría sido la apariencia física de los responsables por los dibujos prehistóricos de Serra da Capivara, aunque algunos estudios preliminares sugieren que podrían haber sido similares al pueblo de Luzia. n

Artículo científico Hubbe, M. et al. Paleoamerican Morphology in the Context of European and East Asian Late Pleistocene Variation: Implication for Human Dispersion Into the New World. American Journal of Physical Anthropology. v. 50, n. 3, p. 442-53. Mar. 2011. PESQUISA FAPESP   33


_ m edicina

Presión contra el cáncer Un antihipertensivo detiene el crecimiento de los tumores y apunta nuevos blancos para medicamentos texto

Carlos Fioravanti

ilustraciones  Bel

E

Falleiros

l Iosartan, uno de los medicamentos más utilizados en el mundo para controlar la hipertensión arterial, detuvo el crecimiento de tumores de la piel en experimentos realizados con ratones comunes en los laboratorios de la Facultad de Medicina de la Universidad de São Paulo (FMUSP). Una antigua droga obtuvo una nueva aplicación potencial, facilitando la búsqueda de nuevos tratamientos contra el cáncer, aunque sería arriesgado concluir que ese remedio ya podría utilizarse en humanos con esa nueva finalidad, sólo por tratarse de un medicamento producido en Brasil como genérico y con efectos colaterales definidos. “Ahora necesitamos aprender a utilizar esta droga para mejorar el tratamiento de los tumores”, advierte el médico Roger Chammas, docente de la FMUSP y uno de los coordinadores del estudio, detallado en la edición del mes de mayo en la revista Cancer Chemotherapy and Pharmacology. Los resultados de este trabajo, realizado por Andreia Otake, indicaron que el fármaco bloqueó la acción de la angiotensina II, que constituye un fragmento de una proteína –o péptido– que ayuda en el control de la presión arterial, en conjunción con otras

34   Publicada en mayo de 2011


moléculas producidas por el organismo. Éste y otros estudios revelan que la angiotensina II puede poseer otra función menos conocida y aprovechada: puede ayuda a los tumores en la formación o atracción de vasos sanguíneos que proveerán los nutrientes necesarios para su supervivencia. Con menor cantidad de angiotensina, menos vasos sanguíneos crecerán dentro del tumor, que de esa forma, puede morir de inanición. En opinión de Chammas, esos estudios fortalecen la perspectiva de que las moléculas con las que interactúa el tumor, el denominado microambiente tumoral, y no solamente el tumor, se conviertan en blanco de nuevos medicamentos. En los últimos años, varios estudios indicaron que la angiotensina II promovía la migración y proliferación de células endoteliales, que conforman la capa más interna de los vasos sanguíneos, participando de esa manera en la regulación de los procesos inflamatorios que ciertas veces marcan el comienzo o el desarrollo de tumores. “Un tumor puede percibirse como una inflamación persistente, una herida que no cicatriza y atrae vasos sanguíneos, que al mismo tiempo contribuyen para la propagación del cáncer por el organismo”,

comenta Chammas. El hecho de que existan receptores para la angiotensina en la superficie de las células endoteliales de los vasos que nutren a los tumores abre una perspectiva de nuevas utilidades para los medicamentos antihipertensivos como en el caso del Iosartan. Los ensayos preliminares en curso, realizados en Estados Unidos con grupos limitados de personas, testifican la acción antitumoral de ese fármaco, utilizado sólo o en conjunto con antihipertensivos con mecanismos de actuación similar, tales como el captopril. El Iosartan, descubierto en 1986 por un grupo de jóvenes investigadores de la empresa DuPont, fue el primero de una nueva clase de antihipertensivos denominados antagonistas de los receptores de la angiotensina II. Producido por la industria farmacéutica Merck, aunque ya se ha convertido en un genérico en Brasil, ahora está siendo empleado en nuevas aplicaciones. Una de ellas es el tratamiento de afecciones renales crónicas. Desde el final de los años 1980, el médico de la USP Roberto Zatz ha realizado estudios en su laboratorio que indicaron que dosis altas de Iosartan contribuían en la detención de los daños generados por la enfermedad renal crónica en ratas. Zatz participó en estudios clí-

PESQUISA FAPESP   35


nicos internacionales que sustentaron el actual uso relativamente común de los medicamentos de ese tipo para el tratamiento de enfermedades renales graves. Y fue quien propuso a Chammas el experimento en tumores de piel, cuyo crecimiento intentaban detener valiéndose de esa capacidad del fármaco para reducir la presión arterial, el crecimiento de los vasos sanguíneos y los procesos inflamatorios. En la Universidad Federal de Minas Gerais (UFMG), Robson dos Santos recién comienza con la exploración de las aplicaciones terapéuticas para un derivado de la angiotensina II, la angiotensina 1-7, así denominada por contener siete aminoácidos en lugar de ocho como en el caso de la angiotensina II. Encapsulada en un azúcar, la ciclodextrina, la angiotensina 1-7, por vía oral, ayudó a disminuir los daños en las células del corazón en ratas que habían sufrido un infarto inducido, como el que se detalla en un estudio publicado en marzo de este año en la revista Hypertension. En su opinión, esa misma fórmula puede regular los niveles de glucosa y lípidos (grasas), en concordancia con experimentos realizados en animales de laboratorio. Santos comenta que la angiotensina 1-7 por vía endovenosa exhibió efectos positivos para el tratamiento de mujeres con

preeclampsia o toxemia del embarazo, un grave problema que puede ocurrir a partir del segundo mes de embarazo, que se manifiesta con hipertensión y retención de líquidos. Según él, los ensayos con esa fórmula por vía oral comenzarán pronto. “Esperamos contar con los resultados en seis meses”, dice. “Cuando ocurre la preeclampsia, la angiotensina 1-7 exógena ayuda a normalizar el nivel de angiotensina 1-7 en sangre”. Simultáneamente con los resultados alentadores emergen recomendaciones para la precaución en el uso de medicamentos antihipertensivos con otras finalidades. De acuerdo con un estudio publicado en junio de 2010 en la revista médica Lancet Oncology, los individuos sometidos a terapias experimentales con antihipertensivos que actúan sobre la angiotensina, para el tratamiento de afecciones cardiovasculares y diabetes durante por lo menos un año, presentaron un riesgo 1,2 veces mayor de contraer cáncer, principalmente de pulmón, que las personas no medicadas. Ese riesgo

“Debemos pensar diferente y concebir al tumor como un órgano”, sugiere Roger Chammas

36   Publicada en mayo de 2011

llama la atención aunque sea menor. En principio, el mismo fármaco puede actuar contra los tumores o a favor de ellos, pues el cáncer representa un amplio conjunto de afecciones distintas: los especialistas ya han identificado 200 tipos diferentes de cáncer, todos ellos caracterizados por células que crecen en forma indiscriminada y que invaden tejidos vecinos. Las peculiaridades cada vez son más valoradas a la hora de orientar el diagnóstico y el tratamiento: “Un tumor en el pulmón de una persona puede ser muy diferente de otro tumor en un individuo distinto, aunque hayan tenido su origen en el mismo tipo de célula pulmonar. Esas diferencias se originan debido a las distintas firmas moleculares de los tumores, algo que resulta comparable con una impresión digital y que revela cuáles son las vías moleculares que se hallan alteradas en un cierto tipo de cáncer”, comenta Chammas. “Estamos intentando comprender mejor esas firmas, para perfeccionar el diagnóstico y los tratamientos para los diferentes tipos de cáncer. Debemos modificar la concepción y tomar tumor como un órgano, con mecanismos propios de funcionamiento”. La posibilidad de que los medicamentos antihipertensivos sean evaluados como antitumorales en Brasil mediante ensayos controlados en humanos resulta remota, en vista de los laberintos que los investigadores y médicos de instituciones públicas deben enfrentar para aprovechar los datos obtenidos en la-


“No estamos ganando la batalla contra el cáncer. Tenemos que acelerar”, dice Paulo Hoff

boratorio para resolver problemas de salud pública. La queja principal apunta que la aprobación de la propuesta de los estudios por parte de los organismos federales puede tardar un año o más, mientras que en países tales como Estados Unidos o igualmente en Sudáfrica, en promedio demora tres meses. Santos, de la UFMG, comenta que tuvo que aguardar seis meses hasta recibir todos los permisos necesarios para llevar adelante los ensayos con la angiotensina 1-7 con ciclodextrina por vía endovenosa en mujeres con preeclampsia grave. La solicitud para probar la fórmula por vía oral tardó un año en regresar desde la comisión de ética investigativa, de la propia universidad, y de la Comisión Nacional de Ética en la Investigación (Conep), dependiente del Ministerio de Salud. “Es una realidad desalentadora”, se desahoga. “Se carece de espíritu de la urgencia en Brasil”, sostiene Paulo Hoff, director general del Instituto del Cáncer de São Paulo (Icesp), ligado a la FMUSP e inaugurado en 2008, que en la actualidad atiende alrededor de 12 mil casos nuevos de personas con cáncer por año. “La burocracia podría ser más ágil, eficiente y transparente, sin necesidad de perder el control”, expresa Hoff, uno de los autores de un artículo publicado en

2010 en la revista Lancet Oncology que plantea la conciliación de intereses gubernamentales, médicos y académicos para la planificación y ejecución de las fases iniciales de los compuestos pasibles de convertirse en medicamentos en países como Brasil, fundamentalmente para validar los resultados obtenidos en donde la reglamentación resulta más ágil. Hoff comenta que se observa mayor interés por parte de los representantes del gobierno federal por apoyar la realización de ensayos clínicos en Brasil “Debemos actuar con flexibilidad”, sugiere. “No podemos acceder a una negociación creyendo que nuestro punto de vista es el que va a prevalecer”. Max Mano, médico del Icesp, considera que una mayor agilidad en la aprobación de los ensayos clínicos para nuevos medicamentos o nuevas aplicaciones de otros ya en uso podría beneficiar especialmente al tratamiento de tumores raros, que pueden aparecer en cualquier órgano del cuerpo y ser fácilmente confundidos con otros tipos. En un artículo publicado en 2010, Mano y Hoff advierten que los tumores raros comportan un 25% del total de óbitos causados por cáncer en Estados Unidos y probablemente también en Brasil. “No es más difícil tratar un tumor raro”, dice Hoff. “Lo difícil es encontrar un

médico que lo reconozca y sepa cómo tratarlo”. Algunos tipos de cáncer, tales como el de estómago, ya resultan raros en Europa, en función de la implementación de medidas sanitarias, de la mejora en los hábitos alimenticios y del diagnóstico precoz, pero todavía son frecuentes en Brasil y en otros países de Latinoamérica. “Muchos tumores se encuentran relacionados con procesos infecciosos crónicos mal resueltos”, asevera Mano. “La investigación no progresa con la misma velocidad que la enfermedad”. Hoff, por su parte, resalta que hubo avances, tales como la estandarización de los ensayos para el diagnóstico de varios tipos de cáncer, aunque reconoce: “No estamos ganando la batalla contra el cáncer. Tenemos que acelerar”. n Artículos científicos 1. ARAI, R.J. et al. Building research capacity and clinical trials in developing countries. The Lancet Oncology. v. 11. Ago. 2010. 2. OTAKE, A.H. et al. Inhibition of angiotensin II receptor 1 limits tumor-associated angiogenesis and attenuates growth of murine melanoma. Cancer Chemotherapy and Pharmacology. v. 66, n. 1, p. 79-87. May. 2010. 3. MARQUES, F.D. et al. An oral formulation of angiotensin-(1-7) produces cardioprotective effects in infarcted and isoproterenol-treated rats. Hypertension. v. 57, p. 477-83. Mar. 2011. PESQUISA FAPESP   37


_ f isiología

Memorias de origen Las células del endotelio almacenan información del estado en que fueron extraídas del donante Ricardo Zorzetto

L

as células poseen memoria. Posiblemente no sean todas, pero algunas logran revivir tiempo más tarde las condiciones del organismo y del ambiente del que fueron extraídas. Esta capacidad para retener y transmitir información a sus descendientes no se ha observado, tal como cabría esperar, en neuronas, las células cerebrales que transmiten información bajo la forma de señales eléctricas desde un punto hacia otro del organismo y las almacenan en el cerebro. Pero el equipo de la farmacóloga Regina Pekelmann Markus identificó la memoria celular en el endotelio, una capa de células que tapiza internamente a los vasos sanguíneos. Esta forma de memoria, hasta el momento observada en ratas, y descrita en un artículo publicado en noviembre en la revista Plos ONE, debe despertar el interés médico porque puede tener influencia en los transplantes de órganos y para el desarrollo en laboratorio de tejidos que reemplazan a los naturales. “Si los hallazgos fueran confirmados en seres humanos, será necesario comenzar a prestar atención a la memoria celular con el objetivo de obtener cultivos de tejidos más homogéneos y reducir el riesgo de rechazo en los transplantes”, comenta la investigadora de la Universidad de São Paulo (USP). El descubrimiento de la memoria celular ocurrió de manera inesperada. En 38   Publicada en febrero de 2011

el Laboratorio de Cronofarmacología del Instituto de Biociencias (IB) de la USP, el grupo de Regina cultivaba en recipientes de acrílico células epiteliales de ratas sanas y de animales sometidos a un test que simula una inflamación aguda, ocasionada mediante la inyección de moléculas –lipopolisacáridos (LPS)– de las paredes celulares de bacterias. Luego de reproducirlas in vitro durante casi cuatro semanas, las células descendientes de las extraídas a las ratas aún se comportaban como sus tatarabuelas. Aquéllas extraídas de un roedor con inflamación reproducían los procesos fisiológicos que ocurren en el endotelio de una región lesionada: atraían y retenían células defensivas, en especial neutrófilos, las más abundantes del organismo y de las primeras en llegar a la región inflamada. Ahora bien, las células endoteliales hijas de las extraídas de ratas sin inflamación, actuaban como si se hallaran en un ambiente saludable. Si este fenómeno ocurre en ratas, un modelo experimental para varias enfermedades, es posible que también se manifieste en personas, ya que la fisiología y la estructura de los órganos y tejidos de humanos y murinos son muy similares. En caso de verificarse en seres humanos, esta memoria puede explicar, al menos en parte, el rechazo a los transplantes. Sucede que luego de un infarto, por ejemplo, las células

del endotelio producen y exponen en su superficie, moléculas que atraen a los neutrófilos. Normalmente arrastrados a alta velocidad por el torrente sanguíneo, los neutrófilos se adhieren a las células endoteliales, que los van frenando hasta detenerlos. Seguidamente, los neutrófilos se cuelan entre las células del endotelio, atraviesan el vaso sanguíneo y se mueven entre los tejidos hasta alcanzar las células dañadas. Ese proceso, el mismo que ocurre en una infección por bacterias, causa hinchazón, aumento de la temperatura y dolor en el lugar. Y, según Regina, deja una cicatriz molecular en el organismo. Por eso es posible que un riñón extraído de una persona que sufre un infarto contenga en sus células la memoria de ese cuadro inflamatorio, con lo cual aumenta el riesgo de rechazo. “Este concepto es importante y, en principio, puede afectar el resultado de los transplantes, pero aún no es posible saberlo”, comenta el inmunólogo Mauro Teixeira, de la Universidad Federal de Minas Gerais. Salvatore Cuzzocrea, investigador de la Universidad de Messina, Italia, y especialista en inflamación, añade: “La idea de monitorear el estado de activación de las células del donante parece un buen comienzo a los efectos de reducir el riesgo de rechazo. No podemos olvidarnos que los daños en el endotelio


Células endoteliales: registro de la inflamación

resultan la principal causa de fracaso en los transplantes”. La sospecha de que las células pudiesen conservar la memoria de un estado durante largos períodos surgió en 2008. En el laboratorio de Regina, el biólogo Eduardo Tamura, en aquella época alumno de doctorado, trabajaba en la estandarización de los test de inflamación e intentaba saber si la producción de un compuesto sintetizado por las células del endotelio durante la inflamación –el óxido nítrico (NO), que produce la relajación de los vasos sanguíneos, aumentando el flujo de sangre hacia la zona lesionada– variaba a lo largo del día. Años antes, Regina y la farmacóloga

lOs Proyectos 1 Glándula pineal y melatonina – mecanismo de temporización de las respuestas neurales y procesos inflamatorios – nº 2002/ 02957-6 2 Eje inmuno-epineal: producción endocrina y paracrina de melatonina en condiciones de daño – nº 2007/07871-6 Modalidad 1 y 2 Proyecto Temático Co­or­dina­dora 1 y 2 Regina Pekelmann Markus – IB/USP inversión 1 R$ 523.465,57 (FAPESP) 2 R$ 932.222,87 (FAPESP)

Cristiane Lopes habían demostrado que la intensidad de la inflamación oscilaba en ciclos de 24 horas, siendo de mayor intensidad durante el día y disminuyendo por la noche. Lo que controla la oscilación es la hormona melatonina, cuya producción aumenta luego de que se pone el sol. La melatonina, sintetizada por la glándula pineal, ubicada en la base del cerebro, le indica al organismo que está oscuro y que sus células deben ejecutar las tareas que normalmente realizan por la noche. La fisióloga Celina Lotufo, investigadora de la Universidad Federal de Uberlândia y ex alumna de Regina, constató que la melatonina inhibe la inflamación por actuar sobre el endotelio: impide que los neutrófilos se adhieran a las células endoteliales para iniciar la respuesta inflamatoria. Pero faltaba detallar esa interacción desde el punto de vista bioquímico. Tamura observó que la melatonina bloquea la producción de óxido nítrico, reduciendo el relajamiento de los vasos y la llegada de sangre y neutrófilos a la lesión. En 2008, con motivo del curso de invierno ofrecido por el Departamento de Fisiología del IB, Tamura alteró el horario en que preparaba a los roedores para los experimentos y se sorprendió con el resultado. En lugar de inyectar el compuesto inflamatorio durante el día, pasó a hacerlo también por la noche.

Al comparar la respuesta, halló que los animales que recibían LPS por la noche producían menor cantidad de NO, señal de inflamación menos intensa. Observó que el efecto antiinflamatorio era producto de la acción de la melatonina, que reduce la producción de óxido nítrico por parte de los neutrófilos y las células endoteliales. Al cultivar las células del endotelio durante períodos más largos, Tamura y los biólogos Marina Marçola y Pedro Fernandes se percataron de que éstas almacenaban por hasta 18 días la memoria del estado de salud de las ratas de las que habían sido extraídas. Las retiradas de roedores con inflamación se comportaban como si todavía viviesen en un organismo inflamado. En ciertas condiciones, esta memoria fue borrada por la melatonina. “Suministrada al animal antes del estímulo inflamatorio, ella impidió este tipo de memoria”, comenta Regina. “Pero todavía no sabemos si la acción de esta hormona sobre las células endoteliales es directa o indirecta, ni tampoco si es posible revertir la memoria de la inflamación in vitro”. n Artículo científico TAMURA, E. K. et al. Long-lasting priming of endothelial cells by plasma melatonin levels. Plos ONE. v. 5(11). 12 nov. 2010. PESQUISA FAPESP   39


_ N eurofisiología

Un efecto inesperado Los corticoides activan mecanismos inflamatorios en algunas regiones del cerebro

U

na fracción del 1% de la población mundial, que convive con los terribles dolores que provoca la artritis reumatoidea, una inflamación crónica que provoca la degeneración de las articulaciones, conoce muy bien la importancia de los corticoides para mejorar su calidad de vida. Pero no sólo estas personas: millones de pacientes con alergias respiratorias, enfermedades de la piel, víctimas de tumores cerebrales y pacientes con otras diversas condiciones, en que la respuesta inflamatoria del cuerpo se vuelve exagerada, se han visto beneficiados durante las últimas décadas con la potente acción antiinflamatoria de estos compuestos, que son generalmente, derivados sintéticos de la cortisona, el principal corticoide secretado por las glándulas adrenales humanas. No obstante, los corticoides, identificados al comienzo del siglo pasado por Edward Calvin Kendall y Philip Showalter Hench, un descubrimiento que les proporcionó el Nobel de Medicina en 1950, no siempre funcionan en la dirección deseada, al menos en lo que se refiere a las hormonas sintéticas. En algunas regiones del cerebro, éstas pueden provocar exactamente el efecto opuesto al esperado y aumentar la infla-

40   Publicada en abril de 2011

mación, según se desprende de un estudio de los investigadores Carolina Demarchi Munhoz y Cristoforo Scavone, de la Universidad de São Paulo (USP), y Robert Sapolsky, de la Universidad de Stanford, Estados Unidos, publicado en el Journal of Nuroscience a finales de 2010. Mediante la inyección intravenosa de fragmentos de bacterias, el grupo de investigadores indujo respuestas inflamatorias en ratas de laboratorio, para evaluar el poder de los corticoides en la modulación de las reacciones bioquímicas provocadas por inflamaciones en el cerebro, tal como sucede en el caso de tumores o también durante un accidente cerebrovascular (ACV). La respuesta natural del organismo contra una inflamación es, como se sabe, secretar corticoides, y la adrenal de las ratas produce corticosterona, una hormona similar a la cortisona humana. Antes de provocar la inflamación, Carolina extirpó las glándulas adrenales de las ratas (adrenalectomía) e implantó bajo su piel, cápsulas de corticosterona que liberarían la sustancia lentamente. De esta manera, controlando las dosis, ella podría investigar si la acción antiinflamatoria variaba según los diferentes niveles de corticoide en sangre de los animales, separados en tres grupos,


cada uno con una dosis diferente de la hormona. El primero recibió un nivel bajo de corticosterona, equivalente a la producida naturalmente por los roedores; el segundo, una dosis intermedia, similar a la presente en el organismo en los casos de estrés leve, tales como el susto provocado por el cierre inesperado de una puerta; y el último, una cantidad elevada, correspondiente a niveles moderados de estrés, como por ejemplo, el suscitado por la preocupación por no poder pagar las cuentas a fin de mes. Un cuarto grupo, en el que se mantuvieron las adrenales, fue utilizado como control. La relación entre el nivel de corticoides en sangre y el grado de estrés, resulta importante porque esa reacción adaptativa del organismo a las situaciones nuevas o amenazantes, también hace que las adrenales liberen corticoides. Y el grupo de investigadores ya había demostrado en años anteriores que el estrés crónico e imprevisible puede ocasionar inflamación cerebral. Lo importante era entonces descubrir si el efecto era originado por los corticoides y de qué manera eso sucedía. Mediante técnicas de inmunología y biología molecular, evaluaron qué originaban los dife-

rentes índices de corticoides en dos regiones del cerebro de las ratas: el hipocampo, que atañe a la memoria, el aprendizaje y, en situaciones patológicas, al desarrollo de la epilepsia; y la corteza frontal, asociada con los procesos cognitivos superiores, tales como la toma de decisiones. Y observaron un complejo patrón de respuestas de los genes analizados. Dependiendo de la dosis, algunos genes presentaron el mismo patrón de funcionamiento en ambas regiones –por ejemplo, fueron activados o desactivados indistintamente–, mientras que otros funcionaron distinto: se encontraban activos en una y latentes en la otra. Estas alteraciones derivan del control de la actividad del factor nuclear kappaB (NF-kappaB), una molécula de comunicación intracelular clave en el proceso bioquímico que regula la respuesta inflamatoria. Hasta entonces se pensaba que el NF-kappaB siempre quedaba bloqueado por los corticoides que, de ese modo, cumplirían con el efecto antiinflamatorio. En el caso de la dosis mayor, los corticoides disminuyeron la actividad del NF-kappaB y redujeron la inflamación en el hipocampo. Sin embargo, en los niveles bajo y medio, aumentaron su actividad y, por la tanto, la señalización PESQUISA FAPESP   41


42   Publicada en abril de 2011

PATRICK LANDMANN / SCIENCE PHOTO LIBRARY/ SPL DC/Latinstock

que dispara la inflamación. En la corteza frontal la reacción fue diferente: la dosis alta de corticosterona resultó antiinflamatoria, mientras que la intermedia agravó la inflamación. Pese a tratarse de resultados experimentales, éstospueden tener implicaciones clínicas, especialmente, para la neurología y la psiquiatría, que lidian con las inflamaciones cerebrales y sus consecuencias. En opinión de Carolina, las dosis utilizadas en los test con ratas son similares a las empleadas en estudios con humanos. Empero, ella propone que los datos se analicen con prudencia: “Demostramos que el efecto de los corticoides, aun en dosis adecuadas, no es solamente antiinflamatorio”, subraya, “pero el trabajo se hizo con ratas, y utilizando el corticoide natural de ellas”. Esto puede ser determinante. Los corticoides que produce el organismo funcionan de manera distinta que los sintéticos, utilizados como medicamentos. Una de las diferencias es que sólo un 10% de la cantidad de corticoides secretados por las glándulas adrenales se encuentra libre en la sangre y preparado para actuar, tanto en los tejidos periféricos como en el sistema nervioso central. Para el caso de los sintéticos, estos están totalmente disponibles para actuar en los tejidos periféricos, aunque son, en buena medida, filtrados al llegar a la circulación cerebral, una barrera especial (hematoencefálica) tapiza los vasos sanguíneos del cerebro y controla el paso de varios compuestos. Por ese motivo, cuando se necesita tratar inflamaciones cerebrales, los médicos aumentan la dosis del medicamento, en la expectativa de que una mayor proporción atraviese la barrera hematoencefálica, que funciona como un piloto de lluvia semipermeable: cuando la lluvia es tenue, evita el paso del agua y que la persona se moje, pero si llueve torrencialmente, una parte atraviesa los poros del tejido. A causa de este mecanismo, el nivel de corticoides sintéticos en la sangre periférica puede ser sustancialmente diferente del que llega al cerebro. De esta manera, lo que los médicos calculan como dosis alta tal vez sea, de hecho, elevada en la periferia, pero intermedia en el tejido cerebral. Como las dosis intermedias fueron las que aumentaron la reacción inflamatoria en el hipocam-

po y en la corteza frontal, los resultados sirven como un llamado de atención con respecto al uso médico de estos compuestos cuando el objetivo es el sistema nervioso central. Pero todavía hay que hacer experimentos, y Carolina y Scavone pretenden iniciarlos pronto, para determinar si los corticoides sintéticos actúan en el cerebro del mismo modo en que lo hacen los naturales. “Estos datos sirven como alerta para remarcar que existen variables que todavía no han sido comprendidas sobre el funcionamiento de los corticoides”, dice Scavone. Trastornos del humor

Recientemente, Scavone comenzó un trabajo conjunto con el equipo de Beny Lafer, del Departamento de Psiquiatría de la Facultad de Medicina de la USP, con el objetivo de identificar la posible influencia de los procesos inflamatorios en el desarrollo de las alteraciones psiquiátricas. En particular, Lafer está interesado en comprobar si las alteraciones bioquímicas asociadas con la inflamación pueden afectar el equilibrio de las células e inducirlas a morir en las personas con trastorno bipolar, una afección reconocida por la alternancia entre episodios de depresión y de manía (euforia). Ese trastorno mental, descrito hace casi 2 mil años por Areteo de Capadocia, y anteriormente denominado psicosis maníaco-depresiva, afecta en su forma más grave (tipo 1) a alrededor del 1% de la población y se está tratando en forma rela-

Afectadas en el trastorno bipolar: las neuronas, en verde, y las neuroglias, en azul

lOs proyectos 1 El estrés y la señalización intracelular en la inflamación desencadenada por el lps en el sistema nervioso central: participación de los glucocorticoides y de la vía glutamato en la modulación del factor de transcripción nf-kb nº 2002/ 02298-2 2 Participación de las map quinasas (MAPK), proteínas de shock térmico, y de la vía de apoptosis, en los efectos adversos de los glucocorticoides en el sistema nervioso central – nº 2004/ 11041-0 3 Evaluación del compromiso de la vía de señalización Wnt en la fisiopatología del trastorno afectivo bipolar – nº 2008/ 08191-1 modalidad 1, 2 y 3 Apoyo regular a proyecto de investigación Co­or­di­na­dores 1 y 2 Cristoforo Scavone – ICB/USP 3. Beny Lafer – FM/USP inversión 1 R$ 191.086,25 (FAPESP) 2 R$ 229.197,46 (FAPESP) 3 R$ 57.564,57 (FAPESP)


tivamente eficiente durante las últimas décadas. Pero su origen biológico sigue siendo incierto. Estudios internacionales realizados en los años 1990 identificaron una disminución considerable en el número de células (neuronas y células gliales o neuroglías), así como una reducción en los mecanismos de protección celular en el cerebro de las personas con trastorno bipolar. Esta disminución celular, asociada con la inflamación, que se acentúa durante las crisis maníacas y depresivas, afecta a la corteza frontal y, posiblemente, al hipocampo, dos de las regiones estudiadas por Carolina y Scavone. La pérdida o disfunción de neuronas en la corteza frontal quizá explique en parte, la dificultad de los pacientes para controlar los impulsos en los episodios maníacos. En un trabajo de revisión publicado este año en la revista Progress in NeuroPsychopharmacology & Biological Psychiatry, ella y Scavone proponen un modelo que intenta explicar de qué manera los mecanismos inflamatorios pueden alterar una vía de señalización intracelular activada por la Wnt, una proteína que regula la proliferación, la migración y la especialización de las células. Todos estos procesos aparentan estar involucrados en mayor o menor grado en los trastornos del humor, tales como el bipolar y la depresión. Una evidencia certera de que en esas alteraciones psiquiátricas algo falla en la cadena de reacciones químicas disparadas por esa proteína, lo constituye el hecho de que dos de los medicamentos más utilizados para tratar el trastorno bipolar –el litio y el valproato– actúan sobre esta vía de comunicación intracelular, restableciendo ese canal de transmisión de informaciones y, eventualmente, evitando la muerte de las neuronas. “Los descubrimientos al respecto de los mecanismos de actuación de los estabilizadores del humor desviaron el enfoque de las investigaciones sobre los receptores en las membranas celulares y de los neurotransmisores que se conectan con estos receptores hacia lo que ocurre en el universo intracelular”, explica Beny Lafer. Esta nueva forma de comprensión de los problemas psiquiátricos hizo confluir al equipo de Scavone y al de Lafer y quizá genere nuevos tratamientos. Entre las moléculas que en un futuro pueden transformarse en un buen objetivo terapéutico para el trastorno bipolar, Lafer destaca el factor neurotrópico derivado del cerebro

En concentraciones moderadas, los corticoides agravan la inflamación en el hipocampo y en la corteza frontal

(BDNF). Entre su variedad de funciones, esta molécula regula la supervivencia y la ramificación de las neuronas, funciones éstas que comprenden la señalización por parte de la Wnt y de alguna forma se encuentran desreguladas durante la depresión y la manía. Incluso parece haber un nexo molecular entre los trastornos del humor, la acción de los corticoides y la influencia del estrés, aunque todavía no ha sido definido. Los investigadores sospechan que ese nexo sea el NF-kappaB, involucrado tanto en la respuesta cerebral a los corticoides como en la señalización de la Wnt, alterada, en el trastorno bipolar. En busca de una respuesta a estas cuestiones –y, de ser posible, nuevos métodos de tratamiento–, Lafer y su alumna de doctorado Li Wen Hu, en colaboración con Eliza Kawamoto, investigan las alteraciones que ocurren en la vía de la Wnt. Intentan comparar el nivel de proteínas de esa cadena bioquímica hallada en la sangre de las personas con trastorno bipolar que toman medicación (litio) desde el comienzo de la investigación, con el de personas afectadas que no utilizan litio y con el de individuos sanos. Hasta ahora han logrado reunir muestras de 20 integrantes del primer grupo, 17 del segundo y 36 del tercero. “Aún no sabemos si la disfunción en los procesos inflamatorios se debe o es consecuencia de los episodios de la enfermedad, que mejo-

ran con la utilización de estabilizadores del humor”, afirma Lafer. La sospecha de que los corticoides agravan la inflamación cerebral proviene de la observación clínica. Los pacientes bipolares que toman corticoides para contrarrestar inflamaciones evidencian un empeoramiento de su cuadro psiquiátrico. Incluso, se está empezando a ensayar el uso de medicamentos con acción contraria a la de los corticoides en el tratamiento de la depresión. Aunque el litio exhibe un mecanismo de acción diferente que el de los corticoides, los investigadores no descartan que pueda actuar sobre algunos objetivos intracelulares en común. Pero es difícil saberlo. “Se trata de una compleja cascada bioquímica delicadamente regulada por el organismo como respuesta al estrés y a los procesos inflamatorios”, comenta Scavone. “Una interferencia en ese sistema puede desencadenar consecuencias todavía desconocidas.” n Artículos científicos 1. Munhoz, C. D. et al. Glucocorticoids exacerbate lipopolysaccharide-induced signaling in the frontal cortex and hippocampus in a dosedependent manner. Journal of Neuroscience. v. 30(41), p. 13.690-8. 13 oct. 2010. 2. Hu, L.W. et al. The role of Wnt signaling and its interaction with diverse mechanisms of cellular apoptosis in the pathophysiology of bipolar disorder. Progress in Neuro-Psychopharmacology and Biological Psychiatry. v. 35(1), p. 11-17. 15 ene. 2011. PESQUISA FAPESP   43


_ e volución

Cuando los híbridos son fértiles Los cruzamientos improbables pueden originar nuevas especies de plantas y animales

D

arwin, además de talento, tuvo suerte. Al arribar al archipiélago de las Galápagos, en el Pacífico, encontró una rica variedad de tortugas y aves viviendo en condiciones ambientales peculiares, tales como el aislamiento geográfico y la dieta, que han influido particularmente en su evolución durante el transcurso de millones de años. Las probables causas del hecho de que existan tantos animales muy similares entre sí –las aves, por ejemplo, con el pico más corto o más largo, dependiendo de su alimiento– parecían evidentes. Pero el mundo no es como las Galápagos. Los biólogos actuales, incluso al estudiar espacios ricos en biodiversidad tales como el bosque atlántico, no siempre encuentran historias evolutivas y especies similares con diferencias tan claras entre sí. En compensación, al trabajar con segmentos del ADN conocidos con el nombre de marcadores moleculares, ahora pueden hallar las bases genéticas de la diversificación de las especies. Un mecanismo de formación de nuevas especies que está obteniendo reconocimiento entre los investigadores es la posibilidad de que especies vegetales y animales genéticamente próximas entre sí se crucen naturalmente generando híbridos fértiles. Anteriormente esta idea era poco aceptable porque, generalmente, las especies diferentes 44   Publicada en julio de 2011

presentan un número distinto de cromosomas, las estructuras del interior de las células que contienen los genes. Esta diferencia haría inviable el desarrollo del embrión, puesto que cada cromosoma proveniente del macho necesita alinearse con un equivalente proveniente de la hembra en el momento en que la célula fertilizada se divide. Si no ocurre este alineamiento, en la mayor parte de las ocasiones la célula no se reproduce y muere. Pero existen excepciones, que aparentan ser menos raras de lo que se imaginaba. El cruzamiento entre plantas –o animales– de especies próximas puede generar seres que, a pesar de ser híbridos, son fértiles, aunque en la fase inicial de la multiplicación celular algunos cromosomas no encuentren su respectivo par. Si disponen de tiempo y condiciones ambientales favorables, esos híbridos pueden generar especies diferentes de las que les dieron origen. Actualmente, la palabra híbrido no define solamente a seres estériles tales como la mula, resultante del cruzamiento de un asno y una yegua, sino también a seres fértiles como son las orquídeas del bosque atlántico cultivadas en uno de los viveros del Instituto de Botánica de São Paulo. El híbrido, con 38 cromosomas, resulta del cruzamiento natural entre dos especies silvestres, Epidendrum fulgens, con 24 cromosomas, y Epidendrum puniceolutem, con 52. Externamente, las

eduardo cesar

Carlos Fioravanti


Una orquídea híbrida del bosque atlántico

PESQUISA FAPESP   45


Un híbrido con flor de dos colores: rojo, tal como la Epidendrum puniceolutem, y amarillo, tal como la E. fulgens

diferencias son sutiles. Las flores de las denominadas plantas parentales son rojas o amarillas. Las de las híbridas pueden ser anaranjadas con puntos rojos. Pero la genética por sí sola no basta para reconocer a los híbridos fértiles. Ahora se los identifica con relativa facilidad porque, además de comparar el número de cromosomas, los especialistas examinan, inicialmente, los aspectos más visibles de los ámbitos donde conviven los híbridos y las especies que les dieron origen. Luego ponen atención en la historia del paisaje, estudiando los mapas geológicos y de las variaciones climáticas, que indican si los desplazamientos de bloques rocosos, terremotos o variaciones prolongadas en los regímenes de lluvias o temperaturas, acercaron o alejaron las poblaciones de plantas o animales, propiciando o no la formación de nuevas especies. En el caso de las orquídeas, los híbridos vivían tanto en la restinga, un hábitat típico de la E. puniceolutem, como en las dunas, donde se encuentra la E. fulgens. “Esta versatilidad sugiere que algunos segmentos del genoma pueden intercambiarse entre esas especies, confiriendo al híbrido una mayor adaptación a diversos hábitat”, dice el botánico Fábio Pinheiro, investigador asociado del Instituto de Botánica de São Paulo. “La hibridación natural, probablemente sea una de las explicaciones de la elevada diversificación del género Epidendrum, constituido por alrededor de 1.500 especies.” Por precaución, durante una presentación en el Kew Botanic Gardens, de 46   Publicada en julio de 2011

Los híbridos pueden surgir con mayor facilidad en espacios que agrupan poblaciones de especies próximas de plantas y animales Londres, en mayo de 2009, Pinheiro no mencionó el número de cromosomas de los híbridos, por temor a las reacciones. “Pero los expertos en orquídeas del Kew preguntaron y, al verlo, no lo creían. Dijeron que había algo mal, aunque luego lo aceptaron”, comenta. El concepto predominante es que las especies diferentes no se cruzan naturalmente y que los híbridos que por casualidad se formen, son estériles. El argumento esgrimido es que las células germinativas no lograrían constituir descendientes viables. Sin embargo, la mayoría de las plantas resulta de hibridaciones naturales o inducidas entre especies cercanas, recuerda Fábio de Barros, coordinador del proyecto en el Instituto de Botánica. La

hibridación inducida es la que hace que aparezcan especies únicas de orquídeas y de vegetales utilizados para la alimentación, tales como el maíz y la caña de azúcar. Normalmente, los híbridos ofrecen alguna ventaja: en el caso de los alimentos, son más resistentes a las enfermedades y más productivos que las especies puras. “Darwin había escrito que los híbridos pueden ser estériles o fértiles, pero no tenía cómo comprobarlo, ya que no había marcadores moleculares para identificar los patrones genéticos de los híbridos fértiles”, dice Barros. “Aparentemente, la hibridación es bastante común y parece contar con un rol en la evolución mucho más importante de lo que imaginamos”. Los botánicos ya han visto otros casos. Las orquídeas del género Ophrys, de la región del Mediterráneo, desarrollan híbridos con alta fertilidad. El cruzamiento entre dos pequeñas plantas con flores amarillas de Europa y de Estados Unidos, Senecio squalidus y Senecius vulgaris, originó un híbrido que atrae más polinizadores y podría generar mayor cantidad de frutos que las especies que le dieron origen. Espacios mezclados

Los animales también producen híbridos fértiles. El genetista de la Universidad Federal de Río Grande do Sul (UFRGS) Thales Freitas observó que dos especies de roedores subterráneos conocidos como tuco-tucos –la Ctenomys minutus, con 42 a 50 cromosomas, y la Ctenomys minutus C. lami, con 54 a 58 cromosomas– son capaces de cruzarse y en ciertas ocasiones generar crías fértiles. El resultado depende del origen del macho y de la hembra. Si la hembra es de la especie Ctenomys minutus y el macho un C. lami, la prole puede resultar fértil. La combinación inversa, machos de la C. minutus cruzándose con hembras de la C. lami, conduce a híbridos estériles. Ranas del bosque atlántico, del género Phyllomedusa, pasan por situaciones análogas. En la Universidad Estadual Paulista (Unesp) y en la Universidad de Porto, en Portugal, Tuliana Brunes estudia la formación de especies de Phyllomedusa, la identificación genética de los híbridos y los orígenes históricos de las zonas híbridas. Los lugares más probables en los que los híbridos pueden surgir son los espa-


tatiane noviski/ufrgs

cios que reúnen poblaciones de especies próximas de plantas y animales que anteriormente vivían separadas. “Estamos descubriendo híbridos con mayor frecuencia en las zonas de transición ecológica, los denominados ecotonos, que combinan dos tipos diferentes de vegetación y propician el encuentro de poblaciones vegetales y animales que antes se hallaban geográficamente distantes”, dice João Alexandrino, de la Universidad Federal de São Paulo (Unifesp). Años atrás, cuando se encontraba en la Universidad de California en Berkeley, Estados Unidos, Alexandrino verificó este fenómeno estudiando los híbridos fértiles resultantes del cruzamiento de especies emparentadas de salamandras de los bosques cercanos a los ríos de California. Ahora, junto a Tuliana y Célio Haddad, de la Unesp, verificó que las ranas forman híbridos donde dos formaciones del bosque atlántico, una más húmeda y otra más seca, se combinan en el interior paulista. Los híbridos de orquídeas y de tuco-tucos también se encontraron en espacios ocupados por grupos de especies que debieron convivir probablemente a causa de variaciones climáticas, que unificaron zonas antes aisladas o forzaron la migración de plantas y animales en el transcurso de miles de años. Como consecuencia de los procesos que condujeron a la separación de las especies, favoreciendo el cruzamiento o hibridación entre especies próximas, sucede que las selvas con elevada biodiversidad como en el caso del bosque atlántico, se convirtieron en “un crisol de nuevas especies en continua transformación”, según la definición de Nuno Ferrand, de la Universidad de Porto. “La riqueza en cuanto a la diversidad biológica no está dada solamente por la cantidad de especies, sino también por procesos que pueden originar las nuevas especies”, dice Clarisse Palma da Silva, del Instituto de Botánica. El mecanismo más conocido de formación de nuevas especies de animales o plantas consiste en la acumulación de mutaciones genéticas en los descendientes de una misma especie. Actualmente es evidente que nuevas especies pueden resultar también del agrupamiento de poblaciones de especies diferentes que anteriormente vivían separadas. ¿Todo resuelto? Lejos de ello. “Las reglas

Tuco-tuco: híbridos en los arenales del sur

de surgimiento y diferenciación de las especies no son del todo claras, pues la evolución es un proceso continuo, que va por caminos diferentes, durante largos períodos de tiempo”, expresó Craig Moritz, biólogo de la Universidad de California en Berkeley. Los efectos del aislamiento

Uno de los principios que subsisten desde la época de Darwin consiste en que el aislamiento favorece la diversidad genética y la diferenciación de especies, en el transcurso de miles o millones de años. Uno de los ejemplos más conocidos son las dos especies de yarará exclusivas de las islas –Bothrops insularis, que solamente habita en la isla de Queimada Grande, y la Bothrops alcatraz, de la isla de Alcatrazes, a menos de 50 kilómetros de distancia, en el litoral sur paulista– que comenzaron a diferenciarse al aislarse, cada una en su isla, hace alrededor de 18 mil años. Puede que exista mucho más escondido por ahí. Los trabajos de Ana Carolina Carnaval, bióloga brasileña actualmente en la Universidad de la Ciudad de Nueva York, indican que, en el bosque atlántico, las variaciones en el clima (del seco al húmedo) y de alturas (desde cero hasta 1.600 metros sobre el nivel del mar) a lo largo de una franja litoral de 5 mil kilómetros, favorecen el aislamiento, el surgimiento y el desarrollo de nuevas especies, con una frecuencia mayor que en la Amazonia, cuyas variaciones de

clima y relieve no son tan pronunciadas. Esas áreas aisladas que separan y protegen plantas y animales forman los denominados refugios, tramos de selva que sobrevivieron a intensas variaciones climáticas durante los últimos miles de años y condujeron a la reducción de las selvas cercanas, con la consecuente desaparición de poblaciones zoológicas que allí existían. Luciano Beheregaray, biólogo brasileño docente de las universidades Flinders y Macquarie, en Australia, verificó que Estados Unidos, el Reino Unido y Francia lideran la creciente producción científica mundial al respecto de esa área, denominada filogeografía, que conjuga análisis genéticos, geográficos, geológicos e históricos. En su estudio, Brasil, incluso siendo el país más rico en biodiversidad, ocupó el 15º puesto entre los 100 países examinados. “Podemos ir mucho más allá, realizando análisis más completos con nuestros datos, en lugar de quedarnos en las orillas”, alertó Célio Haddad. “Recabamos datos, pero son los especialistas de otros países quienes los analizan. Deberíamos ser líderes en el área, no andar a remolque.” n

Artículo científico PINHEIRO, F. et al. Hybridization and introgression across different ploidy levels in the Neotropical orchids Epidendrum fulgens and E. puniceoluteum. Molecular Ecology. v. 19, n. 18. p. 3981-94. 2010. PESQUISA FAPESP   47


eduardo cesar

_ geofísica

48   Publicada en marzo de 2011


La Tierra modelada por la gravedad

Mediciones precisas deforman la esfera perfecta vista desde el espacio

Texto

Carlos Fioravanti

L

Fotos

Eduardo Cesar

a gravedad, como ya lo hizo con Newton, continúa excitando la imaginación, y llevando a conclusiones que desorientan. Una de ellas indica que quien viaja en barco desde Ciudad del Cabo, en Sudáfrica, hasta Belén, en Pará, Brasil, recorre una imperceptible bajada. A causa de las diferencias de masa del planeta en el trayecto entre ambos lugares, y, por lo tanto, de las variaciones del campo de gravedad de la Tierra, el nivel del mar en el puerto del sur de Sudáfrica se ubica 70 metros por encima de la altura del mar registrada en el puerto de Belén. “Nadie nota ese desnivel porque la distancia entre Sudáfrica y Brasil es muy grande, de casi ocho mil kilómetros”, asegura el geofísico Eder Cassola Molina, profesor del Instituto de Astronomía, Geofísica y Ciencias Atmosféricas (IAG) de la Universidad de São Paulo (USP). “Además la superficie del mar es curva, ya que nuestro planeta tiene la forma aproximada de una esfera”, declara Molina, autor del mapa del Atlántico Sur que suministra estas conclusiones realizado el año pasado, en el marco de un concurso de libre docencia. Ahora, una versión más pequeña, en formato A4, está colgada en la puerta de uno de los armarios de su amplio laboratorio. La fuerza gravitacional expresa la atracción física entre los cuerpos y varía en consonancia con la masa. Un ejemplo cotidiano de la acción de esa fuerza es la marea oceánica, resultado de la interacción gravitacional entre la Tierra, la Luna y el Sol, que hace que la Tierra se deforme diariamente. Capaz de actuar en cualquier punto del Universo, la fuerza de la gravedad hace que

los cuerpos en caída libre en las proximidades de la superficie terrestre sufran una aceleración de aproximadamente 9,8 m/s2, o sea, su velocidad de caída aumenta 9,8 m/s por segundo. La aceleración de la gravedad varía sutilmente en cada punto de la Tierra, de acuerdo con el relieve y la densidad de las rocas de su interior, ya que la distribución de masa en la Tierra es heterogénea. De ahí se desprende un efecto interesante: “La distribución de masa de la Tierra controla el nivel en el que el agua del mar va a encontrarse en un determinado momento, pues la superficie instantánea del mar se ajusta en consonancia con el campo de gravedad. Así, tenemos altos y bajos en la superficie oceánica”, dice Molina. “El nivel del mar no es constante y varía con el tiempo y la localización geográfica. La verdad, ni tan siquiera existe un nivel del mar, sino un nivel medio o un nivel instantáneo del mar”. En uno de los ordenadores próximo a las paredes, Molina muestra otro mapa, que detalla las variaciones de altura del agua en la costa brasileña. En ese mapa, publicado en diciembre de 2010 en la revista Journal of Geodynamics, una mancha roja al nordeste de la región nordeste de Brasil representa un área en la que el agua del mar estaría 10 metros por encima de las áreas que la rodean, marcada en verde y azul. “Con un mapa de esos a mano”, dice Molina, “el piloto de un barco podría desviarse de las áreas más altas, aunque no las vea y ahorrar tiempo y combustible”. Aunque útil, esa imagen no deja de ser un desafío para la imaginación, principalmente para la de los más escépticos, que dirán que nunca han visto una ladera por la que baja el agua en medio del mar. PESQUISA FAPESP   49


nasa

Representación de la Tierra expresa fuerza de la gravedad, más intensa en las áreas en rojo

En el mar y en la tierra

Fernando Paolo, que ahora hace su doctorado en el Instituto Scripps de Oceanografía, en Estados Unidos, elaboró ese mapa en 2010, mientras Molina, que lo dirigía, preparaba el más grande. Las dos imágenes resultan de la suma de dos fuentes de información, una local y otra global. La primera son los aparatos que miden la variación del campo de gravedad, los gravímetros, instalados en boyas amarradas detrás de 300 barcos que recorrieron la costa de África y de Brasil en los últimos 30 años. La otra son medidores de la variación de la altitud del mar instalados en dos satélites, el Geosat, que la Marina de Estados Unidos lanzó en 1986, y el Satélite Europeo de Detección Remota (ERS-1), en órbita desde 1995. “Usando las dos fuentes de información, desarrollamos una metodología que nos permitió ver más, en algunas áreas, tales como la plataforma continental brasileña, que a los investigadores que estudian esa misma región usando sólo datos de satélites”, comenta Molina. La medición de las variaciones de altura del agua del mar por medio de satélite, aunque parezca extraña a los marineros novatos, puede indicar la existencia de valles o colinas en la superficie oceánica no detectados por otros métodos, ya que no todo lo que el satélite examina fue evaluado mediante estudios batimétricos, bastante caros y trabajosos. En tierra, ese tipo de nivelación, efectuado por aparatos GPS (Sistema de Posición Global), que exige un buen conocimiento 50   Publicada en marzo de 2011

del campo de gravedad, está sustituyendo a las mediciones de relieve por nivelación geométrica clásica, obtenidas por medio de equipos llamados teodolitos: cada medición indicaba las variaciones del relieve a la distancia de aproximadamente cada 100 metros, cubriendo pocos kilómetros por día. “Toda obra de ingeniería necesita datos precisos sobre altitud”, dice Denizar Blitzkow, profesor de la Escuela Politécnica de la USP. Los aparatos con los que él comenzó a medir las variaciones de la gravedad en São Paulo en los años 1970 están hoy en el futuro museo de la ingeniería civil, que se abrirá este año. Esa forma de medir variaciones asociadas al campo de gravedad, sumada a otras técnicas, indicó depósitos de petróleo en regiones del nordeste, por ejemplo. La medida de la variación de masa, y de la fuerza y aceleración de la gravedad, directamente proporcionales a esa

el Proyecto Gnss: Investigaciones y aplicaciones en el posicionamiento geodésico, en estudios relacionados con la atmósfera y en la agricultura de precisión – nº 2006/ 04008-2 modalidad Proyecto Temático Co­or­dina­dor João Francisco Galera Mônico – Unesp inversión R$ 1.279.880,42 (FAPESP)

masa, está también señalizando dónde puede haber minas o cavernas inexploradas, dilucidando detalles antes inexplicables de mapas geológicos, revelando diferencias en el espesor en la litosfera (la capa superficial de la Tierra) y, por último, mostrando cómo y dónde puede oscilar a lo largo del año la cantidad de agua de depósitos subterráneos en los grandes acuíferos. “Hasta hace pocos años”, dice Molina, quien comenzó a trabajar con gravimetría en el inicio de los años 1980, “todo eso era imposible”. La información proporcionada por dos nuevos satélites europeos, el Grace y el Goce, está detallando las variaciones del campo de gravedad desde 2003 y permitiendo la construcción de una imagen más exacta, aunque un tanto incómoda, de las formas de la Tierra. Los griegos imaginaban la Tierra como una esfera perfecta, pero esa perfección se deshizo a medida que la posibilidad de que el planeta girarse continuamente se consolidaba durante el Renacimiento. Newton afirmaba que, a consecuencia del movimiento de rotación, la Tierra sería achatada. Visto desde espacio, el planeta continúa pareciendo una esfera casi perfecta, aunque los mapas hechos con base en la aceleración de la gravedad representen una Tierra deformada, a veces asumiendo una forma que recuerda un corazón. “Los satélites están mostrando que estábamos equivocados. Con las mediciones más recientes, verificamos que la Tierra es muy poco achatada”, dice Blitzkow. La medida del eje de la Tierra en el ecuador encogió 250 metros, pasando de 6.370.388 metros en 1924 a los actuales 6.370.136,5 metros. Desde 1982 Blitzkow trabaja con equipos del IBGE en mapas de la variación del campo de gravedad en todo el territorio nacional. La versión más reciente, que incluye a otros países de América del Sur, salió en 2010, mostrando que la fuerza o aceleración de la gravedad es más pequeña en el área que comprende Ceará, un poco de los estados vecinos y la región central del país, hasta el norte del estado de São Paulo. Andes y Amazonia

Pocos días antes de la Navidad de 2010, una semana antes del plazo final, Gabriel do Nacimiento Guimarães presentó a Blitzkow la cuarta versión de un mapa más detallado, con las variaciones del campo de gravedad del estado de São Paulo, resultado de nueve mil puntos de


o -70o -60 -50o -40o -30o -20o -10o 0o 10o 20o longitud

Eder C.Molina / IAG-USP

10o

0o

-10o

-20o

latitud

-30o

-40o

Altura geoidal (m)

Variaciones de hasta 70 metros en el nivel medio del mar reflejan las diferencias del campo de gravedad de la Tierra

-40 -30 -20 -10 0 10 20 30

medición en tierra, complementados con información de los satélites Grace y del Goce. Ese estudio forma parte del doctorado de Guimarães y de un proyecto mayor, coordinado por João Francisco Galera Mônico, de la Universidad Estadual Paulista (Unesp) en Presidente Prudente, dirigido a la llamada agricultura de precisión, cuyo objetivo es conseguir las mejores condiciones de cultivo y cosecha. Los mapas geodésicos, hechos a partir de las diferencias de elementos del campo de gravedad, ocultan las diferencias de relieve. En el mapa de la altura geoidal del estado de São Paulo el relieve presenta variaciones de sólo seis metros de altura de este a oeste, sin ninguna señal de las montañas de 1.200 metros de altura próximas al litoral. En el mapa de América del Sur las regiones más altas están en los Andes, pero con sólo 40 metros por encima del nivel cero, que corresponde al de la Amazonia. El concepto de que la aceleración de la gravedad refleja la distribución de la masa ayuda a entender esas diferencias ahora tan pequeñas. “Los Andes, aunque con seis mil metros de altura, no tienen mucha más masa que Amazonia”, dice Blitzkow. “Si pudiéramos agarrar y pesar

La fuerza de la gravedad tiene ahora nuevas aplicaciones. Sólo falta descubrir de dónde viene la gravedad un cilindro de la superficie de una montaña de los Andes y otro de Amazonia, veríamos que la diferencia de peso no es tan intensa en lo que respecta a variación de altura.” En el mapa de altura geoidal de la Tierra, la cordillera del Himalaya no pasa de una pequeña colina. Construido por alemanes y norteamericanos, el Grace, abreviación de Gravity Recovery and Climatic Experiment, es un conjunto de dos satélites gemelos, separados 200 kilómetros entre sí, que fueron para el espacio en 2002. Por estar en una órbita baja, a

sólo 250 kilómetros de altura (otros satélites con funciones similares están a por lo menos mil kilómetros), éstos miden las más sutiles interferencias de montañas y valles de la Tierra sobre la trayectoria de cada uno de ellos: los equipos que van a bordo registran variaciones de milésimas de milímetros en la distancia entre ellos. El Goce, sigla de Gravity Field and Steady-state Ocean Circulation Explorer, fue construido por la Comunidad Europea y lanzado en 2009 para registrar algo complementario, la variación de los diferentes elementos del campo de gravedad en relación con tres ejes preestablecidos. La aceleración de la gravedad está constantemente conquistando nuevas aplicaciones. El origen de la gravedad, sin embargo, a diferencia de otras fuerzas, como la electricidad y el magnetismo, aún es un misterio. Nadie sabe cómo el Sol atrae a la Tierra y, en proporción más pequeña, la Tierra atrae el Sol. n Artículo científico Paolo, F.S.; Molina, E.C. Integrated marine gravity field in the Brazilian coast from altimeter-derived sea surface gradient and shipborne gravity. Journal of Geodynamics. v. 50, p. 347-54. 2010. PESQUISA FAPESP   51


_  a stronomía

Los pesos pesados del Universo Un mecanismo alternativo puede explicar la formación de estrellas de neutrones con tamaños mayores que lo normal Salvador Nogueira La Nebulosa del Cangrejo es empapada por partículas emitidas... 52   Publicada en agosto de 2011


...por una estrella de neutrones (a la derecha) que cobija su región central

nasa / jpl

I

maginemos tomar al Sol por completo y compactarlo hasta que quede del tamaño de una ciudad. ¿Algo radical? Podría serlo, pero la naturaleza continuamente produce ese mismísimo experimento cuando crea las denominadas estrellas de neutrones, uno de los cuerpos menores y más densos del Universo. Los astrónomos saben más o menos cómo sucede eso, aunque son pocos los que admiten que le falta bastante a la ciencia como para explicar lo que se avista allá afuera. Uno de los misterios que deben esclarecerse consiste en saber cómo surgen estrellas de neutrones con masa más elevada que la prevista por la teoría de formación y evolución estelar. Un grupo de investigadores de Brasil intenta aclarar el tema trayendo a la luz una hipótesis controvertida. En líneas generales, ellos sugieren que existiría más de una manera de crear estrellas de neutrones. El surgimiento de estas estrellas tiene relación con la muerte de otras con masa bastante elevada, al menos ocho veces superior a la del Sol. Para comprender lo que sucede, primero es preciso decir algunas palabras acerca de lo que los astrónomos saben sobre cómo viven y mueren las estrellas. Conformadas por gas (en su mayoría hidrógeno) y polvo concentrados, las estrellas comienzan a brillar cuando la concentración de materia es tal que los átomos de la región central de dichos cuerpos celestes comienzan a unirse, en un proceso conocido como fusión nuclear. A la transformación de dos núcleos de hidrógeno, cada uno con un protón, en un núcleo de helio,

con dos protones, la acompaña una sutil reducción de su masa total. Parte de esa masa se convierte en energía y escapa de la estrella, y de ahí proviene todo el poder de esos astros para bañar de radiación a un sistema planetario completo. Esa energía generada en el interior de la estrella compensa la fuerza gravitacional, que actúa en sentido opuesto. Sustentada por ese equilibrio, la estrella permanece con el mismo tamaño aproximado durante el transcurso de la mayor parte de su vida. Empero, al cabo de millones de años, el combustible disponible para la fusión nuclear se va agotando. Ante la falta de hidrógeno, se consumen elementos más pesados, tales como helio, carbono, oxígeno, hasta alcanzar un límite: el hierro. Ésa es la frontera final por una simple razón: la fusión de núcleos de hierro consume más energía que la que es liberada al final del proceso. En esa etapa, la producción de energía en la región central se interrumpe y la gravedad comienza a trabajar sin impedimentos, sin ninguna fuerza que compense su accionar. una Bomba cósmica

La estrella colapsa y dispara una complicada serie de eventos. El resultado final es la explosión de sus capas exteriores, durante la cual el 90% de su masa es lanzada al espacio. Lo que queda luego de ese violento episodio, conocido con el nombre de supernova, es un núcleo estelar muy compacto. Si la masa del núcleo fuera relativamente pequeña, esa compresión origina lo que PESQUISA FAPESP   53


convencionalmente se denomina estrella de neutrones, y en caso que la masa sea más elevada y la compresión continúe, se forma un agujero negro, un objeto tan denso que nada escapa a su atracción, ni siquiera la luz. Según la teoría actualmente aceptada, las estrellas de neutrones, así denominadas por presentar elevadas proporciones de partículas sin carga eléctrica (neutrones) en su interior, deberían tener todas las mismas dimensiones: una masa aproximadamente un 40% mayor que la del sol, comprimida en una esfera de menos de 20 kilómetros de diámetro. “Pero nadie sabe exactamente cuál es la masa que una estrella necesita tener en vida, para morir y generar una estrella de neutrones o un agujero negro”, sostiene el astrónomo Jorge Horvath, del Instituto de Astronomía, Geofísica y Ciencias Atmosféricas (IAG) de la Universidad de São Paulo, y coordinador de un grupo que investiga las características de las estrellas de neutrones. “Hasta hace poco tiempo se creía que todas las estrellas de neutrones respondían a ese modelo”, afirma João Steiner, otro astrónomo del IAG. “Pero el año pasado se descubrió un caso que resulta claramente mayor”. ¿El nombre del objeto? PSR J1614223, una estrella de neutrones distante a 3 mil años luz de la Tierra, descubierta por un grupo del Observatorio Nacional de Radioastronomía (NRAO), de Estados Unidos. Esta estrella, que fue presentada mediante un artículo en la revista Nature, parece poseer dos masas solares: un mamut, tratándose de objetos de esa clase. Este hallazgo obligó a la comunidad astronómica a aceptar el hecho de que existen variaciones significativas en el tamaño de las estrellas de neutrones. Y esto coincide bastante con las previsiones realizadas recientemente por el grupo de Horvath, publicadas en la edición de junio de la revista Monthly Notices of the Royal Astronomical Society. En el marco de ese trabajo, Horvath, Eraldo Rangel y Rodolfo Valentim llevaron a cabo un análisis estadístico de la masa de 55 estrellas de neutrones ya estudiadas y revelaron que existen dos modelos más comunes: uno formado por las estrellas con masa menor (alrededor de 1,37 veces la del Sol) y con poca variación, tal como se esperaba; y otro, con mayor masa, de alrededor de 1,73 veces la masa solar, y más variable. 54   Publicada en agosto de 2011

Vida y muerte de las estrellas Los astros que cuentan con una masa ocho veces superior a la del Sol brillan durante millones de años hasta agotar el combustible nuclear y explotar bajo la forma de una supernova. Las capas externas son arrojadas al espacio y el núcleo central origina una estrella de neutrones o un agujero negro

SUPERGigante

SECUENCIA PRINCIPAL

protoestrella

O

D ICLA

REC

nUBE MOLECULAR

Pero, ¿por qué existen esos dos grupos distintos? “Los resultados indican la existencia de más de un mecanismo destinado a la formación de las estrellas de neutrones”, afirma Horvath. Esta idea parece compatible con las distribuciones de estrellas de neutrones en sitios tales como los cúmulos globulares, conformados principalmente por estrellas muy viejas y con masa menor que, según la teoría, la que sería necesaria para originar estrellas de neutrones. Observaciones recientes realizadas por astrónomos de diversos países revelan que en esas regiones existen muchas más estrellas de neutrones que lo que se esperaría si ellas fuesen producto exclusivamente de la explosión de estrellas con gran masa. Las estrellas que tienen originariamente una masa ocho veces inferior que la del Sol, al colapsar, no originan estrellas de neutrones, sino otra clase de objetos: las enanas blancas, con la masa del Sol comprimida en un volumen similar al de la Tierra, y es así como el Sol terminará sus días. En algunos sistemas binarios, la enana blanca, por acción de la gravedad, roba la masa de su estrella

lOs Proyectos 1 La materia hadrónica y QCD en astrofísica: supernovas, grbs y estrellas compactas nº 2007/ 03633-3 2 Investigación de fenómenos astrofísicos de altas energías y altas densidades nº 2008/09136-4 modalidad 1 Proyecto Temático 2 Joven Investigador Co­or­di­na­dores 1 Jorge Horvath – IAG/USP 2 German Lugones - UFABC inversión 1 R$ 154.250,00 (FAPESP) 2 R$ 91.207,65 (FAPESP)

compañera hasta alcanzar un límite que la induce a un nuevo colapso. Este evento es otra explosión y produce un tipo específico de supernova, denominada Ia, en la cual la masa de toda la estrella es lanzada violentamente al espacio. Pero algunos astrónomos sugieren que eso puede suceder de manera distinta. En


supernova

Agujero negro

Remanente de la supernova

lugar de convertirse en una supernova, el rápido incremento de masa haría que una enana blanca se transformase en una estrella de neutrones. “Es una idea que nos inquieta desde hace 20 años y hay quienes la rechazan”, dice Horvath. “Pero también están los que dicen que funciona. Resulta difícil imaginar una alternativa mejor para explicar de qué modo ciertas estrellas de neutrones fueron a parar adonde se encuentran”. Existen datos recientes que complican el escenario al indicar que existen estrellas de neutrones de masa inferior a la del Sol, las cuales no se formarían por colapso. La respuesta definitiva aún no apareció, pero es casi seguro que el futuro de las investigaciones pasará por reformulaciones en las teorías acerca de cómo surgen y cómo se comportan las estrellas de neutrones. Por fuera y por dentro

Y si existen dudas acerca de su tamaño y su masa, la cosa no resulta nada sencilla cuando se trata de la composición de las estrellas de neutrones. El nivel

estrella de neutrones

de compactación de estos objetos es tan elevado –la densidad de una estrella de neutrones es mayor que la del núcleo de los átomos y 100 billones de veces la del agua– que la materia puede aparecer bajo formas que no se encuentran en ningún otro lugar del Universo. Con densidades mayores que la del núcleo atómico, partículas tales como los protones y los neutrones se disgregan en sus unidades fundamentales: los quarks, que, por lo general, nunca se encuentran aislados. Resulta difícil conciliar esas previsiones con las observaciones, pero se cree que esas condiciones existen en ciertas estrellas de neutrones, que albergarían en su zona central una sopa de quarks. En la Universidad Federal del ABC, en la localidad de Santo André, Región Metropolitana de São Paulo, el grupo de Germán Lugones está realizando cálculos y simulaciones que indican de qué modo diferentes composiciones internas de esos astros afectarían a la masa, el radio, la evolución y otras propiedades. Uno de los resultados a los que arribó el equipo indica que cier-

tos fenómenos que surgen cuando la materia se encuentra bajo la forma de quarks –tal como la transición hacia un estado superconductor– explican naturalmente la existencia de estrellas de masas bastante mayores que la clásica 1,4 veces la masa solar. Por tal motivo, el descubrimiento de la PSR J1614-223 representó una importante señal de que pueden hallarse en el sendero correcto. Lugones cree que una versión más radical de las estrellas de quarks –una estrella extraña o estrella de quarks autounida, en la que todo el astro estaría compuesto por esas partículas– debe considerarse como candidata en casos en los cuales se observen estrellas con masa incluso mayor que la de la PSR J1614-223. “En concordancia con estudios teóricos realizados durante los últimos años por nuestro grupo, la densidad necesaria para que las partículas de materia se disgreguen en quarks es entre 5 y 10 veces mayor que la densidad del interior de un núcleo atómico”, afirma Lugones, haciendo hincapié en que esas densidades pueden ser perfectamente alcanzadas en el centro de las estrellas de neutrones de mayor masa. Si eso sucede, nadie lo sabe. Aún hay lagunas, tanto en la comprensión de la física que sustenta esos procesos como al respecto de las propiedades observables en las estrellas de neutrones. Manuel Malheiro, investigador del Instituto Tecnológico de la Aeronáutica y colaborador de Horvath y Lugones, se encuentra desde 2010 en la Universidad de Roma, donde investiga la composición y otras características de otra clase especial de estrellas de neutrones: las magnetares o magnetoestrellas, que presentan un elevado campo magnético. Todavía se necesita avanzar en la teoría y en las observaciones para que, eventualmente, se arribe a un cuadro más cohesionado. Lo único cierto es que existen problemas interesantes en lo que atañe a estos astros, que, accidentalmente, constituyen laboratorios ideales para el estudio de las propiedades más extremas de la materia. n Artículo científico VALENTIM, R. et al. On the mass distribution of neutron stars. Monthly Notices of the Royal Astronomical Society. v. 414 (2), p. 1.427-31. Jun 2011. PESQUISA FAPESP   55


_  f ísica {

Vecindario inquieto Desarrollan una estrategia que permite evaluar la interacción magnética entre las nanopartículas Ricardo Zorzetto

S

ueli Hatsumi Masunaga y Renato de Figueiredo Jardim, físicos de la Universidad de São Paulo (USP), idearon una estrategia relativamente sencilla para medir un fenómeno que afecta al almacenamiento y la transmisión de las informaciones registradas en medios magnéticos, tal como es el caso de los discos rígidos (HD) de las computadoras. De tener factibilidad comercial esta forma de evaluar las características del material que compone la memoria magnética de las computadoras, sería posible producir, con el mismo material utilizado actualmente, discos rígidos con capacidad de almacenamiento hasta cinco veces superior a la actual. Se estima que el HD de una computadora común, que registra las informaciones en láminas de pequeñas partículas de cobalto (Co), cromo (Cr) y platino (Pt), recubiertas por un material aislante, almacena 200 gigabytes de datos en una superficie comparable con la de una caja de fósforos. “Si se optimizara la fabricación de ese componente, la misma superficie sería capaz de albergar 1 terabyte”, afirma Jardim, director del Instituto de Física (IF) de la USP. La ampliación del poder de almacenamiento de ese material, cuya composición y capacidad exactas, comúnmente no son divulgadas por la 56   Publicada en febrero de 2011

industria, depende del control de la influencia que las nanopartículas ejercen unas sobre otras, un fenómeno del mundo atómico que recibe el nombre de interacción dipolar, porque las nanopartículas se comportan como diminutos imanes (dipolos magnéticos). “Esa interacción, cuya intensidad aumenta al reducirse el espacio entre las partículas, ocurre igualmente en distancias consideradas grandes en el mundo nanométrico”, cuenta Sueli. Cuando se presiona la tecla enter de una computadora para guardar, por ejemplo, un archivo de texto, una pequeña bobina (el cabezal de lectura) que flota a décimas de millonésima de milímetro del disco rígido, convierte pulsos eléctricos en magnéticos orientando el campo magnético de las nanopartículas en un determinado sentido o en su opuesto, girado 180 grados. La orientación de ese campo magnético –imaginemos una flecha apuntando hacia arriba o hacia abajo- funciona como unidad de información: el bit, representado por los números 0 y 1. Una vez accionado el comando para guardar la información, una larga secuencia de ceros y unos es codificada con la orientación magnética de las nanopartículas, que no se ve alterada cuando la máquina se apaga. Para aumentar la capacidad de almacenamiento de este tipo de memoria, creada en los años 1950


Muccillo. El níquel, naturalmente magnético a temperatura ambiente, tal como el hierro (Fe) y el cobalto (Co), es un metal modelo para el estudio de las propiedades magnéticas. En el laboratorio, Sueli mezcló un ácido (cítrico), un alcohol (etilenglicol) y una sal (nitrato de níquel) y calentó el líquido a 80 grados Celsius hasta que se transformase en un gel, al que luego llevó al horno a 300 grados durante tres horas. La resina que se formó fue triturada y calentada nuevamente, ahora en una atmósfera de nitrógeno, para eliminar impurezas. El resultado fue la formación de nanopartículas esféricas de níquel inmersas en una matriz de carbono y óxido de silicio. Cada partícula, con cinco nanómetros de diámetro en promedio, es en realidad un conglomerado de casi 6 mil átomos dispuestos en forma de cubos que se comporta como si fuera un sólo dipolo. Interacción

Ordenamiento en 3D de los átomos de níquel a temperatura ambiente

el Proyecto Estudio de fenómenos íntergranulares en materiales cerámicos – nº 2005/ 53241-9 modalidad Proyecto Temático Co­or­dina­dor Reginaldo Muccillo – Ipen/SP inversión R$ 945.914,22 (FAPESP)

por IBM, se requiere acomodar un número mayor de partículas en una misma superficie. Pero eso es complicado, entre otros factores, debido a la interacción bipolar. A medida que las nanopartículas se tornan más próximas, los campos magnéticos generados por ellas interactúan entre sí hasta que, dependiendo de la distancia, provocan la inversión del sentido de las nanopartícula, o, tal como dicen los físicos, flipan. Y, en ese caso, flipar es sinónimo de inestabilidad, lo cual ya no resulta deseable para el almacenamiento de la información. Jardim y Sueli propusieron durante enero, en Applied Physics Letters, una manera de eludir el problema. La sugerencia es utilizar dos conjuntos de características del material para estipular a partir de qué punto se torna relevante la interacción dipolar. El primer conjunto, de índole estructural, toma en cuenta el tamaño de las partículas y la distancia entre ellas. La otra medida es la susceptibilidad magnética, la respuesta del material a la influencia de un campo magnético. La pareja arribó a esa estrategia investigando el comportamiento de un material contenido en las nanopartículas de níquel sintetizado por Sueli, como parte de un proyecto temático de la FAPESP coordinado por el físico Reginaldo

Al aumentar la concentración de níquel, que varió entre 1,9% y 12,8% en la masa del compuesto, Sueli observó en el microscopio electrónico que la distancia entre las nanopartículas disminuyó de 21 a 11 nanómetros. Simultáneamente, la susceptibilidad magnética reveló una mayor interacción entre las partículas. A partir de cierta distancia, la susceptibilidad magnética dejó de ser descrita en la forma esperada para las partículas independientes, señal ésta de que los campos magnéticos de las nanopartículas comenzaron a interferir unos sobre otros. “La interacción dipolar adquirió relevancia en distancias menores a 14 nanómetros”, cuenta Sueli, quien describió los resultados en un artículo publicado en Physical Review B de 2009 y en otro que será publicado en el Journal of Applied Physics. Un HD que contuviera nanopartículas que estuviesen tan próximas entre sí, se comportaría como una memoria con Alzheimer: podría perder la información inmediatamente después de adquirirla. “Esta característica que torna al material impropio para el almacenamiento de datos puede resultar interesante para fenómenos que no requieran la preservación del estado, como en el caso de la transmisión de información”, comenta Jardim. Según el físico, la estrategia puede aplicarse en cualquier material, lo cual puede atraer el interés de la industria. “El método podría implementarse como protocolo para monitorear la construcción de memorias magnéticas de computadoras y testear su calidad”, dice. n Artículo científico MASUNAGA, S.H. et al. Increase in the magnitude of the energy barrier distribution in Ni nanoparticles due to dipolar interactions. Applied Physics Letters. v. 89. Ene. 2011. PESQUISA FAPESP   57


tecnologia _bioquímica

Jugo de caña en biocélulas Una alternativa energética para producir electricidad

fotos eduardo cesar

Marcos de Oliveira

58   Publicada en abril de 2011


E

La biocélula con jugo de caña es sometida a medición en el laboratorio de la UFABC

l jugo de caña de azúcar, ese aliado de los pasteles salados fritos de las ferias libres callejeras en Brasil, es un firme candidato a producir energía eléctrica en unas pequeñas cajas plásticas destinadas funcionar como baterías de celulares, reproductores de MP3 o incluso notebooks. Estos dispositivos, en los cuales los azúcares del guarapo actúan como combustible, y que llevan el nombre de biocélulas, constituyen una de las promesas más recientes surgidas en el campo de las fuentes energéticas alternativas. En 2007, la empresa Sony mostró uno de esos prototipos –existen varios en el mundo– alimentado con glucosa, destinado a abastecer de energía a un pequeño reproductor de música. Además de los azúcares, pueden utilizarse otros combustibles: etanol, metanol y agua de alcantarillado. En lo atinente al jugo de caña, la primera demostración estuvo a cargo de un grupo de investigación de la Universidad Federal del ABC (UFABC), con sede en la ciudad de Santo André, Región Metropolitana de São Paulo. La producción de electricidad a base de jugo de caña fue posible merced a la síntesis de una enzima en laboratorio que potencia la reacción química encargada de convertir el azúcar en electricidad. Las biocélulas de combustible han surgido con una creciente importancia científica y tecnológica en los últimos años. Las publicaciones de es-

tudios referentes a dichos dispositivos treparon desde comienzos de los años 1990. De los cinco artículos que salieron en revistas científicas en 1989 a los 240 publicados en 2010, de acuerdo con un trabajo de la profesora Adalgisa de Andrade, del Departamento de Química de la Facultad de Filosofía, Ciencias y Letras de la localidad paulista de Ribeirão Preto, de la Universidad de São Paulo (USP). Son estudios normalmente realizados en asociación entre diversas instituciones. Adalgisa, por ejemplo, desarrolla biocélulas que se valen del etanol como combustible, y mantiene una colaboración con la profesora Chelley Minteer, de la Universidad de Utah, Estados Unidos, coordinadora de un grupo que ya ha producido varios trabajos en el área. Frank Nelson Crespilho, coordinador del Grupo de Materiales y Métodos Avanzados de la UFABC que utiliza el jugo de caña en sus biocélulas, mantiene colaboraciones con la Universidad de Corea del Sur, la Universidad de Grenoble, Francia y, en el ámbito del Instituto Nacional de Ciencia y Tecnología de Electrónica Orgánica (Ineo), con la Universidad Federal de Piauí. Uno de los focos de estos estudios relacionados con las biocélulas de combustible es la potencia, que aún es muy baja, lo que se transforma en un obstáculo para su implementación comercial. La biocélula elaborada en la UFABC, con jugo de caña PESQUISA FAPESP   59


Biocélula con membrana

Electrodos con microorganismo y enzima inmersos en jugo de caña y solución Ánodo e-

Cátodo e-

O 2 ó h 2O 2

e-

CO2 eTela de carbono con Saccharomyces cerevisiae

Tela de carbono con enzima H+

Membrana de intercambio de protones

H+ H 2O

Jugo de caña

y la nueva enzima, genera 60 milivatios (mW) por centímetro cuadrado (cm2) operando con una tensión de 0,39 voltios (V), lo que representa un 26% del voltaje de una pila tipo AAA, de 1,5 V. “Puede aumentarse el voltaje poniendo varias células a funcionar en serie”, afirma el profesor Frank Crespilho, coordinador del estudio. Ésa fue la fórmula hallada por Sony en su prototipo que generó 1,5 milivatio por cm2 y 0,8 V en total. El experimento de la empresa contó con el apoyo científico del profesor Kenji Kano, de la Universidad de Kioto, Japón. La carrera tecnológica actual apunta precisamente a aumentar la potencia y el tiempo de funcionamiento de estos artefactos, que supera actualmente las 10 horas. Otras vertientes de los estudios tienen que ver con la generación de energía a partir de los desagües, al extraer electrones de la materia orgánica, y con la miniaturización que haría posible la instalación de estas células en el propio organismo humano. El combustible en ese caso, en lugar de ser el jugo de la caña de azúcar, podría ser la propia glucosa de la sangre. “Uno de los actuales retos con relación a las biocélulas de combustible consiste en ponerlas en microchips; elaborar una microbiocélula o una nanobiocélula implantable y que funcione como una batería de marcapasos, para liberar medicamentos en el organismo o para detectar niveles de glucosa”, dice el profesor Crespilho, quien, a los 32 años, es también jefe de la División de Propiedad Intelectual del Núcleo de Innovación Tecnológica de la UFABC. Para medir corrientes muy bajas en biocélulas extrema60   Publicada en abril de 2011

Solución fisiológica

damente pequeñas, Crespilho y su equipo desarrollaron un software y compraron un aparato destinado a eliminar los ruidos de los cables de artefactos electrónicos y tratar las señales del ambiente, con financiamiento de la FAPESP. Alta eficiencia

Las biocélulas funcionan de manera análoga a una batería, convirtiendo energía química en electricidad y en forma muy parecida a lo que sucede en las células de combustible que producen energía eléctrica –artefactos ya fabricados a pedido por algunas empresas, incluso en Brasil– con el hidrógeno como principal combustible. Son aparatos que normalmente poseen más de cinco kilovatios de potencia, lo

lOS PROyecTOS 1 Interacción entre biomoléculas y sistemas celulares con nanoestructuras OD, 1D, 2D utilizando métodos electroquímicos nº 2009/ 15558-1 2 Desarrollo de una biocélula de combustible utilizando enzimas alcohol dehidrogenasa inmovilizadas por automontaje nº 2008/ 05124-1 modalidad 1 y 2 Ayuda Regular a Proyecto de Investigación Co­or­dina­dores 1 Frank Nelson Crespilho – UFABC 2 Adalgisa Rodrigues de Andrade – USP inversión 1 R$ 92.262,80 y US$ 50.821,57 (FAPESP) 2 R$ 73.622,30 y US$ 29.031,76 (FAPESP)

Inyección de jugo de caña en la biocélula

suficiente como para abastecer con electricidad cómodamente a una casa para cuatro personas. Las biocélulas de combustible que están en la fase de investigación científica y tecnológica constituyen una promesa de producción de energía eléctrica alternativa porque, a ejemplo de sus primas mayores, tienen una alta eficiencia energética, pues gastan poco combustible en la conversión de energía en comparación con los motores de gasolina o gasoil, por ejemplo. Todo esto de manera silenciosa y sin dejar gran cantidad de gases o residuos contaminantes. La ventaja que se vislumbra con es­­os pequeños aparatos radica en el aspecto biológico presente en los catalizadores, de origen orgánico, producidos con enzimas o microorganismos. Éstos promueven la reacción química necesaria para la producción de electricidad, en lugar del platino de las células de combustible, que es muy caro, por ejemplo. De esta forma, el equipo coordinado por Crespilho logró desarrollar una enzima sintetizada bajo la forma de un compósito formado por nanoestructuras de oxihidróxidos de hierro y un polímero orgánico llamado polidialidimetilamonio (PDAC), que se aplica en el cátodo, uno de los polos de un sistema electrolítico, es decir, una batería, que produce o deja fluir los electrones, en este caso extraídos de los azúcares del jugo de la caña, del lado del ánodo (vea en la ilustración). Otra mejora del grupo fue el uso de poliamida en la estructura de la célula, un producto barato y elegido casi que por casualidad en la visita a una fábrica de plásticos de Santo André.


Sin membrana

Una solución con electrodos y enzimas produce electricidad Ánodo

e-

Cátodo

e-

h 2O 2

ee-

Glucosa Enzima Glucosa Oxidasa

Enzima artificial: Nanopartículas de óxido de hierro estabilizadas en polímero orgánico

Ácido glucónico

Solución fisiológica

Para entender este estudio bioelectroquímico, al cual, debido a la adopción de compuestos nanotecnológicos se le ha dado en llamar nanobioelectroquímica, es necesario recordar que las células de combustible –y también las bio– requieren elementos oxidantes y reductores para perder y ganar electrones. En las células se instala una membrana polimérica llamada membrana de intercambio de protones, emparedada entre los lados del ánodo y el cátodo de la biocélula. Como la corriente es continua, los electrones fluyen hacia el otro lado, y son recibidos en el otro polo. En la membrana pasan únicamente los átomos sin electrones, los protones. Crespilho también estudia biocélulas sin membranas entre ambos polos. “En ese caso, producimos una biocélula en la cual los electrodos se sumergen en una solución con glucosa, agua, peróxido de hidrógeno (H2O2), más conocido como agua oxigenada, y dos tipos de enzima, una glucosa oxidasa y la otra que es nuestra enzima con nanopartículas de óxido de hierro. Esa biocélula mostró su eficacia con una mayor velocidad en la reacción electroquímica que algunas que figuran en la literatura”, dice Crespilho. “La enzima sintética que desarrollamos mimetiza un mecanismo natural de enzimas del tipo de las peroxidasas. De este modo, mientras se extraen los electrones de los azúcares para el ánodo, otros electrones se inyectan en el cátodo y la enzima sintética acelera la rotura de las moléculas de peróxido de hidrógeno”. De acuerdo con los investigadores,

H 2O

una enzima biomimética es más barata, estable y eficiente que las naturales. El trabajo desarrollado por el alumno de doctorado Marccus Victor Martins consistió en envolver el óxido de hierro en una capa del polímero orgánico sintetizado en forma de agujas. La enzima inmovilizada sobre un electrodo que contiene fibras de tela de carbono es sumergida en un medio salino, con el jugo de caña y otros aditivos que forman el ambiente natural de la enzima. “El problema mayor es mantener la estabilidad de la misma durante más de 10 horas. Si la enzima se degrada, la corriente cae”, dice Crespi­ lho, quien encabeza el grupo desde hace tres años en la universidad inaugurada hace cinco años. Sin perturbar

Los experimentos del grupo de Crespilho también abarcan otra posibilidad ubicada en el mundo de las biocélulas: el uso de microorganismos tales como la levadura Saccharomyces cerevisiae, la misma presente en la fermentación del etanol, del pan y la cerveza. “Son microorganismos que digieren el azúcar”, dice Crespilho. “La mayor dificultad consiste en extraer electrones sin perturbar o matar a la Saccharomyces”. Mediante una serie de estrategias químicas, los investigadores lograron tanto mantener al microorganismo como producir electricidad con éste inmovilizado en un electrodo de carbono. De acuerdo con la literatura científica, más de 20 microorganismos, principalmente bacterias, se han utilizado con éxito en experimentos con biocélulas.

El uso de electrodos con microorganismos no se encuentra en el campo de estudios de la profesora Adalgisa de Andrade, de la USP de Ribeirão Preto, quien escribió un artículo en el cual efectúa un resumen de las actividades relacionadas con las biocélulas enzimáticas en todo el mundo en 2010. Andrade desarrolla biocélulas que emplean etanol como combustible, compuestas por enzimas que rompen el alcohol, como las deshidrogenasas presentes incluso en el hígado para la digestión de bebidas alcohólicas. El más reciente resultado del grupo que ella lidera es el desarrollo de ánodos con nanoestructuras inmovilizadas, que contienen polímeros orgánicos y deshidrogenasas más estables, con mayor densidad de corriente eléctrica y que funcionan hasta 90 días. “Hicimos un trabajo de mezcla de enzimas y polímeros y los pusimos encima de la superficie de carbono preparada para recibir electrones, además de orientar esas capas para que el electrodo se vuelva más estable y con una potencia mayor”, dice Adalgisa, quien contó durante los estudios con la colaboración de la posdoctoranda Juliane Forti. Con estos nuevos arreglos, su grupo logró que una biocélula con una potencia de 0,28 milivatios por cm2 funcionase con etanol. Adalgisa y Frank Crespilho forman parte de un selecto grupo de investigadores que heredaron el desarrollo de las biocélulas del profesor Michael Potter, de la Universidad de Durham, en el Reino Unido, quien en 1912 demostró la producción de electricidad con bacterias Escherichia coli en un sustrato orgánico. La primera biocélula elaborada únicamente con enzimas surgió más de 50 años después, en 1964, de la mano de un grupo de investigadores de la empresa Space-General Corporation, de California, Estados Unidos. Es un largo camino que, al cabo algunos años más, podrá resultar en una nueva alternativa energética. n Artículos científicos 1. Martins, M.V.A.; Bonfim, C.; Silva, W.C.; Crespilho, F.N. Iron (III) nanocomposites for enzyme-less biomimetic cathode: A promising material for use in biofuel cells. Electrochemistry Communications. v.12, n.11, p. 1.509-12. 2010. 2. Aquino Neto, S.; Forti, J.C.; Zucolotto, V.; Ciancaglini, P.; De Andrade, A. R. Development of nanostructured bioanodes containing dendrimers and dehydrogenases enzymes for application in ethanol biofuel cells. Biosensors and Bioelectronics. v. 26, p. 2.922-26. 2011. PESQUISA FAPESP   61


_Energía

Vinaza alternativa El residuo de la producción del etanol puede utilizarse para elaborar biodiesel texto

Marcos de Oliveira

Fotos

Eduardo Cesar

62   Publicada en agosto de 2011


leo ramos

L

a combinación de microalgas y vinaza para producir biodiesel constituye un reto para la empresa paulistana Algae Biotecnologia. Y la novedad en este caso es la utilización de la vinaza, puesto que la producción de biodiesel a partir de algas es algo que ya hacen algunas empresas de Estados Unidos. El residuo de la producción del etanol se caracteriza no sólo por el fuerte mal olor que exhala, sino también por contener riqueza en sales minerales, principalmente potasio, y poseer altos tenores de materia orgánica con elevada acidez. También denominada vinhoto o restilo en Brasil, se convirtió a mediados de los años 1970 en la villana del Proalcohol, el programa gubernamental que dio como resultado la utilización del etanol como combustible. Desechada como efluente en ríos y lagunas, produjo mortandad de peces y contaminó las aguas, afectando a las napas freáticas de algunas localidades. A partir de 1978, normas y leyes específicas a nivel federal y estadual, elaboradas principalmente por la Compañía de Tecnología para el Saneamiento Ambiental (Cetesb) del estado de São Paulo, obligaron a los productores a darle un destino ambiental correcto y comercialmente interesante al residuo. La solución consistió en utilizarlo como abono en las propias plantaciones de caña. Desde entonces, la vinaza es rociada por medio de tuberías de irrigación, en un proceso denominado fertiirrigación, o bien transportada

en camiones para su aplicación directa en los cultivos. Esto constituye un sólido escenario para la industria sucroalcoholera, pero el volumen crece en forma descomunal. Por cada litro de etanol se producen al menos 10 litros de vinaza. En 2010 se produjeron 25 mil millones de litros de etanol y consecuentemente, más de 250 mil millones de litros de vinaza resultantes de la destilación del vino obtenido en el proceso de fermentación del jugo de caña. Tamaño volumen demanda alternativas y otros tipos de utilidad aparte de la fertilización. Pero, a contramano de esos usos y apuntando a una producción de etanol más rentable en algunos grandes establecimientos a los que les insume grandes gastos el transporte de la vinaza, ha surgido un nuevo proceso destinado a disminuir la cantidad del residuo mediante el aumento del tenor alcohólico en la etapa de fermentación, desarrollado por la empresa Fermentec, de Piracicaba, en el interior paulista. “Debido a ese aumento, es posible reducir la producción de vinaza a la mitad”, dice el ingeniero agrónomo Henrique Amorim, socio de Fermentec y profesor jubilado de la Escuela Superior de Agricultura Luiz de Queiroz (Esalq) de la Universidad de São Paulo (USP). Pero aun disminuyendo el volumen de vinaza, todavía sobran anualmente más de 160 mil millones de litros. Una materia prima que podrá utilizarse para la producción de aceite de microalgas para la fabricación de biodiesel, un proceso que ya

PESQUISA FAPESP   63


Una elección acertada

En Algae, cultivo experimental de algas

se ha mostrado eficaz en los laboratorios de Algae. “Hemos obtenido excelentes resultados y ahora el desafío es hacer el escalonamiento de la producción de aceite, en plantas piloto hasta 2012, y luego realizar pruebas en una refinería en 2013 y 2014”, expresa Sergio Goldemberg, gerente técnico de la empresa. El aceite se extrae de la biomasa que se forma por la multiplicación de las microalgas cultivadas en la vinaza. Éstas consumen el nutriente del líquido y se multiplican. Algunas especies duplican su propia población en tan sólo un día. Para la extracción del aceite se requiere de un sistema de centrifugado que separa los lípidos (grasas) de la biomasa. A continuación el material pasa por un secador y el aceite se extrae mediante técnicas mecánicas o químicas. El tenor de lípidos de la biomasa de microalgas llega a un 30%, frente a un 18% de la soja o hasta un 40% del piñón manso (Jatropha curcas). Las microalgas incluso presentan otra gran ventaja. Su productividad puede llegar a los 40 mil kilogramos de aceite por hectárea (kg/ha), mientras que la soja llega a 3 mil kg/ha y el piñón manso a 3.500 kg/ha. También puede decirse a favor de las microalgas que el CO2 producido por las centrales durante la fermentación, que es absorbido por la propia plantación de caña, puede utilizarse para la producción de biomasa, dado que estos microorganismos nece64   Publicada en agosto de 2011

sitan CO2 para desarrollarse. La proteína sobrante del proceso puede emplearse en alimento balanceado para la piscicultura, con lo cual representaría una ganancia adicional para los productores. Para obtener biodiesel, cualquier tipo de aceite, incluso el de las microalgas, atraviesa un proceso de transesterificación, que es una reacción química entre un tipo de alcohol –metanol o etanol– y un lípido que resulta en biodiesel.

Goldemberg explica que ahora los investigadores involucrados en el proyecto pretenden llevar adelante estudios y desarrollar soluciones con miras a mejorar la eficacia de todo el sistema. La búsqueda comienza con la elección de las microalgas o cianobacterias, unos seres similares a las algas. “Estamos investigando muchas especies, principalmente las que viven en agua dulce”, dice Goldemberg. “Después realizamos una selección para conocer cuáles se adaptan mejor a la vinaza y producen biomasa microbiana con alto contenido de lípidos”, dice el profesor Reinaldo Bastos, del Centro de Ciencias Agrarias, en la ciudad de Araras, perteneciente a la Universidad Federal de São Carlos (UFSCar), colaborador en las investigaciones en Algae, en conjunto con un grupo encabezado por el profesor Eduardo Jacob-Lopes, de la Universidad Federal de Santa Maria, en Rio Grande do Sul. “Ya contamos con alrededor de 20 especies, muchas recolectadas en su ambiente y que están siendo testeadas en cultivos con vinaza”, dice Bastos. La vinaza funciona como un medio de cultivo para el desarrollo y la multiplicación de las microalgas. En experimentos realizados en otros países, fundamentalmente en Estados Unidos, las empresas que cultivan algas necesitan agregar sales

La ruta hasta el biodiesel La vinaza producida en el ingenio se transforma en biomasa debio a la acción de las algas

Vinaza

Alga

biomasa

Aceite


minerales y nutrientes al agua durante el proceso productivo. “Nosotros contamos con ventajas en relación con ellos porque poseemos un residuo realmente económico para utilizar en la producción”, dice Goldemberg. En Estados Unidos son varias las empresas que utilizan algas para producir biocombustibles, incluso bioquerosén de aviación, aunque todavía no en escala comercial, como es el caso de Solazyme, que cuenta con inversiones de la gigante Chevron, del área del petróleo y energía, Algenol, que coopera con la empresa Dow3, y Sapphire, con inversiones de Cascade, una empresa propiedad de Bill Gates, de Microsoft, aparte de la Fundación Rockefeller. Todas ellas también son financiadas por el Departamento de Energía de Estados Unidos. Los estudios iniciales para el uso de las algas en la producción de biocombustibles empezaron en los años 1980, en el National Renewable Energy Laboratory (NREL), de Estados Unidos. “Pero en aquella época el problema energético y el exceso de CO2 no eran importantes”, dice Goldemberg, quien es ingeniero agrónomo y trabajó con vinaza en refinerías de etanol antes de fundar Algae. La oleada de proyectos, principalmente en empresas de Estados Unidos, con apoyo gubernamental, comenzó en los años 2000. “Podríamos haber replicado lo que se hace allá, aunque todavía no existan productos a la venta, pero decidimos seguir nuestras propias ideas y avanzar por un nuevo camino con respecto a la vinaza”, dice Goldemberg, quien es hijo del profesor de la Universidad de São Paulo (USP), ex ministro de Educación y ex secretario de Medio Ambiente del Estado de São Paulo, José Goldemberg. Algae recibe financiación para la investigación

el Proyecto Selección de levaduras en procesos de fermentación con alto tenor alcohólico para la reducción de vinaza y con ahorro energía nº 09/ 52427-2 modalidad Investigación Innovadora en Pequeñas Empresas (Pipe) Co­or­dina­dor Henrique Amorim – Fermentec inversión R$ 202.923,42 y US$ 135.310,28 (FAPESP)

“Identificamos los genes relacionados con la capacidad del organismo para mantenerse activo en una alta concentración alcohólica”, dice Márcio Silva Filho, de la USP

por parte de la Financiadora de Estudios y Proyectos (Finep), en el marco de un proyecto del Programa Subvención Económica, por un monto de 2,5 millones de reales, y con un segundo proyecto, del Banco Nacional de Desarrollo Económico y Social (BNDES), del Fondo de Tecnología (Funtec), que se lleva adelante con la UFSCar, por valor de 3,2 millones de reales, durante tres años, y que recibió también 400 mil reales de la empresa. Algae fue creada en el año 2007 y desde 2009 es una joint-venture con el Grupo Ecogeo, un conglomerado de empresas que se desempeña en las áreas de consultoría e ingeniería ambiental que facturó 50 millones de reales en 2010. Levadura alcohólica

La producción de biodiesel a partir de la vinaza también puede evitar mayores gastos al productor de etanol que necesita bombear o trasladar lejos ese residuo transformado en abono, además de aportar mayores utilidades con el producto final. La propuesta de la empresa Fermentec para disminuir la producción de vinaza a la mitad puede redundar en un ahorro para los productores. “El traslado hasta 35 kilómetros de distancia desde el lugar de producción de la vinaza solventa el abono, principalmente el cloruro de potasio, que generalmente es importado. Más allá de esa distancia resulta perjudicial”, dice Amorim, de Fermentec. El

proyecto de la empresa consiste en aumentar hasta un 16% el tenor alcohólico en la etapa final de la fermentación –en lugar del valor promedio del 8%–, la etapa en la que las levaduras de la especie Saccharomyces cerevisiae se encargan de transformar el azúcar en alcohol. Después, en la fase de destilación, el alcohol es separado de la vinaza. La empresa, que tiene una facturación de 10 millones de reales al año, selecciona linajes de Saccharomyces desde 1990 y es responsable por alrededor del 80% de las levaduras utilizadas en las centrales del país. Desarrolla desde hace seis años estudios en relación con la temperatura en el proceso de fermentación y principalmente en la selección de esos microorganismos. A tal fin, reunió a investigadores tales como los profesores Luiz Carlos Basso y Márcio de Castro Silva Filho, de la Esalq, y Pio Colepicolo, del Instituto de Química de la USP, además de Boris Stambuck, de la Universidad Federal de Santa Catarina. Bajo la coordinación de Silva Filho, y con financiación del Consejo Nacional de Desarrollo Científico y Tecnológico (CNPq), se realizó un estudio destinando a comprender de qué modo las levaduras se adaptan al alto tenor alcohólico de la fermentación. Mediante el análisis de los 6 mil genes expresados de esas levaduras, fue posible reconocer a aquéllos relacionados con esa capacidad del organismo para mantenerse saludable en una alta concentración alcohólica. “Ya hemos detectado una serie de genes, y a largo plazo podremos introducir o modular la expresión de esos genes en las familias de levaduras”, dice Silva Filho. Para seleccionar nuevas levaduras que actúen en una alta concentración alcohólica, Fermentec se encuadró en 2009 en un proyecto del Programa de Investigación Innovadora en Pequeñas Empresas (Pipe) de la FAPESP. “Queremos hallar mejores levaduras que las actuales y que puedan actuar en un 18% de tenor alcohólico, para su utilización en un nuevo proceso de fermentación”, dice Amorim. Se realizó un estudio exitoso en Usina da Pedra, en el municipio paulista de Serrana. Mediante la fermentación realizada con el 16%, se pudo concretar un ahorro estimado en 7 millones de reales por zafra con la vinaza en esa central. “Ya estamos listos para comercializar el proceso”, dice Amorim. n PESQUISA FAPESP   65


_inmunización

La multiplicación de las vacunas El Instituto Butantan desarrolla tecnologías destinadas a elevar la producción y reducir los costos texto

Fabrício Marques

Ilustraciones

66   Publicada en julio de 2011

Nelson Provazi


leo ramos

C

on capacidad para producir 20 millones de dosis, la fábrica de vacunas contra la gripe del Instituto Butantan comenzó a funcionar integralmente en marzo y asegurará la autosuficiencia de Brasil con respecto a la prevención contra el virus influenza para los ancianos en 2012. En un horizonte de entre tres y cinco años, el país podrá incluso convertirse en exportador de vacunas contra la gripe. Dos tecnologías desarrolladas por los investigadores del Butantan prometen ampliar la producción. Eso sin ser necesaria la expansión de la planta, que había sido inaugurada en 2007, pero sólo recientemente fueron validados sus procesos, y sin ser necesaria una mayor cantidad de materia prima. Cada dosis requiere el uso de un huevo de gallina fecundado para la reproducción de los virus, lo que convierte a la fábrica en consumidora de 20 millones de huevos por año. Una de las tecnologías permite aislar el virus completo, con todas las proteínas de su interior. Actualmente, la vacuna contra la influenza aprovecha una proteína del virus, la hemaglutinina A. El resto de las proteínas son descartadas, aunque también brinden protección y sufran menos mutaciones que la hemaglutinina A. “Cuando elaboramos esa nueva vacuna, descubrimos que la producción por huevo aumentaba, según

el serotipo del virus, entre dos y siete veces”, dice Isaias Raw, investigador del Instituto Butantan. La segunda tecnología, ya patentada por el instituto, llevó al aislamiento de una sustancia adyuvante, el monofosforil lípido (MPLA), que intensifica la reacción inmunológica del organismo al estimular la producción adecuada de anticuerpos o linfocitos. Ya se han creado otras sustancias de este tipo, pero resultan costosas o no son accesibles, El MPLA, curiosamente, constituye un subproducto de otra línea de investigación del Instituto Butantan, que fue el desarrollo de un nuevo tipo de vacuna contra el coqueluche [tos ferina o convulsa], considerada más segura debido a la remoción de lipopolisacáridos (LPS) de la bacteria que originaban reacciones inflamatorias y tóxicas. “Convertimos kilos de LPS en MPLA, que, en pequeñas cantidades, permite aumentar la respuesta de varias vacunas, haciendo posible que puedan ser utilizadas en dosificaciones menores”, dice Isaias Raw. Test realizados con ratones revelaron que el MPLA permite proteger contra el virus influenza utilizando un cuarto de la dosis actual. Ese efecto ya fue demostrado también en seres humanos. La sustancia está siendo probada contra varias enfermedades. El Butantan comprobó que el MPLA posee poten-

cial para su uso en vacunas contra la leishmaniasis en los perros, rompiendo así un eslabón en la transmisión de la enfermedad que puede resultar mortal para los humanos. También es objeto de investigaciones por parte del Instituto Ludwig, en Nueva York, para potenciar el efecto de una vacuna contra el cáncer de ovario, y por parte de un grupo de investigadores de Ribeirão Preto, para una vacuna contra la tuberculosis. “Próximamente, también será evaluada en una vacuna contra la hepatitis B que actualmente resulta ineficaz en personas mayores de 50 años, que aguardan trasplante de hígado o riñones”, dice Isaias Raw. Al amplificar la respuesta inmunológica, el MPLA también la torna menos específica, ya se han detectado casos en los que una vacuna contra la gripe también inmunizó contra otros serotipos. El MPLA es barato. “Podemos producir MPLA en mil millones de dosis con un costo de centavos. Eso hace que Brasil se encuentre protegido frente a la presión de las grandes empresas, que no quieren vender el adyuvante, sino la vacuna lista”, afirma el investigador. Los resultados, que dependen de nuevos ensayos clínicos antes de llegar a la línea de producción, fueron publicados en la revista Vaccine, en un artículo firmado por Raw, Cosue Miyaki, Wagner Quintilio y Eliane Miyaji, entre otros investigadores PESQUISA FAPESP   67


del Butantan. “Las investigaciones del laboratorio no culminan con la publicación del artículo, sino con la producción de vacunas para atender a la población”, expresa Isaias Raw. El Instituto Butantan considera que ambas tecnologías cuentan con potencial para aumentar la capacidad de producción de la planta de los actuales 20 millones a 160 millones de dosis de la vacuna. Tal crecimiento, aparte de la realización de ensayos clínicos, dependerá naturalmente de las condiciones del mercado, que ha variado bastante durante los últimos años. La fábrica fue concebida en 2004, cuando existía la amenaza de la gripe aviar. La enfermedad, causada por la cepa H5N1 del virus, tuvo brotes en 2005 que diezmaron a miles de aves y llegaron a infectar a algunas personas en Vietnam, Tailandia, Indonesia y Camboya. En aquella época, un antiguo edificio del Instituto Butantan fue convertido en laboratorio piloto destinado a comenzar la producción de la vacuna en menor escala. Simultáneamente, se obtuvo financiación por parte del estado de São Paulo para la construcción de la fábrica y del Ministerio de Salud para la importación de equipamientos. La tecnología para la producción de la vacuna fue transferida por el laboratorio Charles Merieux, ac68   Publicada en julio de 2011

La OMS evalúa que se exageró la alarma sobre la letalidad del H1N1, aunque en la época disparó una articulación para ofrecer vacunas

tualmente con el nombre Sanofi-Pasteur, y está basada en la reproducción del virus en huevos gallados. El panorama se transformó radicalmente en 2009, con el surgimiento del virus H1N1, causante de la denominada gripe porcina. Éste apareció en Estados Unidos, infectó a miles de mexicanos y rápidamente se convirtió en una pandemia. Las cepas eran parecidas a las del influenza de 1918, causante de la denominada gripe española, que mató a 40 millones de personas. En común, ambos virus afectaban principalmente a jóvenes, niños y mujeres embarazadas, un público que hasta entonces, no era objeto de campañas de vacunación. De improviso, la demanda de inmunización aumentó 10 veces. Actualmente, la Organización Mundial de la Salud (OMS) evalúa que la alarma en relación con la letalidad del H1N1 fue sobredimensionada, pero en esa época movilizó una articulación para ofrecer vacunas. “La OMS mandó preparar una vacuna y la cedió a los productores, incluyendo el Butantan. No habría vacuna para todos, pero el acuerdo entre el Butantan y Sanofi aseguró la prioridad para adquirir las vacunas fabricadas en el exterior y permitió inmunizar alrededor de 80 millones de personas”, dice Isaias Raw. Incluso antes de la aplicación de las nuevas tecnologías, el Butantan vislumbra la posibilidad de exportar vacunas contra la gripe a países del hemisferio norte. Actualmente la producción de la


Marcelo Vigneron

estado de São Paulo, del Ministerio de Salud y de la Fundación Butantan. “Esas cifras resultan irrelevantes frente a los dos millones de reales que ahorra Brasil al no necesitar comprarle el producto a los laboratorios internacionales”, afirmó Jorge Kalil, director general del Instituto Butantan, en un artículo publicado en el periódico Folha de São Paulo. “Ese gigantesco avance científico tecnológico nos ha convertido ahora en el único país de América Latina que produce vacunas contra el influenza”. Alianza global La producción de la vacuna se basa en el uso de huevos gallados

fábrica exhibe una marcada estacionalidad. La fabricación comienza alrededor de septiembre, cuando la OMS define cuáles son los tres tipos de virus de la gripe que prevalecen en ese período y les transfiere las muestras a los fabricantes. En el caso del Butantan, la producción se agiliza hasta el mes de abril, cuando comienza la vacunación; y la planta permanece parada el resto del año. “Es en ese período que podríamos producir la combinación de vacunas para el hemisferio norte y proveérsela a la población que reside por encima de la línea del ecuador, tanto en Brasil, como en países tales como Venezuela, Colombia y Guayanas”, comenta Isaias Raw. “En la actualidad, la inmunización llega atrasada a esas regiones y no es realmente eficaz”.

“Ese gigantesco avance nos convirtió en el único país en América Latina que produce vacunas contra el influenza”, afirmó Jorge Kalil

Virus y embrión

La fábrica tardó siete años para estar lista porque fue necesario superar una serie de etapas y obstáculos. Además de cuestiones burocráticas relacionadas con la elección de la constructora y con la importación de equipamientos especiales tales como las ultracentrifugadoras, también fue preciso desarrollar una máquina que destruye el sobrante de los huevos, luego de separar el líquido repleto de virus que baña al embrión. Ese material debe reducirse a un polvo, para ser transportado con seguridad e incinerado, evitando que sirva de alimento para aves y otros animales, pues bastarían algunos virus vivos para propagar la enfermedad. “Se trata de un proceso bastante complejo, que cuenta con una técnica específica para inyectar la cepa

del virus en cada huevo, separar el jugo del virus, purificarlo y repurificarlo, y prodigar un tratamiento ecológicamente correcto al material descartado”, dice Hernan Chaimovich, superintendente de la Fundación Butantan. Como la vacuna inmuniza contra tres tipos de influenza, la producción se concentra en una cepa por vez. Antes de pasar al próximo virus, la planta necesita parar durante algunos días y llevar a cabo un riguroso proceso de desinfección. Recién este año, Sanofi, al verificar la producción de los primeros lotes, testificó que la fábrica fue validada dentro de las reglas de la Comunidad Europea. Las inversiones para la ejecución del proyecto sobrepasaron los 100 millones de reales, con aportes del gobierno del

La capacidad de producción de vacunas por parte de instituciones públicas brasileñas llamó la atención de la Fundación Bill y Melinda Gates, que también ha establecido contactos con instituciones en otros países. El año pasado, el Butantan recibió la visita de Tachi Yamada, presidente del Programa de Salud Global de la fundación, interesado en conocer la capacidad de producción de la institución paulista. La entidad filantrópica del dueño de Microsoft busca colaboradores para la producción de vacunas a bajo costo que serían donadas a países en desarrollo. Recientemente se formalizó una propuesta de colaboración con el Butantan, el Serum Institute de la India y el Bio-Manguinhos, de la Fundación Oswaldo Cruz (Fiocruz), de Río de Janeiro. Esa cooperación tiene como objetivo la producción de alrededor de 30 millones de dosis de una vacuna pentavalente, contra difteria, tétano, coqueluche, hepatitis B y hemophilus B (causante de la meningitis y otras enfermedades). El Butantan entregó una propuesta para la provisión de 100 millones de dosis con un costo de 1,50 dólares cada una, para entregar en 2014, y aguarda la respuesta. La articulación entre la Fundación Bill y Melinda Gates y la Alianza Global para Vacunas e Inmunización (Gavi, su sigla en inglés) ya produjo efectos notables en la búsqueda de nuevos proveedores. El mes pasado, cuatro gigantes farmacéuticas, GSK, Merck, Johnson &Johnson y Sanofi-Aventis acordaron vender a la Gavi vacunas contra la diarrea y rotavirus a precios de costo. La reducción en el precio alcanza a un 70%. Y dos empresas indias, Serum Institute y Panacea Biotec, se comprometieron con la provisión del pentavalente cobrando 1,75 dólares la dosis. n PESQUISA FAPESP   69


James Gathany / CDC

70   Publicada en febrero de 2011


_biotecnología

Una solución genética En la ciudad de Juazeiro, en Bahía, soltarán mosquitos transgénicos para combatir el dengue Evanildo da Silveira

P

La eliminación de las hembras en la fase de la larva constituye una estrategia que comienza a probarse

ara los animales, el acto sexual es el camino hacia la perpetuación de la especie. Pero ese objetivo primordial se está se invirtiendo en el caso del Aedes aegypti, el mosquito transmisor del dengue. Mediante la manipulación genética, una población de machos criados en laboratorio recibió un gen modificado que produce una proteína que mata a la prole producto del cruzamiento con hembras normales existentes en cualquier ambiente. Esta estrategia puede redundar en la eliminación de un gran número de individuos de la especie, con la consiguiente disminución de la fumigación con insecticidas destinados a matar a los mosquitos y, por otro lado, en una merma de la incidencia de la enfermedad entre los seres humanos. La primera liberación en la naturaleza de estos insectos genéticamente modificados en Brasil fue aprobada en diciembre de 2010 por la Comisión Técnica Nacional de Bioseguridad (CTNBio). La acción de suelta del linaje transgénico del Aedes aegypti, desarrollado por la empresa británica Oxford Insect Tecnologies (Oxitec), se llevará a cabo en la ciudad de Juazeiro, estado de Bahía. La bióloga Margareth Capurro, del Instituto de Ciencias Biomédicas (ICB) de la Universidad de São Paulo (USP), en asociación con la empresa Moscamed Brasil, instalada en dicha ciudad bahiana, será la responsable de la operación. El dengue es uno de los principales problemas de salud pública en el mundo, especialmente en los países tropicales como Brasil. De acuerdo con la Organización Mundial de la Salud (OMS), 50 millones de personas contraen la enfermedad anualmente, lo que causa 550 mil internaciones hospitalarias y 20 mil muertes. En la actualidad, la única forma de

controlarla es mediante la eliminación de su transmisor, el mosquito Aedes aegypti. Los insectos transgénicos desarrollados por Oxitec podrán convertirse en una opción para esa tarea. Los machos del linaje OX513A, tal la denominación que le dio al mismo la empresa, son liberados para copular con hembras silvestres. Los descendientes de esos apareamientos heredan la proteína letal y mueren en la fase de larva o crisálida. Para que su producción sea posible en laboratorio, fueron programados para sobrevivir cuando reciben el antibiótico tetraciclina. Sin ese antídoto, que reprime la síntesis de la proteína letal, no habría sobrevivientes para soltarlos en la naturaleza. La cepa transgénica contiene un marcador genético fluorescente que se vuelve visible en las larvas cuando reciben luz ultravioleta. Esto asegura un mayor control de la calidad de la producción y de la dispersión en campo. La liberación continua y en cantidades suficientes de estos insectos genéticamente modificados en ambientes infestados haría que, con el tiempo, se reduzca la población de mosquitos silvestres a un nivel ubicado por debajo del necesario como para transmitir la enfermedad. La historia del trabajo de Margareth con estos mosquitos empezó en un encuentro casual, durante una conferencia en 2007, con el científico británico Luke Alphey, de la Universidad de Oxford, fundador de Oxitec. Alphey le propuso que probase en Brasil los transgénicos que él había desarrollado. En esa oportunidad, la investigadora brasileña estimó que el experimento no sería factible, debido obstáculos burocráticos y legales. Pero poco después cambió de idea y resolvió llevarlo adelante. Y fue entonces que solicitó la autorización de la CTNBio, encargada de la reglamentación de transgéPESQUISA FAPESP   71


Danilo Carvalho-ICB / USP

eduardo cesar

nicos en el país, para importar los insectos. “La importación fue concedida el día 21 de septiembre de 2009”, recuerda Margareth. “Una semana después recibimos, proveniente de Oxitec, y sin cargo, un sobre con 5 mil huevos”. La investigadora empezó enseguida a criar Aedes aegypti transgénicos en el insectario de su laboratorio del ICB. Pero, para soltarlos y probarlos en la naturaleza, debería criarlos masivamente. Asimismo, también sería necesario contar con un lugar adecuado, aislado y con incidencia de mosquitos silvestres para su liberación. Fue entonces cuando el ex profesor de la USP y fundador de Moscamed, Aldo Malavasi, se ofreció para producir los mosquitos transgénicos en su biofábrica y le sugirió soltarlos allí mismo, en caseríos aislados de Juazeiro. Y Margareth aceptó la propuesta. Para ponerla en práctica, se suscribió un convenio entre la empresa y la USP. Moscamed tampoco está cobrando el trabajo. “Con esas pruebas, ganamos en visibilidad y capacitación técnica, al tiempo que podemos contar con una alternativa para el control de esos insectos”, justifica Malavasi. Su empresa tiene experiencia en la cría masiva de insectos. Produce machos estériles por irradiación de cobalto de la mosca de la fruta del Mediterráneo (Ceratitis capitata) y de la mosca bichera o gusanera (Cochliomyia hominivorax), que se sueltan en las plantaciones de frutas de la región de Juazeiro y en Petrolina, Pernambuco, en el valle del río São Francisco, para competir con los machos silvestres por las hembras. Insectos en masa

Cuando se produce la cópula, no nacen nuevas moscas. Con el tiempo, las poblaciones de esos insectos disminuyen. “Como criamos insectos masivamente desde 72   Publicada en febrero de 2011

hace ya algún tiempo, llegaremos con esta experiencia y la infraestructura de Moscamed a la multiplicación de mosquitos transgénicos”, explica Malavasi. “Para eso hemos construido un laboratorio destinado a trabajar con transgénicos que ya fue aprobado por la CTNBio.” El equipo de Moscamed seleccionó los sitios favorables para las pruebas de campo en la región de clima semiárido de los alrededores de Juazeiro. “Son cinco barrios aislados por plantaciones, caminos o áreas despobladas, con alta incidencia de Aedes aegypti”, comenta Margareth. “En un solo tanque de agua de una casa encontramos alrededor de 300 larvas del mosquito”. La investigadora menciona otra ventaja de los lugares escogidos. “Debido a la actuación de Moscamed en la zona, la población local está acostumbrada a la liberación de insectos en el ambiente”, explica. “Por eso no demostrará recelo por los mosquitos que vamos a liberar”. En este sentido, Margareth hizo hincapié al decir que solamente se soltarán machos, que no pican y no transmiten la enfermedad. Con la autorización de la CTNBio en manos, el próximo paso consistirá en la realización de un estudio de dispersión, a los efectos

el Proyecto Promoción de la mortalidad en Aedes aegypti infectados con el virus del dengue nº 08/ 10254-1 modalidad Ayuda Regular a Proyecto de Investigación Co­or­di­na­dora Margareth Capurro – USP inversión R$ 347.263,34 (FAPESP)

Larvas de Aedes transgénicos con marcador genético fluorescente

de evaluar el tamaño de las poblaciones locales de Aedes aegypti. Esto es necesario para calcular cuántos transgénicos deberán soltarse. Margareth explica que por cada macho silvestre deben liberarse entre 5 y 10 transgénicos. La investigadora no espera una disminución significativa de las poblaciones silvestres ante las primeras liberaciones de insectos producidos en laboratorio. “Para que eso suceda, se hace necesario que se suelten transgénicos durante al menos dos veranos”, explica. A juzgar por los resultados obtenidos en otros lugares del mundo en donde se soltaron mosquitos producidos por Oxitec, existen buenos motivos para esperar que la experiencia tenga éxito en Brasil. Pruebas realizadas el año pasado en las Islas Cayman, en el Caribe, con 3 millones de mosquitos genéticamente modificados, mostraron que se registró una supresión del 80% de la población salvaje en el sitio donde se realizó la liberación. En Malasia se registraron resultados similares. Esto motiva a otros países a realizar también experimentos con los transgénicos de la empresa británica. Oxitec informa en su sitio web que Francia, la India, Singapur, Tailandia, Estados Unidos y Vietnam han aprobado la importación de insectos. El camino elegido por Oxitec para desarrollar mosquitos genéticamente modificados es tan sólo uno de los varios conocidos en el mundo. Un ejemplo de ello fue dado a conocer a comienzos de 2010, merced a un artigo publicado en


eduardo cesar

la revista científica Proceedings of the National Academy of Sciences (PNAS), firmado por un equipo de científicos internacionales que incluye al biólogo brasileño Osvaldo Marinotti, ex investigador de la USP y actualmente profesor de la Universidad de California de Irvine (UCI), Estados Unidos. En lugar de criar machos de la especie Aedes aegypti que le dejan una herencia genética mortal a sus descendientes, desarrollaron una hembra transgénica que es incapaz de volar. Para ello se valieron de una diferencia natural entre los sexos. Quedan los machos

Los músculos que sustentan la capacidad de volar son más fuertes en las hembras. No se sabe exactamente por qué, pero se supone que esto se deba al hecho de que son los mosquitos del sexo femenino los que chupan la sangre de otros animales, incluido el hombre, y cargan los huevos. Las hembras transportan así más peso y por eso requieren más fuerza en sus alas. A nivel genético esa diferencia se explica, ya que los músculos que dan impulso al vuelo de las hembras dependen de una proteína llamada actina 4, que es codificada (producida) por un gen mucho más activo en ellas que en los machos. Los machos poseen ese mismo gen, pero menos expresado. Y tienen otro tipo de actina que actúa en los músculos responsables del vuelo. A sabiendas de esto, los científicos proyectaron un gen que produce una sustancia tóxica para la actina 4, que impide que esa proteína, presente en las células de los músculos del vuelo, desempeñe su función. El resultado de ello son hembras que se desarrollan normalmente hasta la fase de larva, pero que al llegar a adultas, son incapaces de volar. Por eso no logran salir del agua y se mueren sin reproducirse ni alimentarse de sangre. Y así, no dejan descendientes ni transmiten el dengue. Los machos transgénicos logran volar, pero eso no ocasiona problemas, pues no se alimentan de sangre, sino de néctar y jugos vegetales. También siguen siendo activos sexualmente y se cruzan con las hembras silvestres, y así le pasan a su descendencia el gen que impide que los mosquitos del sexo femenino vuelen. Otras líneas de desarrollo de mosquitos transgénicos constituyen el foco de los estudios de la propia profesora Margareth. Una para el transmisor de la malaria y otra para el del dengue. En

Aedes: el macho, a la izquierda, es inofensivo. La hembra transmite el dengue

El uso de mosquitos transgénicos lleva a una disminución del empleo de insecticidas. Así, los insectos dejan de adquirir resistencia a esos venenos

el primer caso, ella extrae un gen de garrapata, que es responsable por la producción de un péptido, un fragmento de proteína que es antimicrobiano, llamado microplusina. “Este gen es alterado para luego insertárselo a un mosquito”, explica la investigadora. “Una vez en el genoma del insecto, pasa a producir microplusina, que elimina al protozoo Plasmodium, el microrganismo unicelular agente de la malaria, antes que sea transmitido al ser humano.” En el caso del mosquito de la dengue, en el marco de un proyecto financiado por la FAPESP, Margareth manipula el genoma del insecto de manera tal que, cuando la

hembra transgénica es infectada por el virus del dengue, al alimentarse con sangre, se producen proteínas que aceleran el proceso de muerte celular (apoptosis), que causa también la muerte del propio insecto. “La presencia del virus del dengue desencadena la activación de la proteína inductora de la apoptosis ocasionando la muerte celular en todos los tejidos de los mosquitos infectados, llevando a la hembra a la muerte, lo que resulta en un 100% de bloqueo de la transmisión viral”, explica Margareth. Para insertar esos mosquitos transgénicos en la naturaleza existen algunas técnicas de introducción génica que se están testeando. Una de ellas recibe el nombre de Medea, porque induce mediante sistemas biotecnológicos la muerte de crías no transgénicas producto del cruzamiento de hembras normales con machos con genoma manipulado. “Solamente la prole que carga el transgen sobrevive. La introducción del transgen en una población de mosquitos, vía Medea, se produce en tan sólo ocho generaciones.” Si las investigaciones y el tiempo muestran que esas estrategias de empleo ingeniería genética para crear mosquitos transgénicos son eficientes para controlar enfermedades como el dengue y la malaria, se contará también con otra ventaja. Esa forma de control disminuirá la necesidad de uso de insecticidas y larvicidas. A corto plazo, estos venenos pueden ser más baratos, pero con el tiempo los insectos adquieren resistencia a ellos. Por eso el uso de mosquitos transgénicos y estériles parece constituir una buena opción para el futuro. n PESQUISA FAPESP   73


_Envases inteligentes

Una lámina protectora Un nuevo material les muestra a los consumidores la existencia de hongos en los alimentos texto

Evanildo da Silveira

Fotos

Eduardo Cesar

74   Publicada en mayo de 2011


pH + básico

pH básico

pH neutro

pH ácido

L

a tradicional mandioca o yuca, originaria del sudoeste de la Amazonía y consumida en Brasil mucho tiempo antes de la llegada de los portugueses –era la base de la alimentación de los indígenas–, tiene ahora nuevas y avanzadas funciones tecnológicas. Películas plásticas biodegradables elaboradas con el almidón de este vegetal podrán usarse en la producción de un tipo de envase activo, capaz de inhibir el crecimiento de hongos, o inteligente, que cambia de color cuando un alimento comienza a echarse a perder. El polímero también está probándose en cirugías cardíacas, tanto para revestir implantes venosos y otorgarles mayor resistencia en la fase inicial como para la liberación de fármacos. Los estudios que desembocaron en las películas plásticas elaboradas con almidón de mandioca, un polisacárido cuya función principal consiste en almacenar la energía producida por la fotosíntesis, empezaron en 2004 en la Universidad de São Paulo (USP). Las películas que desarrolla el grupo de investigación coordinado por la profesora Carmen Cecília Tadini, del Laboratorio de Ingeniería de Alimentos del Departamento de Ingeniería Química de la Escuela Politécnica de la USP, tienen en común el añadido de glicerol en su composición, una sustancia plastificante conocida comercialmente como glicerina. El glicerol, un subproducto de la fabricación del biodiesel, tiene un bajo costo. Son tres tipos de películas plásticas los estudiados. Cada uno se caracteriza según las sustancias presentes en su composición: dos contienen na-

nopartículas de arcilla que las dotan de resistencia. En el caso de la película antimicrobiana, los aceites esenciales de clavo de olor y canela poseen principios activos que actúan contra los microorganismos. Pruebas realizadas en laboratorio con el polímero que contiene dichas esencias mostraron que el mismo es capaz de impedir el crecimiento de los hongos. “En la actualidad a esos microorganismos se los combate con sustancias antifúngicas aplicadas en el producto envasado”, comenta Carmen. “En los ensayos realizados con las películas que desarrollamos constatamos que esa capacidad se mantiene durante un lapso de hasta siete días.” Uno de los retos que los investigadores tuvieron que afrontar para producir esa película consistió en determinar la dosificación exacta de las esencias de clavo de olor y canela que deberían entrar en su composición. De usarse una dosificación alta, el olor fuerte y característico de esas especias podría pasar a los alimentos envasados, en tanto que, de ser demasiado pequeña, no tendría eficacia a la hora de evitar el crecimiento de los microbios. El reto de resolver este problema le cupo a la doctoranda Ana Cristina de Souza, quien realizó una pasantía en el Laboratorio de Alta Presión y Tecnología Supercrítica de la Universidad de Coimbra, en Portugal, donde aprendió a dominar la técnica que comprende el empleo de dióxido de carbono en estado supercrítico para incorporar los aceites esenciales a los polímeros. Souza explica que el estado supercrítico se alcanza cuando la temperatura y la presión de una sustancia se ubican arriba de su punto crítico, lo PESQUISA FAPESP   75


Una película rosa que contiene extracto de uva en su composición, y una transparente, que contiene canela

que sucede cuando se llega a una determinada presión y el equilibrio entre el líquido y el vapor deja de existir. La sustancia en este estado tiene importantes aplicaciones en procesos de extracción y separación química. El segundo plástico se elabora sobre idéntica base que el primero, con almidón de mandioca, glicerina y nanopartículas de arcilla. Lo que lo diferencia es el cuarto elemento de su composición, que es un extracto rico en antocianinas, componente natural de las frutas rojas o moradas como la uva, el asaí, el guapurú y la mora, por ejemplo. “La característica de las antocianinas que aprovechamos en nuestro trabajo es su capacidad de cambiar de color a medida que cambia su pH”, explica Carmen. “Como la alteración del pH es una de las primeras señales indicativas de que un producto alimenticio está empezando a deteriorarse, nos valemos de eso para producir una película destinada a embalajes inteligentes, que cambia de color cuando el alimento empieza a echarse a perder. Una paleta de colores en el envase puede indicarle al consumidor si el producto está en buen estado o no.” En lo que hace al tercer polímero, las pruebas se realizan junto al equipo del profesor José Eduardo Krieger, director del Laboratorio de Genética y Cardiología Molecular del Instituto del Cora76   Publicada en mayo de 2011

zón (InCor), de la Facultad de Medicina de la USP. El plástico se emplea con el objetivo de mejorar la eficacia de los injertos venosos utilizados en las cirugías de revascularización miocárdica, más conocidas como bypass, o puentes de safena en Brasil. La película utilizada tiene nanopartículas de arcilla en su composición, porque la idea es que, con el tiempo, el organismo del paciente la absorba. Además del almidón de yuca y del glicerol, contiene una sustancia llamada carboximetilcelulosa (CMC), un polisacárido extraído de la celulosa cuya función consiste en mejorar las propiedades mecánicas del plástico. Resistencia natural

En las cirugías de bypass, cuando se extrae un fragmento de vena safena de la pierna para ponerla en el corazón y que funcione como arteria, la necesidad de resistencia es mayor si se la compara con la de su función natural. Krieger explica que la velocidad del flujo y la presión de la sangre circulante en las venas son menores que en las arterias. Por eso la pared de las primeras es más delgada. Cuando una vena, como en el caso de la safena, es implantada en el corazón, sufre una alteración brusca de función y debe adaptarse rápidamente a su nuevo rol. La comprensión acerca de cómo esto funciona y qué sucede cuando una vena se “arterializa” es el objetivo de esta línea de investigación de Krieger en el InCor. “Queremos saber qué genes y que proteínas están involucrados en ese proceso”, explica.

Una vez entendido esto, se podrá pensar en nuevas intervenciones destinadas a mejorar el desempeño y dotar de mayor durabilidad al bypass. Krieger explica que la pérdida de los implantes venosos llega al 50% al cabo de 10 años; es como si la “garantía expirase en la mitad de los casos”. El trabajo del equipo apunta a la búsqueda de una alternativa destinada a extender ese plazo. A tal fin, la película que desarrolló Carmen con su equipo está siendo sometida a pruebas en dos funciones. En la primera, se la usa para envolver, es decir, para revestir externamente al implante venoso, dotándolo así de una mayor resistencia y sustentación en las fases iniciales posteriores a la cirugía. Luego la vena arterializada adquiere sustentación propia. Y la película pierde su función, con lo cual la absorción por parte del organismo se vuelve ventajosa. En la segunda función, la película es empleada como plataforma destinada a liberar drogas o sustancias. “Si descubrimos los genes o las proteínas involucrados en la arterialización, que la hacen diferente en cada paciente, podremos interferir en el proceso con fines terapéuticos”, dice Krieger. “De este modo, si un gen aparece más activo de lo que debería, podremos desactivarlo con drogas, por ejemplo”. Para que la película desarrollada por Carmen pueda desempeñar esa función, debe estar impregnada con drogas, de la misma manera que los otros plásticos los están con sustancias antimicrobianas o que la hacen cambiar de color. Por ahora, las pruebas en el laboratorio de Krieger se realizan in vitro con segmentos vasculares y con células, y en modelos experimentales, utilizando ratas. Más adelante, los experimentos podrán hacerse en conejos y cerdos.

El proyecto Envase activo biodegradable a base de fécula de mandioca y aditivos naturales comestibles: elaboración, caracterización y evaluación - nº 2005/ 51038-1 Modalidad Ayuda Regular a Proyecto de Investigación Coordinadora Carmen Cecilia Tadini – USP Inversión R$ 85.401,19 y US$ 58.250,00 (FAPESP)


Las películas desarrolladas en la USP van impregnadas con distintos tipos de sustancias, de acuerdo con la función que desempeñarán

El proyecto de desarrollo de la película que hace las veces de envoltorio de las venas del corazón es más reciente. Se inició en 2009, durante el doctorado de Helena Aguiar y con financiamiento del Consejo Nacional de Desarrollo Científico y Tecnológico (CNPq). Cuenta con la participación del grupo de investigadores del Instituto de Química de São Carlos, de la USP, encabezado por el profesor Douglas Franco. El trabajo que está más adelantado es el de desarrollo del plástico con propiedades antimicrobianas que empezó en 2004. “Nos encontramos en la fase de viabilizar la producción a escala industrial”, revela Carmen. Este proyecto contó con financiación de la FAPESP. Para el desarrollo de la película inteligente, el grupo obtuvo becas del CNPq y de la Coordinación de Perfeccionamiento del Personal de Nivel Superior (Capes). Homogéneo y biodegradable

La evolución de la integración de las nanopartículas de arcilla a los plásticos contó con el trabajo de la doctoranda Otilia de Carvalho, quien realizó una pasantía en la Universidad de Estrasburgo, en Francia, más precisamente en el Laboratorio de Ingeniería y de Polímeros y Altas Tecnologías (Lipht, sigla en francés). “Mi principal objetivo durante la pasantía fue elaborar una película a base de almidón nanocompuesto con arcilla y plastificado con glicerol”, comenta. “Como existe una baja compatibilidad entre el almidón y la arcilla autóctona,

Envase inteligente para uvas que cambia de color cuando se deterioran

probé con dos modificaciones y obtuve materiales mucho más homogéneos.” En un estudio dado a conocer en abril por el Instituto Fraunhofer, de Alemania, también se muestra la utilización de películas que cambian de color cuando alimentos tales como carnes y peces se encuentran deteriorados. En esta investigación, llevada adelante por la profesora Anna Hezinger, se emplearon sensores químicos en envases plásticos que responden a las aminas, moléculas presentes en el deterioro de las carnes, y cambian el color de la película que envuelve al producto. Anna contó con financiamiento del Ministerio de Educación e Investigación alemán, y ahora busca socios en la industria a los efectos de producir los sensores químicos para los envases. En cuanto a los plásticos biodegradables en general, es un campo que se encuentra en desarrollo en el mundo. Existen actualmente muchas de esas películas en producción en varios países, tales como Japón, Estados Unidos, Holanda y Brasil. Se las elabora a partir de varias fuentes, tales como mandioca, maíz, papa, soja y celulosa. En Brasil se está produciendo en escala piloto –a partir del azúcar de la caña– un plástico biodegradable con propiedades similares a las del polipropileno. Este producto, llamado Biocycle, fue desarrollado en colaboración entre el Instituto de Investigaciones Tec-

nológicas (IPT) y el Centro de Tecnología de la cooperativa Copersucar (CTC) a comienzos de los años 2000. “Hoy en día la tecnología de producción se encuentra consolidada”, dice el gerente administrativo Eduardo Brondi, de la empresa PHB que produce el bioplástico. “Toda la producción se destina al desarrollo y a las pruebas de aplicaciones, junto a innumerables socios en todo el mundo”. Entre esas aplicaciones se cuentan piezas de automotores, juguetes, vasos y cubiertos. De acuerdo con un estudio de la European Bioplastics, una asociación creada en 2006 y que representa a los fabricantes, los procesadores y los usuarios de bioplásticos y polímeros biodegradables y sus derivados, en 2007, según el dato más reciente disponible, la capacidad de producción mundial de bioplásticos equivalía a alrededor del 0,3% de la producción mundial de plásticos, derivados principalmente de fuentes petroquímicas. Se estima que la producción de bioplásticos será de 2,33 millones de toneladas en 2013 y de 3,45 millones de toneladas en 2020. n Artículos científicos 1. KECHICHIAN, V.; DITCHFIELD, C.; VEIGASANTOS, P.; TADINI, C.C. Natural antimicrobial ingredients incorporated in biodegradable films based on cassava starch. LWT - Food Science and Technology. v. 43, p. 1.088-94. 2010. 2. VEIGA-SANTOS, P.; DITCHFIELD, C.; TADINI, C.C. Development and evaluation of a novel pH indicator biodegradable film based on cassava starch. Journal of Applied Polymer Science. v. 120, p. 1.069-79. 2011. PESQUISA FAPESP   77


WILSON PEDROSA / AGÊNCIA ESTADO / AE

78   Publicada en mayo junio de de2011 2011


 humanidades _  DEMOGRAFÍA

La metrópolis móvil El perfil migratorio de São Paulo lleva la impronta del vaivén y la internacionalización Márcio Ferrari

E

s un hecho razonablemente conocido que la Región Metropolitana de São Paulo no es más un gran polo de absorción de migrantes internos y externos, rol que desempeñó durante la mayor parte del siglo XX. Durante la primera década del siglo XXI se registró un significativo saldo negativo entre los que entraron y los que salieron. Llegaron 100 mil personas y partieron 800 mil solamente hacia el interior del estado. Pero lo que no es tan conocido es el nuevo perfil migratorio que esas cifras esconden de algún modo. El flujo ya no se explica debido a la dinámica de la industria y del empleo formal que antes atraía a los nuevos pobladores. La gran novedad es el fenómeno de la reversibilidad, es decir, las permanencias tienden a acortarse y el movimiento se caracteriza por idas y venidas, además de los regresos definitivos. La descripción minuciosa de estas nuevas configuraciones demográficas, sus implicaciones y desdoblamientos, es la tarea del Observatorio de Migraciones del Núcleo de Estudios de la Población (Nepo) de la Universidad Estadual de Campinas (Unicamp), financiado por la FAPESP y coordinado por Rosana Baeninger, docente del Departamento de Sociología del Instituto de Filosofía y Ciencias Humanas (IFCH), también de la Unicamp. El proyecto tiene un alcance cronológico extenso –de 1880 a 2010– y una perspectiva interdisciplinaria, lo que hace que nuevos estudios temáticos –que actualmente totalizan 16– surjan a medida que las investigaciones avanzan. “Nuestro objetivo es que cada investigador logre develar procesos que los grandes núme-

ros no muestran”, dice Rosana. “Tenemos el desafío de buscar nuevas fuentes de datos, pues los censos no nos suministran información sobre las migraciones internas, por ejemplo”. Los productos finales serán un atlas temático y un banco de datos. No solamente se utilizan nuevas fuentes, sino también nuevos abordajes recientes de la bibliografía nacional y extranjera que ayudan a entender el cuadro más amplio. Uno de los puntos de partida del observatorio indica que “la comprensión de los procesos migratorios solamente adquiere significado si consideramos la dimensión espacial y territorial”. Así se arribó a la constatación de que en el siglo XXI, como ya se podía entrever desde los años 1990, la Región Metropolitana de São Paulo se insertó en la ruta de las migraciones internacionales. “La metrópolis tienen una característica mucho más volcada al mercado internacional, como parte de una cadena de ciudades globales”, dice Rosana. En ese marco amplio, mientras que los procesos económicos se multiplican espacialmente, el tiempo se globaliza. Es lo que el sociólogo británico Anthony Giddens denomina “mecanismos de desencaje”. Actualmente São Paulo es el destino tanto de mano de obra altamente calificada como de trabajadores indocumentados y sin capacitación específica, pero que se insertan en mecanismos de producción flexibilizados, amoldados a la movilidad del capital. En el primer caso se destacan argentinos y chilenos, que vienen a trabajar en la ciudad en puestos de gerencia, con autorización de permanencia por períodos renovables de dos años y contabilizados por el Ministerio PESQUISA FAPESP   79


Ésa es una actividad internacionalizada en el principio de la cadena de producción, toda vez que las telas llegan de Corea. En los últimos años el sector ha venido elaborando sistemas elaborados, que permiten que muchos bolivianos trabajen estacionalmente, con demandas específicas, de acuerdo con las temporadas de lanzamientos de ropas (verano e invierno), lo que refuerza el movimiento general de vaivén entre los migrantes de la ciudad. Actualmente muchos trabajadores bolivianos provienen de zonas urbanas y llegan con capacitación laboral. Entre los migrantes internos, principalmente nordestinos, el hábito de la estacionalidad también se ha intensificado. Existe por ejemplo un buen contingente de personas que trabajan en la venta de billetes de lotería en las calles durante algunos meses, pero regresan a sus lugares de origen para aprovechar las altas temporadas de la industria del turismo. Otra faceta de la permanencia corta o incluso del regreso de migrantes es el encarecimiento del costo de vida en Boliviano pasa adelante de anuncios de trabajo, en La Paz, 2007 Antônio Gaudério / Folhapress

de Trabajo: son 20 mil, según los datos más recientes. En el segundo caso se encuentran sobre todo los bolivianos, que inmigran por problemas en sus lugares de origen y no aparecen en las estadísticas oficiales. Su cantidad total es estimada en 200 mil por entidades privadas como la Pastoral del Inmigrante. De este modo, según la socióloga, “100 años después de la inmigración europea, São Paulo ha vuelto a ser la puerta de entrada de las migraciones internacionales, pero ahora no ya subsidiadas por el gobierno”. Como es sabido, en un fenómeno que se remonta a tres décadas, los bolivianos vienen principalmente para trabajar en la industria de confecciones, de propiedad de inmigrantes asiáticos o sus descendientes. La migración boliviana se encuentra actualmente en la segunda generación y ha causado impactos urbanos sensibles, como el conocido cambio del perfil demográfico del barrio de Bom Retiro, tradicionalmente caracterizado por el comercio y por la presencia judía, y actualmente sede de la mayoría de las confecciones de ropas que emplean mano de obra latinoamericana.

80   Publicada en junio de 2011

la ciudad. Antes las periferias ofrecían rutinas propias y potencial de absorción de nuevos habitantes, pero ahora, según Rosana, “el entorno no está más desarticulado del centro; esas zonas se adensaron y se reconfiguraron”. Un rasgo característico del perfil migratorio del siglo XXI en la Región Metropolitana de São Paulo es la regresión. Se trata del área del país que más población pierde anualmente, especialmente en lo que se refiere a la migración interna. Por otro lado, el estado es el que más mano de obra calificada recibe. Redes

Un factor importante en la estructura social que permite la circulación de migrantes, tanto internos como externos, son las redes sociales: grupos articulados de apoyo a la permanencia temporal, formados principalmente por parientes. Gracias a éstas, les es posible a los migrantes muchas veces dejar durante algún tiempo a sus hijos en el lugar de origen mientras se dedican al trabajo estacional. Las redes sociales operan en los dos extremos de la migración y no constituyen un fenómeno nuevo (a veces son redes que perduran desde hace 60 años), pero han cobrado una importancia clave en la sustentación de la temporalidad de las migraciones entre lugares tan distantes. Esto hizo surgir sistemas organizados y dinámicos de transporte, tales como los ómnibus que salen de la región de São Miguel Paulista, en la zona este de São Paulo. En la actualidad el gran eje migratorio del país es el estado de Goiás. “Es el gran polo de absorción”, dice Baeninger. La agroindustria ha venido atrayendo incluso mano de obra calificada paulista. Asimismo, un centro productor de cereales como la ciudad de Rio Verde ofrece cursos de gestores públicos que atraen gente de fuera del estado. La expansión de la agroindustria en el interior paulista también sigue atrayendo a los migrantes de otras regiones, de la capital, de núcleos internos vecinos y, en menor escala, del exterior. Se suma a la agroindustria la robustez de nichos económicos volcados al mercado externo que las diversas regiones han logrado consolidar: el de calzados en el área de Franca, el de joyas en Limeira, el de muebles en Votuporanga, y el sector hotelero, sustentado por el circuito de la fiesta del


Danilo Verpa / Folhapress

peón de Barretos, etc. La malla vial es lo suficientemente eficaz como para que muchos profesionales vivan en una ciudad y trabajen en otra, lo que provoca “la densificación de pequeñas ciudades cuya impronta era antes la evasión”. ¿Un retorno al campo? “No”, dice Rosana. “Aun cuando el trabajo se vuelque al área rural, las personas viven en la ciudades o en lo que denominamos zonas de extensión urbana no catalogadas, es decir, áreas con características urbanas sin que oficialmente se las considere así”. Con esa homogeneización, ha aumentado mucho la migración de corta distancia y el vaivén regional, a punto tal de crear un cuestionamiento teórico: ¿a las personas que realizan esos desplazamientos puede considerárselas migrantes? Según la concepción en vigor en los años 1960, informa la profesora, la adaptación de un migrante de la zona rural tradicional al ambiente urbano moderno tardaba alrededor de 10 años. Pero en el interior paulista, actualmente, los patrones de urbanización y consumo son prácticamente idénticos entre las regiones. Impacto

El modo de funcionamiento de las investigaciones del Observatorio de Migraciones, basado en la interdisciplinariedad y en la cooperación con otras instituciones académicas brasileñas y extranjeras, hace surgir estudios de fenómenos sin gran volumen numérico, pero importan-

Coreanos delante de una mueblería de usados en el barrio de Bom Retiro, en São Paulo

tes desde el punto de vista sociológico y antropológico. Por ejemplo, se planea un estudio inédito sobre el impacto social de los traslado de cárceles a las ciudades del interior del estado de São Paulo, con el movimiento de grupos que eso acarreó. Un estudio en marcha ilumina la migración de refugiados en la región metropolitana durante este siglo. Existe una significativa presencia de colombianos (y algunos cubanos) que se vieron presionados a salir de sus lugares de origen debido a los conflictos internos. “Brasil tiene una de las legislaciones más abiertas de América Latina para refugiados, lo que provoca ese flujo”, dice Rosana. Se estima que hay 1.800 refugiados en la ciudad de São Paulo. Entre ellos, los más recientes son los colombianos, que en general tienen familia, muchas veces compuesta por el cónyuge o los hijos brasileños, en general con calificación profesional pero con dificultades de inserción, pues no tienen diploma revalidado. A título de comparación, la mayoría de los refugiados en la ciudad de Río está compuesta por africanos solteros, que suelen llegar como estudiantes y posteriormente piden refugio. Tanto los refugiados como los inmigrantes indocumentados, según Baeninger, generan situaciones

que demandan políticas sociales en favor de sus derechos y de protección contra la discriminación, que aún no han sido instituidas. Un estudio particularmente interesante del Observatorio de Migraciones, a cargo de la socióloga Marta Maria do Amaral Azevedo, también de la Unicamp, se refiere a la presencia guaraní en São Paulo. Actualmente hay en la región este del estado 20 comunidades, cuatro de ellas en la capital. El proceso migratorio, oriundo de Paraguay, del actual Mato Grosso do Sul y de Argentina, comenzó durante la segunda mitad del siglo XIX. Sin embargo, se ha observado que se mantiene, “creando muchas veces impasses en las políticas públicas y en la cuestión de las tierras”. El estudio tiene por objeto, entre otras cosas, cuantificar esa población y trazar su genealogía. “La investigaciones existentes apuntan motivaciones religiosas y económicas, como la búsqueda de tierra sin males, un lugar en donde sería posible vivir al estilo guaraní, o, de acuerdo con el guaraní reko, la manera de ser de ese pueblo”, dice Marta. “Hoy en día existen extensas redes sociales estructuradas a partir del parentesco y de las relaciones de religiosidad, intercambios económicos y la práctica del concepto oguatá: caminar, que puede significar una visita a un pariente o un viaje para consultar a un pajé [chamán], o incluso para una reunión de familias.” n PESQUISA FAPESP   81


Alchemist’s laboratory, 1570 – Jan van der Straet / Foto: Erich Lessing / Album/Album Art / Latinstock

82   Publicada en abril de 2011


_ H istoria de la ciencia

Documentos que valen oro Investigadoras brasileñas encuentran una receta de la piedra filosofal en la Royal Society Carlos Haag

F

Alquimista en su laboratorio

ue tomando al pie de la letra el lema de la Royal Society, Nullius in verba, es decir, “no crea en la palabra de nadie”, un aviso de que, en ciencia, es esencial “poner manos a la obra”, como las investigadoras Ana Maria Alfonso-Goldfarb y Márcia Ferraz, ambas del Centro Simão Mathias de Estudios en Historia de la Ciencia (Cesima) de la Pontificia Universidad Católica de São Paulo (PUC-SP), hicieron un descubrimiento sorprendente en 2008. Al escudriñar montañas de documentos de la institución inglesa, encontraron la “receta” del alkahest, el supuesto “solvente universal” alquímico que podría disolver cualquier sustancia y reducirla a sus componentes primarios. Pero había algunas lagunas para “cerrar el caso”, en especial para revelar quién había sido el autor de la copia de la receta hallada. De regreso a los archivos, las investigadoras dilucidaron el misterio, pero solamente para abrir otro, más instigador aún: el descubrimiento de una receta de la célebre piedra filosofal que, según se creía, transmutaría metales “viles” en oro. “Fue una gran sorpresa, aunque en cierta forma incómoda, pues, como historiadoras de la ciencia, se nos hace difícil constatar cada vez más de qué modo la alquimia fue importante

en la consolidación de la nueva ciencia en pleno siglo XVIII. Pero a su vez resulta importante subrayar que esa permanencia de la búsqueda de la transmutación era pensada más en el sentido químico, en especial como un instrumento de avance de la medicina, que en su carácter esotérico. Esto es notable en las preocupaciones de hombres como Boyle o Newton, entre otros nombres de peso, que creían en la existencia de la piedra filosofal”, explica Ana Maria. Las profesoras consideran que los trabajos con la piedra filosofal se realizaban en el ámbito de la ciencia de la época, aunque existen otras visiones. “El baconismo entró en la Royal Society distorsionado por el prisma de un grupo ligado a Samuel Hartlib, uno de los fundadores de la institución. Ese círculo llevaba al límite los preceptos de Bacon de estudiar ‘lo nuevo, lo raro y lo extraño’ en la naturaleza, mezclándolos con un interés persistente en descubrir invenciones ‘útiles’, sin por ello dejar de lado las ideas herméticas, retomando las obras de Paracelso y Helmont. Basta con ver cómo Boyle mantenía su interés de mínima embarazoso en cuestiones de filosofía natural, y estaba dispuesto a aceptar cualquier tipo de fenómeno, siempre y cuando pudiese explicárselo en líneas mecánicas. Esto PESQUISA FAPESP   83


Latín

Por cierto, Oldenburg se encuentra en el centro del nuevo misterio revelado por las investigadoras brasileñas. Al intentar identificar la letra de la receta del alkahest, luego de varios intentos, se depararon con un documento escrito en latín que contenía observaciones en francés en sus márgenes. “La letra nos pareció conocida y vimos que era la de Oldenburg, quien en sus anotaciones personales escribía en francés. Estaba resuelto: él fue quien transcribió la receta del alkahest. Pero, cuando fuimos a leer el texto en latín escrito en otra letra, vimos que se trataba de una receta de la piedra filosofal”, cuentan las profesoras. El título del texto, que lograron datar en 1659, era: “Procesus de bois”. De entrada, ambas creyeron que se trataba de experimentos con la quema de maderas (bois es madera en francés), pero, al verificar la presencia de elementos de la piedra filosofal, vieron que se trataba del nombre de una persona. En Francia, buscaron a alguien llamado Du Bois que tendría algo que ver con la célebre transmutación, y

84   Publicada en abril de 2011

“En la Royal Society del siglo XVII, había hombres brillantes que creían en la existencia de la piedra filosofal para abrir el oro”, dice la profesora

Preparación de la piedra filosofal

descubrieron –al cabo de una búsqueda detectivesca– la historia de Noel Picard, conocido como Du Bois, quien en 1637 fue ahorcado en La Bastilla por orden del cardenal Richelieu. ¿El motivo? Había intentado engañar al poderoso ministro de Luis XIII diciendo que era capaz de producir oro a partir del plomo. Luego de una vida rocambolesca de viajes y conversiones de cura capuchinho a luterano, de regreso a París, Du Bois cayó en las gracias del padre Joseph, confesor de Richelieu. “El cardenal vio en él la posibilidad de aumentar la riqueza de Francia y resolver los problemas económicos que aquejaban al reino. Entonces llamó a Du Bois para que, con su ‘polvo de proyección’, fabricase oro en presencia del rey, la reina y otros invitados notables, entre ellos el propio Richelieu”, comenta Márcia. Con una cuchilla y un crisol, Du Bois fue al Louvre y se puso a trabajar, y les pidió a los guardias que le llevasen balas de mosquete, que él calentó, rociándolas con un polvo y cubriéndolas posteriormente con cenizas. El rey, entusiasmado, quiso él mismo soplar sobre la mezcla, dejando su real figura, la de la reina y las de los presentes cubiertas de hollín. Pero la conmoción todo lo compensaba, pues se veía oro en el fondo de la olla. Luís XIII abrazo al pobre Du Bois, lo convirtió en noble ipso facto y además le concedió el privilegio de cazar en tierras reales. Llevándose al padre Joseph a un rincón, Richelieu, feliz, le prometió un futuro capelo cardenalicio. No afectó el ánimo general que los orfebres de la corte verificasen que se trataba de oro de 22 quilates. Du Bois les respondió que era tan sólo una muestra de las posibilidades. Richelieu le avisó que el rey necesitaba “solamente” 800 mil francos semanales en oro y le dio 20 días para iniciar la producción que, le avisó al monarca, le iba a permitir que no se le cobrasen más impuestos al pueblo y así el rey iba a tener el más poderoso cetro de Europa. Pero Du Bois usó el plazo para cazar con sus amigos. Desconfiado, el cardenal mandó a vigilarlo y por último, exasperado con la demora, construyó un laboratorio para que el presunto alquimista realizase, ya como prisionero, la “gran obra” en el castillo de Vincennes. Nuevo fracaso y el “noble” fue conducido a la Bastilla, en donde fue torturado y después lo mataron, por no haber sumi-

Alchemist / Etching, 1625 / Album / akg-images / Latinstock

incluía a la piedra filosofal. Newton, en carta a Henry Oldenburg, secretario de la Royal Society, llega a quejarse de que el colega debería ‘mantener silencio’ y no divulgar ‘los secretos de un verdadero filósofo hermético’”, sostiene el historiador Theodore Hoppen, docente de la University of Hull y autor del estudio The nature of the early Royal Society.


nistrado la receta de la piedra filosofal. Lo notable es que, aun así, sus verdugos creían que él era realmente capaz de producir oro, pero intentaba esconder el secreto. Veinte años después, en 1659, Oldenburg se encontraba en Francia y se deparó con la receta de Du Bois, y la envío a Inglaterra, en donde parece que fue recibida de manera exultante. “En la Royal Society, en pleno siglo XVII, aquellos hombres brillantes creían que Du Bois realmente había logrado ‘abrir el oro’, es decir, disolverlo para preparar otros materiales, función atribuida a la piedra filosofal”, comenta Ana. Piedras

“En el centro de todo se encontraba la preocupación por resolver problemas de salud, en especial la disolución de piedras en el organismo, una de las causas principales de óbito en aquellos tiempos. Se creía que la solución ideal era disolverlas con ácidos minerales, Pero sin que ello matase al paciente. Había que encontrar algo con el poder del ácido, pero sin sus problemas. Y allí entran en escena el alkahest y la piedra filosofal, que, combinados, constituirían el remedio ideal”, explica Ana. El primero suavizaría los efectos negativos del ácido, y la piedra era el complemento perfecto, pues era potente para disolver un metal noble y resistente como el oro, al mismo tiempo “débil” contra el organismo. “Eso, por supuesto, no impedía que se pensase en la piedra en su capacidad de producir oro por razones económicas, aunque las razones pecuniarias no fuesen las únicas, y ni siquiera las más importantes”, dice Márcia. Todo se interconectaba. Si la piedra tenía el poder de “perfeccionar” metales, convirtiéndolos en oro, como consecuencia de la creencia de los alquimistas en la unidad de la materia, esta “medicina” de los metales bien podría extenderse a la medicina de los hombres, que podría igualmente ser “perfeccionada”. De allí que muchos se refiriesen a la piedra como el elixir de la vida o el gran elixir, una panacea para todas las enfermedades, capaz de prolongar la vida. Debido a que el oro, como metal, no era corroído, pasó a vérselo como símbolo de la inmortalidad. Esto llevó a pensar, como consecuencia de ello, en su uso en la medicina de los antiguos y en la alquimia china, que buscaba el elixir de la longevidad.

Visión irónica del intento de concretar “la gran obra”

“Los trabajos de Paracelso y Van Helmont, entre otros, se desarrollaron en un tiempo en que se cuestionaba a la medicina galénica. También había nuevas enfermedades que requerían otras soluciones más efectivas. La búsqueda del alkahest, por ejemplo, revela esa preocupación medicinal”, sostiene el historiador de la química Paulo Alves Porto, docente del Instituto de Química de la Universidad de São Paulo. “El significado de la química, entre los siglos XVI y XVIII, debe buscarse en su relación con la medicina, aunque la transmutación se mantuvo como una constante hasta el Iluminismo, aun cuando ya se operaba la separación entre la química y la medicina”, escribe el historiador estadounidense Allen Debus, en su artículo “Alchemy and iatrochemistry”. Según Debus, de entrada, la relación se da en la rivalidad con los galenistas, para avanzar en el interés de las explicaciones químicas de los procesos fisiológicos, la base de la obra de Van Helmont, lo que terminó por llevar a la separa-

ción entre la química y la medicina hacia otros fines y no los farmacéuticos. “El trabajo de Lavoisier no necesitó dirigirse hacia una química basada en la medicina debido a ese largo proceso. La importancia que la medicina tuvo en el ascenso de la ciencia moderna era algo poco discutido”, añade Debus. Recién a finales del siglo XVIII, la transmutación perderá algo de su fuerza. “Hubo un movimiento que surgió en la Academie Royale de Sciences, en París, para dejar esa práctica de lado, con el fin de domesticar a la química en el marco de una disciplina profesional respetable que entró en la academia. Era necesario romper definitivamente con el pasado alquímico y empezar todo de cero, para darle a la química una nueva identidad y un nuevo status. De cualquier modo, eso no se concretó totalmente”, analiza el historiador Lawrence Principe, de la Johns Hopkins University, autor de Alchemy tried in the fire. “La red de documentos y personas íntimamente ligadas a la transmutación que nuestra investigación viene exponiendo adquiere cada vez más datos y ramificaciones. Esto puede ser la punta de un gran iceberg documental”, estima Ana Goldfarb. n PESQUISA FAPESP   85


86   Publicada en mayo de 2011


_ Biblioteca digital

El tesoro de los mapas Material cartográfico revela el imaginario colonial portugués

divulgación

U

Una visión de Brasil reveladora de la explotación

n precioso material cartográfico ha cobrado una irrestricta visibilidad merced al trabajo del grupo de investigadores de la Universidad de São Paulo (USP) responsable de la construcción de la Biblioteca Digital de Cartografía Histórica. El acceso online es libre en la siguiente dirección: http://www.cartografiahistorica.usp.br. Fruto de un concepto desarrollado por el Laboratorio de Estudios de Cartografía Histórica (Lech), este sitio ofrece no solamente la posibilidad de apreciar un archivo de mapas raros impresos entre los siglos XVI y XIX, sino que también permite construir una serie de referencias cruzadas, comparaciones y claves interpretativas con la pluralidad y la rapidez de internet. Al fin y al cabo, “un mapa por sí solo no hace un verano”, como dice una de las coordinadoras del proyecto, Iris Kantor, docente del Departamento de Historia de la USP. El conjunto revela mucho más que informaciones geográficas. Permite también percibir la elaboración de un imaginario a lo largo del tiempo, revelado por visiones de Brasil concebidas fuera del país. Este trabajo se insertó en el marco de un gran proyecto temático, denominado Las dimensiones del imperio portugués, coordinado por la profesora Laura de Mello e Souza, que contó con el apoyo de la FAPESP.

Hasta ahora el archivo ha tenido dos fuentes principales. La primera fue el conjunto de anotaciones realizadas a lo largo de 60 años por el almirante Max Justo Lopes, uno de los principales expertos en cartografía de Brasil. La segunda fue la colección particular del Banco Santos, puesta bajo custodia del Estado durante el proceso de intervención del patrimonio del banquero Edemar Cid Ferreira en 2005. Una decisión judicial transfirió la custodia de los mapas al Instituto de Estudios Brasileños (IEB) de la USP; una iniciativa loable, toda vez que esa colección, según Iris Kantor, “estaba guardada en condiciones muy precarias en un galpón, sin ninguna preocupación con el acondicionamiento adecuado”. Se recogieron alrededor de 300 mapas. Se sabe que la cantidad total de la colección original era mucho mayor, pero se ignora en dónde se encuentran los otros. El primer paso consistió en recuperar y restaurar los mapas, que llegaron a la USP “totalmente desnudos”, y a tal fin se hizo necesario un extenso trabajo de identificación, datación, atribución de autoría, etc. Durante los años 2007 y 2008, el Laboratorio de Reproducción Digital del IEB investigó, adquirió y utilizó la tecnología adecuada para reproducir en alta resolución la colección de mapas. Hubo que hacer varios intentos hasta que se logró la precisión de rasgos y colores deseada. PESQUISA FAPESP   87


Mapa holandés a partir de Jean de Léry

Luego el Centro de Informática del campus de la USP de São Carlos (Cisc/ USP) desarrolló un software específico que permitió construir una base de datos capaz de interactuar con el catálogo general de la biblioteca de la USP (Dedalus), como así también recabar y transferir datos de otras bases disponibles en internet. Una de las fuentes inspiradoras de los investigadores fue el sitio web del coleccionador y artista gráfico inglés David Rumsey, que contiene 17 mil mapas (http://www.davidrumsey.com). Otra fue la pionera Biblioteca Virtual de Cartografía Histórica, de la Biblioteca Nacional, que reúne 22 mil documentos digitalizados (http://bndigital.bn.br/cartografia). En un futuro, el archivo cartográfico de la USP integrará la Biblioteca Digital de Cartografía Histórica. Se les asignó prioridad a los mapas del Banco Santos pues no pertenecen a la universidad y en cualquier momento pueden ser solicitados judicialmente para cancelar deudas. En la actualidad se encuentran disponibles en la Biblioteca Digital “informaciones cartobibliográficas, biográficas y datos de naturaleza técnica y editorial, como así también notas explicativas que apuntan a contextualizar el proceso de producción, circulación y apropiación de las imágenes cartográficas”. “No existe un mapa ingenuo”, dice Iris Kantor, quien indica así la necesidad de reunir 88   Publicada en mayo de 2011

“Los mapas constituían objetos de ostentación, con valor de goce y ornamental para nobles y eruditos”, dice Iris Kantor

esas informaciones para entender qué se oculta por debajo de la superficie de los contornos geográficos y de la toponimia. “El supuesto del historiador es que todos los mapas mienten; la manipulación es un dato importante en cualquier pieza cartográfica.” Formaron parte de esa manipulación los intereses geopolíticos y comerciales de cada época determinada y de aquéllos que produjeron o solicitaron

el mapa. El historiador Paulo Miceli, de la Universidad Estadual de Campinas (Unicamp), quien a comienzos de la década pasada había sido convocado por el Banco Santos para suministrar consultoría sobre la organización de la colección, recuerda que el primer registro cartográfico de lo que actualmente es Brasil fue un mapa del navegante español Juan de la Cosa (1460-1510), datado de 1506, que muestra “la línea demarcatoria del Tratado de Tordesillas, África muy bien dibujada y, a su izquierda, un triángulo pequeño que es América del Sur”. “Brasil fue surgiendo de una especie de niebla espesa de documentos, condicionado entre otras cosas por el rigor de la corona portuguesa sobre el trabajo de los cartógrafos, que estaban sujetos incluso a la aplicación de la pena de muerte”. Esta “aparición” gradual de Brasil en el esquema geopolítico imperial es el tema de la tesis de libre docencia de Miceli, intitulada apropiadamente Los contornos de Brasil en el mapa del mundo, que saldrá en libro este mismo año, publicado por la editorial de la Unicamp. El título se refiere al Theatrum orbis terrarum (Teatro del mundo), del geógrafo flamenco Abraham Ortelius (1527-1598), considerado el primer atlas moderno. Navegantes

Al contrario de lo que se puede imaginar, los mapas antiguos no tenían la función principal y práctica de orientar a los exploradores y navegantes, quienes hasta el siglo XIX se valían de derroteros escritos, las “cartas de marear”, registradas en “pergaminos sin belleza ni ambigüedad, perforados con compases y otros instrumentos, y que se convirtieron en envoltorios de carpetas de documentos en los archivos cartográficos”, según Miceli. “Los mapas eran objetos de ostentación y prestigio, con valor de fruición y ornamentación, para nobles y eruditos”, dice Iris Kantor. “Uno de los tesoros del Vaticano era su colección cartográfica”. En tanto, los derroteros de navegación eran meramente manuscritos y no impresos, proceso éste que les daba a los mapas el status de documentos privilegiados. Las chapas originales de metal, con las alteraciones a lo largo del tiempo, duraban hasta 200 años, siempre en manos de “familias” de cartógrafos, editores y libreros. A veces esas familias


Carte tres Curiese, de 1719

eran incluso grupos consanguíneos con funciones hereditarias, otras veces eran talleres altamente especializados. Los artistas, con experiencia acumulada a lo largo de décadas, no viajaban y recababan sus informaciones con “navegantes muchas veces analfabetos”, según Miceli. Para brindar una idea acerca del prestigio asignado a la cartografía, recuerda que el Atlas major, del holandés Willem Blaue (1571-1638), pintado con tinta de oro, fue considerado el libro más caro del Renacimiento. Uno de los criterios de búsqueda de la Biblioteca Digital de Cartografía Histórica es precisamente por “escuelas” de cartógrafos, entre ellas la flamenca, la francesa y la veneciana, siempre recordando que el saber fundamental provenía de los navegantes y cosmógrafos portugueses. Iris Kantor considera que las escuelas se relacionan y planea en un futuro reemplazar la palabra “escuela” por “estilo”. También está en los planes del equipo reconstituir la genealogía de la producción de mapas durante el período abarcado. En el estudio de estos documentos se incluye la identificación de aquéllos que contienen errores voluntarios como parte de un esfuerzo de contrainformación, denominado por Mi-

celi “adulteración patriótica”. Como por ejemplo los mapas que falsifican la ubicación de recursos naturales tales como ríos, para favorecer a los portugueses o a los españoles en la división del Tratado de Tordesillas. Una evidencia de la función cuasi propagandística de la cartografía se encuentra en el mapa Brasil, de 1565, producido por la escuela veneciana, que ilustra la apertura de este artículo. En él no se destaca precisamente la precisión geográfica. “La toponimia no es muy intensa, aunque toda la costa ya había sido nombrada en esa época”, dice Iris Kantor. “Es una obra destinada al público lego, quizá más a los comerciantes, como lo indican los barquitos con los escudos de armas de las coronas de Francia y Portugal. Vemos el comercio del palo brasil, aún sin identificación de la soberanía política. Parece una región de acceso libre. La representación de los indígenas y su contacto con los extranjeros transmite cordialidad y reciprocidad.” “En el fondo, los mapas sirven como representación de nosotros mismos”, prosigue la profesora de la USP. “En el estudio de la cartografía brasileña post independencia, por ejemplo, llama la atención nuestra visión de la identidad

nacional basada en una cultura geográfica romántica, liberal y naturalista, que representa al país como un continuo geográfico entre la Amazonia y el Plata. En el mismo período, la idea del pueblo no era tan homogénea. No por casualidad los hombres que hicieron la independencia y constituyeron la estructura legal del país estaban ligados a las ciencias naturales, a la cartografía, etc. La cuestión geográfica fue imperativa en la creación de la identidad nacional.” Un ejemplo muy diferente de utilización de los recursos digitales en la investigación con mapas se encuentra en marcha en la Unicamp, derivado del proyecto intitulado Trabajadores en Brasil: identidades, derechos y política, coordinado por la profesora Silvia Hunold Lara y que cuenta también con el apoyo de la FAPESP. Se trata del estudio Mapas temáticos de Santana y Bexiga, sobre el cotidiano de los trabajadores urbanos entre 1870 y 1930 (http://www.unicamp. br/cecult/mapastematicos). Según la profesora, se puede reconstituir el cotidiano de los habitantes de esos barrios paulistanos, “no disociados de su modo de trabajo y de sus reivindicaciones de derechos”. n Márcio Ferrari PESQUISA FAPESP   89


_  c ine

90   Publicada en febrero de 2011


Locura artística De qué manera muestra los trastornos mentales el séptimo arte Alexandre Agabiti Fernandez

M

Locura de Dalí en Spellbound

ás que cualquier otra forma de arte, el cine se presta a la representación de los trastornos mentales. Los paranoicos, los psicóticos y otros perturbados fascinan o inquietan a los espectadores, porque la locura interrumpe el orden inherente al mundo con sus habituales modalidades de percepción. Cinema e loucura – Conhecendo os transtornos mentais através dos filmes (Artmed), de J. Landeira-Fernandez y Elie Cheniaux, es la primera obra publicada entre nosotros que clasifica sistemáticamente los trastornos mentales de ciertos personajes cinematográficos. Cada capítulo describe los aspectos clínicos de un determinada perturbación mental y luego plantea y comenta ejemplos cinematográficos de ese mismo trastorno. Los autores discuten un total de 184 películas, muchas de ellas bastante conocidas. “Este libro constituye una herramienta académica para la enseñanza en psicopatología y psiquiatría, y suministra ejemplos concretos que se abordan de manera más abstracta en clase”, afirma J. Landeira-Fernandez, docente del Departamento de Psicología de la PUC-Río. “El empleo de películas motiva a los alumnos y es especialmente interesante para aquellos alumnos que no tienen acceso a pacientes de carne y hueso”, sostiene Elie Cheniaux, docente del Instituto de Psiquiatría de la UFRJ. La relación entre el cine y el psiquismo es evidente, pues el séptimo arte representa a lo humano desde todas sus formas, desde las más risueñas hasta las más sombrías. Por otro lado, el propio dispositivo cinematográfico –la sala oscura en que se proyectan las imágenes, con el espectador en situación de pasividad relativa, de

inmovilidad– determina un estado regresivo artificial que remite al sueño. En éste, el sujeto se aparta de lo real y es envuelto por sus imágenes. En el cine sucede algo análogo con el espectador. La experiencia del sueño, con sus asociaciones libres, también puede compararse con el montaje cinematográfico, que hace coexistir mundos aparentemente heterogéneos. Más allá de estas analogías, cabe recordar que el cine y el psicoanálisis, proveniente de la psiquiatría, nacieron prácticamente al mismo tiempo, entre el final del siglo XIX y el comienzo del siglo XX, y que revolucionaron el abordaje de la realidad. Hanns Sachs, discípulo de Freud, fue uno de los primeros psicoanalistas en manifestar interés en el cine. En su seminario, Jacques Lacan, otro pionero del psicoanálisis, realizó un análisis del personaje principal de El alucinado (1953), de Luis Buñuel, un célebre caso de paranoia. “La dramaturgia se basa en el conflicto. De acuerdo con el modelo clásico, una película se compone de tres actos: la introducción de los personajes, el desarrollo de conflictos entre éstos y la resolución de dichos conflictos. Muchos de los mismos son de naturaleza mental. Un film con personajes ‘normales’, resueltos y sin conflictos, no suscitaría el interés del público. Pero un film con figuras perturbadas, fuera de la normalidad, contiene conflictos que hacen que la narrativa avance. El personaje ‘chiflado’ es más cinematográfico. El desvío seduce; la norma no”, argumenta Flávio Ramos Tambellini, coordinador docente de la Escuela de Cine Darcy Ribeiro, de Río de Janeiro. En Cinema e loucura, los personajes cinematográficos se abordan como casos clínicos. Días PESQUISA FAPESP   91


El loco de Nicholson en El resplandor

sin huella (1945), de Billy Wilder, retrata muy bien la riqueza de los síntomas presentes en el cuadro de abstinencia alcohólica. Dos extraños amantes (1977), de Woody Allen, muestra el trastorno distímico –caracterizado por síntomas depresivos menos intensos que los que se observan en un cuadro depresivo típico– y también el trastorno de ansiedad generalizada. Pero en muchas ocasiones los trastornos mentales no están bien representados, pues la película no tiene una finalidad educativa, sino que obedece a exigencias artísticas y comerciales. “Los guionistas y los cineastas no tienen ninguna obligación de ser fieles a la realidad. El cine no tiene la obligación de ser didáctico. Es arte, no ciencia”, constata Cheniaux. No obstante, tales distorsiones no desautorizan el abordaje plantea92   Publicada en febrero de 2011

do por los autores, al contrario. En Una mente brillante (2001), de Ron Howard, la biografía de John Nash, matemático y Premio Nobel de Economía, la esquizofrenia del personaje está mal descrita. “Tiene alucinaciones visuales, sinestésicas y auditivas. Eso es erróneo, pues los esquizofrénicos tienen alucinaciones unimodales, y la modalidad auditiva es la más común. De hecho, el John Nash real tenía solamente alucinaciones auditivas. Aun con ese error, la representación del síntoma sirve como ejemplo negativo”, dice Landeira-Fernandez. En otros casos, el personaje tiene un comportamiento que no se encuadra en ninguna categoría diagnóstica. A menudo esa “locura” constituye un reflejo de la visión común, y es muy diferente de los síntomas de un enfermo mental real. El libro también compila películas que muestran este tipo de distorsiones. En Repulsión (1965), de Roman Polanski, Carol, personaje vivida por Catherine

Deneuve, siente horror a la penetración y exhibe una serie de comportamientos extraños. ¿Qué trastorno mental tendría estas características? Los tratornos de Carol no se encajan en las categorías descritas por el Manual diagnóstico y estadístico de los trastornos mentales (DSM-IV-TR), que orientó a los autores. Con todo, los problemas de diagnóstico lejos están de ser una especificidad del cine. “En medicina, las enfermedades se definen a partir de sus causas. Pero en psiquiatría las categorías se describen únicamente de acuerdo con los síntomas, y esto es bastante criticable. A menudo un mismo paciente reúne criterios diagnósticos como para ubicarse en más de una categoría nosológica al mismo tiempo. Se hace difícil creer que padezca tres o cuatro enfermedades psiquiátricas al mismo tiempo. Es algo hasta cierto punto arbitrario”, afirma Cheniaux. Durante las primeras décadas del siglo pasado, los “locos” estaban generalmente recluidos en el género fantástico, y eran a menudo criminales. Con El gabinete del doctor Caligari (1919), clásico del expresionismo alemán, de Robert Wiene, la locura entra en las modalidades de la representación cinematográfica. Como en otras películas expresionistas, los escenarios fuertemente estilizados y la gestualidad brusca de los actores traducen simbólicamente la mentalidad de los personajes y sus estados de alma. Caligari es un médico loco que hipnotiza a César, su asistente, para que éste cometa crímenes, afirmando una voluntad de poder paranoica. Otra figura perversa e inteligente de esa época es el personaje central de El doctor Mabuse (1922), de Fritz Lang. Se trata de un psiquiatra que también recurre a la hipnosis para manipular a las personas y cometer crímenes. Mabuse es devorado por el deseo de gobernar por medio del dinero, mientras que la sed de poder de Caligari es abstracta. La locura de Mabuse y la pasividad morbosa de sus víctimas apuntan hacia la decadencia de la sociedad alemana de la época y hacia el caos que en ese entonces asolaba al país. En otra película de Lang, M – El vampiro de Dusseldorf (1931), surge un interés más realista en la psicología de los personajes. La figura central es un asesino de niñas que, sin embargo, muestra humanidad en su horror. Pero la sociedad no es mejor: ante la incapacidad de


la policía para atraparlo, es “juzgado” por otros delincuentes, prefigurando lo que iría a ocurrir en Alemania en pocos meses más, con la ascensión de los nazis al poder. A partir de los años 1940, el psicoanálisis ocupa espacio en los medios de comunicación. Surgen los thrillers psicoanalíticos, que emplean el arsenal del psicoanálisis de manera rústica e ingenua. El prototipo de estos filmes es Cuéntame tu vida [Spellbound] (1945), de Alfred Hitchcock. Constance (Ingrid Bergman) es una joven psiquiatra de un asilo que se enamora del nuevo director. Pero enseguida se da cuenta de que el hombre a quien ama (Gregory Peck) es un enfermo mental que se hacer pasar por el doctor Edwards. A partir de los sueños del enfermo y luego de una sesión de análisis, Constance descubre que éste ha perdido la memoria y comprende por qué el enfermo se ha hecho cargo de un crimen que no cometió: fue testigo de la muerte del verdadero Edwards, asesinado por el ex director del asilo, así como él mismo en un juego, cuando niño, había empujado al hermano menor a la muerte. Aparte de la angustia ante la locura, la película muestra la angustia de la locura, figurando el miedo del personaje por medio de sueños (obras de Salvador Dalí) que revelan un mundo lleno de alucinaciones y símbolos pretendidamente producidos por el inconsciente. En ésta y

A partir de los años 1940, el psicoanálisis ocupa espacio en el cine y surgen los thrillers psicológicos, como los del director Alfred Hitchcock

en otras películas del período, el psicoanálisis es reducido a un método capaz de resolver oscuros conflictos mediante el desciframiento de un conjunto de signos generalmente clarísimos. A partir de los años 1950, bajo el impacto de los horrores de la Segunda Guerra Mundial, se inicia el cuestionamiento de la reclusión de los enfermos. Al mismo tiempo, surgen nuevos psi-

cofármacos que provocan graves efectos colaterales, lo que lleva a muchos pacientes a rehusarse a hacer el tratamiento. Como reacción a la psiquiatría de la época, aparece la antipsiquiatria, que cobró densidad en los años 1960, en el auge de la contracultura. Algunas películas retratan bien este momento, como Family life (1971), de Ken Loach; Una mujer bajo influencia (1974), de John Cassavetes, y Alguien voló sobre el nido de cuco (1975), de Milos Forman, que critican a una sociedad que prefiere recluir a sus enfermos en lugar de ayudarlos a mitigar su sufrimiento y les ofrece como único tratamiento el chaleco de fuerza, el electroshock y las drogas. Estas películas afirman una nueva visión del cine sobre la locura, más preocupada con el peso de la sociedad sobre los individuos. Algunas se interrogan acerca de la “locura” de esta sociedad y la de la familia, cuestionando la idea de normalidad. El gran precursor de esta vertiente es Ingmar Bergman, quien hizo de la locura uno de sus temas obsesiones. Pese a las transformaciones en la representación de la locura en el cine, la inmensa mayoría de las películas sigue banalizando a la locura, con viejos clichés que hacen de los enfermos mentales delincuentes de film policial o abobados de comedia. n

Escena de Repulsión

PESQUISA FAPESP   93


_  c lasificación {

Excelencia en ciencias humanas Carreras brasileñas sobresalen en el panorama internacional Ilustración  Bel

Falleiros

L

a empresa QS (Quacquarelli Symonds), que desde 2004 evalúa y clasifica anualmente a las universidades de todo el mundo, publicó a comienzos de julio el primer ranking global por áreas de conocimiento (disponible en el sito www.topuniversities.com). Hay carreras brasileñas relativamente bien ubicadas entre las primeras 200, sobre todo en los grupos generales de “ciencias sociales” y “artes y humanidades”. Las listas especifican los puestos del 1° a 50° y después reúnen en tres grupos, por orden alfabético, a las instituciones que se ubicaron entre los lugares 51°-100°, 101°150° y 151°-200°. En el cómputo general de las ciencias humanas aparecen seis instituciones brasileñas: dos estaduales (la USP y la Unicamp), dos federales (la UFRJ y la UFMG), la Fundación Getúlio Vargas (FGV) y la Pontificia Universidad Católica de Río de Janeiro (PUC-Rio). Hay dos de otros países latinoamericanos (la Universidad Nacional Autónoma de México y la PUC-Chile). De la USP, filosofía y sociología se ubicaron en el grupo 51°-100°, y geografía y relaciones internacionales quedaron entre el 151° y 200° puesto. La Unicamp está entre el 101° y el 150° en filosofía y entre el 151° y el 200° en estadística e investigación operativa. Con esas dos mismas carreras, la UFRJ quedó en posiciones invertidas.

94   Publicada en agosto de 2011


La FGV y la UFMG aparecen entre el 151° y el 200° con relaciones internacionales y filosofía, respectivamente. A título de comparación, en las áreas de exactas y biomédicas están representadas únicamente tres universidades: la USP (agronomía entre el 51° y el 100° e ingeniería civil entre el 151° y el 200°), la Unicamp (ingeniería eléctrica y electrónica entre el 151° y el 200°) y la PUC-RJ (ingeniería civil, 151°-200°). “Los criterios que orientan esos rankings no pueden considerarse como únicos ni infalibles, pero sería un despropósito desconocer su utilidad y la visibilidad que los mismos aportan”, dice Modesto Florenzano, vicedirector de la Facultad de Filosofía, Letras y Ciencias Humanas (FFLCH) de la USP, que alberga a tres de los departamentos citados en el ranking (Filosofía, Sociología y Geografía). “La finalidad mayor de estas listas –en eso se basan en términos económicos– es ofrecerles a las personas que pretenden ingresar a las instituciones un panorama de las universidades. Por tal motivo, una investigación por área constituye una

buena iniciativa”, explica Rogério Meneghini, experto en cienciometría, que es el estudio de los aspectos cuantitativos de la ciencia y de la producción científica. “Los rankings no se hicieron para brindar una visión amplia de la calidad de las universidades, pero terminaron sirviendo para eso.” La empresa QS, con sede en el Reino Unido y oficinas en varios países, elabora intencionalmente sus rankings con el objetivo de servir de orientación a alumnos que desean estudiar fuera de sus ciudades, o especialmente de sus países de origen. Por eso le da una atención especial al grado de internacionalización de las instituciones evaluadas. El ranking reciente se hizo con base en tres grandes criterios: reputación académica (se convoca a docentes para evaluar carreras y universidades que no son las suyas), reputación entre empleadores (sobre la calidad de los profesionales egresados de las instituciones) y la cantidad de citas en publicaciones académicas. La inclusión del apartado de “empleabilidad” representa para QS la gran diferencia de sus rankings, aunque es objeto de críticas, pues se trata de un índice que no necesariamente tiene que ver con la calidad de la producción intelectual de las universidades. “Para el público al que se destina, sería desproporcional que pongamos más énfasis en la investigación académica que el que ya pone-

mos”, dice Ben Sowter, jefe de la unidad de información de QS. “Asimismo, los otros rankings ya hacen hincapié en ello en parte debido al tipo de datos disponibles internacionalmente y en parte debido a la historia de su surgimiento. La primera clasificación internacional fue creada por el gobierno chino [vía Universidad de Shanghái] para destacar las proezas de la investigación científica de sus universidades en comparación con las de Occidente.” Con todo, el ranking de QS tampoco está libre de su sesgo. Basta con ver las listas para que se torne evidente la presencia masiva y predominante de universidades de países de lengua inglesa (no solamente de Estados Unidos y Reino Unido, sino también de Canadá y Australia). En el ranking de filosofía, PESQUISA FAPESP   95


Financiamiento

Por otro lado, la lengua inglesa como parámetro internacional no deja de ser un dato ineludible. “Existe un interés perceptible por parte de alumnos extranjeros de estudiar en Brasil, en gran medida debido a la posibilidad de obtener financiamiento de investigación en un nivel inicial de la carrera académica. Incluso las becas parecen atrac-

tivas, pero la mayoría no viene porque el portugués se interpone como una barrera”, dice Meneghini. De allí que el peso otorgado por QS a la internacionalización de sus evaluaciones sea visto como correcto, y también es un consenso la constatación de que aún hay pocos estudiantes extranjeros en las universidades brasileñas. “Las principales universidades siempre han sido puntos de encuentro de las mejores mentes del mundo”, dice Sowter. “Gran parte del impulso de la internacionalización es llevado adelante no solamente por las instituciones a nivel individual, sino también mediante la implementación de políticas gubernamentales. En los últimos tiempos, las universidades se volvieron centrales para la política económica, pues los gobiernos se percataron de que la investigación y la innovación desempeñan papeles claves en el estímulo al crecimiento.” Pero no es fácil medir la calidad de las carreras mediante criterios numé-

América Latina en la QS University rankings: ciencias sociales Institución

Estadística & Investigación Operativa

Sociología

Políticas & Relaiones internacionales

derecho

Economía & Econometría

Universidad Nacional Autónoma de México

44

151-200

Universidad de São Paulo

51-100

151-200

Universidad Federal de Río de Janeiro

101-150

151-200

Pontificia Universidad Católica de Chile

151-200

51-100

Fundación Getúlio Vargas

151-200

Universidad Estadual de Campinas

151-200

Pontificia Universidad Católica de Río de Janeiro

­—

­—

101-150

Fuente Quacquarelli Symonds

96   Publicada en agosto de 2011

fotos 1. Breitenbach/Pix Inc./Time Life Pictures/Getty Images  2. Bettmann / CORBIS

por ejemplo, llama la atención la pequeña y débil representación de las instituciones de los países que más contribuyeron históricamente (y hasta los días actuales) en ese campo del saber, que son Francia y Alemania. “¿Cómo puede quedar tan abajo en la lista la Universidad de Fráncfort, que cuenta con Jürgen Habermas y Axel Honneth?”, se pregunta Ricardo Ribeiro Terra, docente del Departamento de Filosofía de la FFLCH-USP y coordinador del área de ciencias humanas y sociales de la FAPESP (filosofía). Terra destaca también la pequeña o nula cantidad de artículos en publicaciones internacionales de algunas carreras brasileñas, incluso bien evaluadas, como la de sociología. “Eso siembra dudas en cuanto al conjunto de revistas seleccionadas y hace suponer que se ciñe a la filosofía analítica hegemónica en Estados Unidos”, dice.

ricos de internacionalización. “En el área de ciencias sociales, la mayoría de los trabajos se refiere a cuestiones brasileñas y por supuesto, no aparecen en publicaciones extranjeras”, dice Terra. “Deberían pensarse criterios que evaluasen también el impacto interno”. Al mismo tiempo, las características regionales pueden estar en el origen del prestigio de algunas investigaciones brasileñas. “La alta complejidad territorial y social de Brasil requirió la creación de una teoría sofisticada”, afirma Antonio Carlos Robert de Moraes, del Departamento de Geografía de la FFLCH-USP y coordinador del área de ciencias humanas y sociales de la FAPESP (geografía). Los observadores de los rankings internacionales son unánimes al afirmar que debido a su creación reciente, los criterios deben aún pasar por una etapa de perfeccionamiento. La propia QS coincide con ello, y la decisión de crear un ranking por áreas fue un modo de hacer más específicas y útiles las clasificaciones. “La cuestión más delicada se refiere a la posibilidad de producir criterios compatibles con las diferentes formas de producir conocimiento en las diversas disciplinas”, dice Paula Montero, docente del Departamento de Antropología de la FFLCH-USP y coordinadora adjunta de la Dirección Científica de la FAPESP. Montero considera el criterio de consulta a pares (reputación académica) el más importante: “Cuando un área de conocimiento es lo suficientemente desarrollada y diversificada, este tipo de evaluación externa funciona muy bien”. Pese a ser el más establecido, el criterio de citas en publicaciones académicas también es objeto de restricciones.


QS World University rankings globales: filosofía instituiciónUniversidade Harvard

país

Académico

Empleador

Citas

Puntuación

1

Universidad Harvard

Estados Unidos

99,6

96,3

50,3

94,3

2

Universidad de Oxford

Reino Unido

100,0

95,4

41,0

93,6

3

Universidad de Cambridge

Reino Unido

94,5

100,0

51,9

90,8

4

Universidad de California, Berkeley

Estados Unidos

88,4

65,4

73,3

84,6

5

Universidad Princeton

Estados Unidos

80,1

39,7

81,6

76,2

6

Universidad Nacional de Australia

Austrália

73,8

52,8

95,1

73,8

7

Universidad de Toronto

Canadá

77,1

60,6

36,1

71,4

8

Universidad Stanford

Estados Unidos

74,8

46,0

56,7

70,1

9

Universidad Yale

Estados Unidos

73,2

64,4

22,1

67,2

10

Universidad de Chicago

Estados Unidos

71,1

50,4

13,8

63,3

51-100

Universidad de São Paulo

Brasil

26,8

5,9

5,0

101-150

Universidad Estadual de Campinas

Brasil

16,1

0,0

9,8

151-200

Universidad Federal de Minas Gerais

Brasil

10,7

0,0

8,5

151-200

Universidad Federal de Río de Janeiro

Brasil

14,4

0,0

0,0

2

“Hasta ahora no he visto una medición que apunte a evaluar la calidad de la investigación”, dice Meneghini. Asimismo, los datos en este apartado se recaban en números brutos, lo que hace que universidades inmensas, como la USP, corran con ventaja en la competencia. Modestia

De cualquier modo, la buena ubicación de los cursos de la FFLCH-USP no causa sorpresa. “Sin falsa modestia, el Departamento de Geografía de la USP forma al resto del país y marca el tono de la disciplina en América Latina”, dice Robert de Moraes. “Nuestra presencia en el exterior es sumamente significativa y somos sede de una buena cantidad de encuentros internacionales”, prosigue Terra. En parte, eso se debe al origen de la FFLCH, que fue el núcleo central de la creación de la USP en la década de 1930, con el arribo de docentes extranjeros, fundamentalmente franceses. “Empezamos internacionalizados y contamos con una fuerte tradición humanista”, dice Florenzano. “Por razones históricas, las ciencias sociales siempre tuvieron un nivel relativamente bueno en Brasil”, dice Paula Montero. “Con todo, la declinación de la calidad de la escuela pública, la masificación de la educación superior, la

“Nosotros nacimos internacionalizados y venimos de una fuerte tradición humanista”, dice Florenzano, de la FFLCH

falta de evaluación de desempeño de las universidades y el relativo aislamiento de las ciencias humanas con relación al debate internacional fueron factores que obraron en contra de la expansión y la consolidación de esa calidad.” La tradición se refleja incluso en una carrera reciente y que no forma parte de la FFLCH, como la del Instituto de Relaciones Internacionales (IRI). “Seré suma-

mente sincera. Creo que en ese ranking fuimos a remolque del Departamento de Ciencia Política, que es mucho más antiguo y conocido que el IRI, que fue creado en 2004 y tiene tan sólo dos años de posgrado”, dice Maria Hermínia Brandão Tavares Almeida, directora del instituto. Pero, por supuesto, la calidad de la carrera de alguna manera se refleja en el ranking. Por todo esto, la presencia en listas como las de QS es al mismo tiempo importante y a su vez relativa. “Solamente las universidades poco sólidas se dejan dirigir por demandas de este tipo de investigaciones, pero éstas a su vez pueden constituir un elemento para tener en cuenta en las directrices académicas”, dice Marcelo Ridenti, graduado en sociología en la USP, docente de la Unicamp y coordinador de ciencias humanas y sociales de la FAPESP (sociología). “El procedimiento de evaluación debe partir de la propia universidad, como los estudios que la USP ha venido realizando periódicamente, por ejemplo”, dice Meneghini, quien formó parte de comisiones de evaluación de dicha universidad que contaron con la presencia de especialistas extranjeros. Florenzano coincide: “Debemos diagnosticar fundamentalmente la calidad de las carreras de grado; éste es el punto de partida más importante.” n Márcio Ferrari PESQUISA FAPESP   97


Arte

Como un guante La instalación que se ve en la imagen, una tela de acero que hace las veces de envoltorio de unos balones de diversos colores y tamaños, constituye uno de los más atractivos trabajos del artista plástico brasileño Cildo Meireles, quien le dio el nombre de Glove Trotter. Meireles fue uno de los destacados de la 32ª Panorama das artes, que estuvo en exhibición hasta el mes diciembre de 2011 en el Museo de Arte Moderno de São Paulo (MAM). El artista se apresta ahora a llevar Abajour, otra instalación, al Museo de Serralves, con sede en la ciudad de Porto (Portugal), en 2013, y posteriormente a Madrid (España). Dicha obra fue una de las destacadas de la 29ª Bienal de São Paulo (2010). El trabajo de Cildo Meireles fue tema de un artículo de la sección Arte de Pesquisa FAPESP en noviembre de 2011. 98 | Publicada en noviembre de 2011

Glove Trotter, 1991 Tela de acero y balones de distintos tamaños, colores y materiales, 25 x 520 x 420 cm




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.