Pesquisa FAPESP janeiro de 2012
janeiro de 2012 . www.revistapesquisa.fapesp.br
entrevista Maurício rocha e silva
Como dar visibilidade a uma revista científica timo
Glândula pouco ativa explica doenças autoimunes na síndrome de Down biocerâmicas
Vidro e membrana estimulam recuperação de ossos diplomacia
A delicada relação do Itamaraty com o Congresso comidas
Uma chave saborosa para entender o Brasil colonial
n.191
Uma estrela que apaga Eclipse seguido de colapso de ventos estelares oculta periodicamente a Eta Carinae
fotolab
Mangue na ilha O bosque da baía de Sueste, em Fernando de Noronha, é o único manguezal em ilha oceânica no Atlântico Sul, e há indícios de que se instalou por lá há cerca de 2 mil anos. Apesar de monitorado há três anos por um projeto que reúne três universidades pernambucanas, a Universidade de Pernambuco (UPE), a Federal (UFPE) e a Federal Rural (UFRPE), um mistério permanece: como a árvore mangue-branco (Laguncularia racemosa), que existe na África e no Brasil, chegou até lá? Provavelmente de carona na corrente Sul Equatorial, que liga os dois continentes.
Clemente Coelho Junior Universidade de Pernambuco
4 | janeiro DE 2012
Se você tiver uma imagem relacionada a pesquisa, envie para imagempesquisa@fapesp.br, com resolução de 300 dpi (15 cm de largura) ou com no mínimo 5 MB.
j a neiro 201 2
n.
191
20 CAPA Colapso de ventos estelares prolonga apagão cíclico da estrela Eta Carinae
24 Como observar luas, anéis e até o magnetismo de planetas fora do sistema solar Imagem da capa A estrela Eta Carinae imersa em sua nuvem gasosa Crédito Nasa / HST / J. Morse / K. Davidson
entrevista 28 Mauricio Rocha e Silva Fisiologista que demonstrou o efeito do hormônio vasopressina no organismo conta como fazer uma revista científica de nível internacional
seçÕes 4 Fotolab 6 Cartas 7 Carta da editora 8 Memória 10 On-line 11 Wiki 12 Dados e projetos 13 Boas práticas 14 Estratégias 16 Tecnociência 90 Resenhas 94 Arte 96 Conto 98 Classificados
antropologia
Política científica e tecnológica
astrofísica
bioenergia
34 Energias do futuro
Governo, empresas e centros de pesquisa da Alemanha avançam em conjunto para ampliar o uso de fontes renováveis
Bioinformática
biologia celular
38 Mudanças climáticas
BIOQUÍMICA
Conferência obtém compromisso global para redução de gases do efeito estufa a partir de 2020
Biotecnologia
Botânica
40 História da FAPESP VII Articulação dos pesquisadores paulistas ajuda a multiplicar o uso da bioenergia
44 Internacionalização da ciência
Estudo sugere que o contato pessoal entre pesquisadores é essencial para incentivar colaborações internacionais
48 Convergência tecnológica Especialista defende a convergência tecnológica, estratégia que reúne áreas diversas em temas de fronteira
ciÊncia 50 Imunodeficiências primárias
Cópia extra de gene prejudica o amadurecimento das células de defesa na síndrome de Down
ciência política
tecnologia 64 Materiais bioativos
Membranas com celulose e vidros se ligam aos tecidos e estimulam a regeneração celular
68 Vidros
Imagens refletem a produção de um dos principais centros mundiais de pesquisa em materiais vítreos
72 Softwares
Federal de Minas se associa a empresa para produzir sistemas de tecnologias da informação para internet
cienciometria
computação
ECOLOGIA
engenharia
Evolução
farmacologia
Genética
histologia
Humanidades 74 Diplomacia
Construção de rodoanel na Grande São Paulo aciona operação de replantio de matas
Globalização aproximou opinião pública das decisões internacionais, mas a sua representação no Legislativo ainda é polêmica
60 Análise genética
80 Especiarias
54 Preservação ambiental
Ciências Cognitivas
história
Imunologia
inovação
matemática
medicina
Análise genética questiona a classificação de plantas do grupo dos pinheiros
62 Redes complexas
Conexões com vizinhos ajudam a definir a função das células no organismo
Alimentação permite entender a dinâmica das relações no Brasil colonial
86 Medicina popular
Especialista cataloga usos terapêuticos de plantas e animais no Brasil
Nanotecnologia
pediatria
química
Tecnologia da Informação
PESQUISA FAPESP 191 | 5
fundação de amparo à pesquisa do estado de são Paulo
cartas cartas@fapesp.br
Celso Lafer Presidente Eduardo Moacyr Krieger vice-Presidente
Empresa que apoia a ciência brasileira
Conselho Superior Celso Lafer, Eduardo Moacyr Krieger, Horácio Lafer Piva, Herman Jacobus Cornelis Voorwald, Maria José Soares Mendes Giannini, José de Souza Martins, José Tadeu Jorge, Luiz Gonzaga Belluzzo, Sedi Hirano, Suely Vilela Sampaio, Vahan Agopyan, Yoshiaki Nakano Conselho Técnico-Administrativo Carlos Henrique de Brito Cruz Diretor Científico Joaquim J. de Camargo Engler Diretor Administrativo
issn 1519-8774
Conselho editorial Carlos Henrique de Brito Cruz (Presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Arana Varela, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Marcelo Leite, Maria Hermínia Tavares de Almeida, Marisa Lajolo, Maurício Tuffani, Mônica Teixeira comitê científico Luiz Henrique Lopes dos Santos (Presidente), Cylon Gonçalves da Silva, Francisco Antônio Bezerra Coutinho, João Furtado, Joaquim J. de Camargo Engler, José Roberto Parra, Luís Augusto Barbosa Cortez, Luis Fernandez Lopez, Marie-Anne Van Sluys, Mário José Abdalla Saad, Paula Montero, Sérgio Queiroz, Wagner do Amaral, Walter Colli
Coordenador científico Luiz Henrique Lopes dos Santos Diretora de redação Mariluce Moura
Isaac Klabin
Li com atenção o trabalho excelente de Carlos Haag ao entrevistar Isaac Klabin, presidente da Fundação Brasileira para o Desenvolvimento Sustentável (FBDS), criada por este intelectual e empresário durante a Conferência das Nações Unidas para o Meio Ambiente e Desenvolvimento, a Rio-92. Klabin aborda com precisão analítica as deficiências do desenvolvimento atual, seus efeitos negativos sobre o meio ambiente, sustentando o equívoco governamental que causa o desmatamento. Saliente-se a abordagem: “As camadas mais pobres poderão ser a alavanca do nosso modelo de desenvolvimento, fator do qual não se tem consciência”. Sua advertência: “Nenhuma atividade econômica ou ambiental pode existir sem considerar a inclusão social”.
editor chefe Neldson Marcolin
Francisco J.B. Sá
Editores executivos Carlos Haag (Humanidades), Fabrício Marques (Política), Marcos de Oliveira (Tecnologia), Maria Guimarães (Edição on-line), Ricardo Zorzetto (Ciência)
Salvador, BA
editores especiais Carlos Fioravanti, Marcos Pivetta
Alencastro
Editores assistentes Dinorah Ereno, Isis Nóbile Diniz (Edição on-line) revisão Márcio Guimarães de Araújo, Margô Negro editora de arte Laura Daviña ARTE Ana Paula Campos, Maria Cecilia Felli fotógrafos Eduardo Cesar, Leo Ramos Colaboradores Ana Lima, André Serradas (Banco de imagens), Catarina Bessell, Daniel Bueno, Drüm, Estevan Pelli, Evanildo da Silveira, Helena Katz, Helena Sampaio, Jair Bonfim, João Baptista Borges Pereira, Igor Zolnerkevic, Mariana Coan, Salvador Nogueira, Sheila Goloborotko, Yuri Vasconcelos
É proibida a reprodução total ou parcial de textos e fotos sem prévia autorização
Para falar com a redação (11) 3087-4210 cartas@fapesp.br Para anunciar (11) 3087-4212 mpiliadis@fapesp.br Para assinar (11) 3038-1434 fapesp@acsolucoes.com.br
Gostei demais da entrevista com o historiador Luiz Felipe de Alencastro (edição 188). Ele nos brindou com uma bela aula. A respeito da formação do Brasil, eu, que sou português e apaixonado pela história dos dois países, fiquei muito feliz com o conhecimento, cultura e pesquisas do professor, assim como gostei muito das perguntas de Mariluce Moura. Também gostei muito do texto “... E a América do Sul se fez”, mais um belo trabalho do Carlos Fioravanti. Antonio Amaro São Paulo, SP
Tiragem 39.100 exemplares IMPRESSão Plural Indústria Gráfica distribuição Dinap
GESTÃO ADMINISTRATIVA INSTITUTO UNIEMP PESQUISA FAPESP Rua Joaquim Antunes, n 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP o
FAPESP Rua Pio XI, no 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia Governo do Estado de São Paulo
Casa de plástico
Parabéns pela revista, sempre instigante. Bastante interessante e relevante a reportagem intitulada “Casa de plástico” publicada no número 190. Pena que foi tão curta. Fernando Capovilla Instituto de Psicologia/USP São Paulo, SP
6 | janeiro DE 2012
Inovação
Parabéns pela maravilhosa Pesquisa FAPESP. Lendo os artigos sobre inovação publicados pela revista, resolvi escrever sobre o potencial humano. O recurso mais valioso de um país é seu povo. Identificar o potencial de cada cidadão desde a infância é fortalecê-lo para inovação e desenvolvimento. Em economia existe a “curva da diminuição do retorno”, ou seja, as pessoas trabalham até um certo ponto em direção crescente, mas depois esta mesma curva se torna decrescente. Acredito que se desenvolvermos o potencial de cada cidadão desde a infância a “curva da diminuição do retorno” iria se chamar “curva do aumento do retorno”, ou seja, uma curva sempre crescente. Ana Maria Minucci São Paulo, SP
Correção
Na reportagem “Pioneirismo incessante” (edição 190), o cientista que viu os dados da pesquisa sobre nucléolos de Ricardo Brentani na sala de Isaias Raw foi o bioquímico alemão Fritz Lipmann, ganhador do Nobel de Medicina em 1953, e não o francês Gabriel Lippmann, ganhador do Nobel de Física de 1908.
Cartas para esta revista devem ser enviadas para o e-mail cartas@fapesp.br ou para a rua Joaquim Antunes, 727, 10o andar - CEP 05415-012, Pinheiros, São Paulo-SP. As cartas poderão ser resumidas por motivo de espaço e clareza.
carta da editora
Revelações sobre uma estrela turbulenta Mariluce Moura Diretora de Redação
F
alamos de estrelas nesta primeira edição de 2012. Da Eta Carinae, uma estrela tão cheia de mistérios que, na verdade, são duas, a Eta Carinae A e a Eta Carinae B – em termos mais precisos, um sistema estelar binário. Ela tornou-se objeto da reportagem de capa da Pesquisa FAPESP porque uma equipe internacional de astrofísicos, alguns brasileiros à frente, propôs uma explicação consistente para uma das questões mais intrigantes que a cercam. De forma sintética, a questão é: por que a cada cinco anos e meio a estrela enigmática deixa de brilhar por aproximadamente 90 dias, aos olhos de um observador na Terra, se o eclipse das emissões de raios X provocado pela passagem da Eta A dura apenas 30 dias? A resposta agora proposta pelo grupo liderado por Augusto Damineli e Mairan Teodoro, ambos da Universidade de São Paulo (USP), é que, ao eclipse já razoavelmente conhecido, sucede um segundo fenômeno, ou seja, um colapso, uma perda do equilíbrio na zona de colisão dos ventos das duas estrelas que estende por mais dois meses o “apagão” da Eta Carinae. Há, em consequência, a manutenção da perda de brilho na faixa dos raios X e uma emissão no espectro do ultravioleta. Justamente aí, nesse clarão do ultravioleta, está uma grande novidade, ressalta o editor especial Marcos Pivetta, autor da reportagem que busca a partir da página 20 expor com clareza os novos achados científicos sobre a Eta Carinae. A equipe de astrofísicos chegou a essa e a outras propostas analisando dados registrados por cinco telescópios terrestres situados na América do Sul, durante o mais recente apagão da estrela geniosa, entre janeiro e março de 2009. De zonas remotas do Universo para o que temos de mais próximo, o nosso corpo, esta edição exigiu igualmente esforço dos jornalistas para tornar mais claros, em linguagem corrente, resultados científicos extremamente intricados. Falo isso a propósito, por exemplo, da reporta-
gem sobre a relação entre o funcionamento do timo e a emergência de doenças autoimunes em portadores da síndrome de Down. O timo, por si só, é uma glândula pouco investigada e muito mal conhecida, inclusive por médicos e outros profissionais da saúde. Poucos sabem que esse órgão que se encontra atrás do osso externo e à frente do coração – e que nos recém-nascidos ocupa quase toda a extensão do peito – é uma espécie de campo avançado de treinamento de um grupo importante de células de defesa. Porque é aí que elas, os linfócitos T, aprendem a distinguir o que integra o próprio corpo dos organismos estranhos que precisam ser eliminados, em prol da preservação desse corpo. O problema é que esse aprendizado não é muito bem-sucedido em pessoas com síndrome de Down e a reportagem do editor de ciência, Ricardo Zorzetto, e do nosso colaborador Francisco Bicudo, explica por quê, a partir da página 50. Diferentemente do que se passa nos âmbitos antes abordados da ciência, o desafio nas humanidades é menos o de atribuir clareza a achados e descobertas relevantes, mas obscuros para os leigos no assunto, e muito mais o de expor os fundamentos científicos do que à primeira vista é constatação ou discussão corriqueira de algum aspecto do cotidiano da vida social. Assim, parece estranho que se deva aplicar uma metodologia científica à questão sobre o quanto as decisões da política externa brasileira têm impacto na rea lidade interna do país. Ou à discussão a respeito de qual o papel do Legislativo sobre a diplomacia brasileira, se é que ele tem algum. Mas é exatamente o arcabouço científico que sustenta o avanço do conhecimento nessas questões pertinentes à ciência política que se entremostra na reportagem elaborada pelo editor de humanidades, Carlos Haag, sobre as relações entre o Itamaraty e o Congresso, a partir da página 74. Boa leitura e um excelente 2012 a todos os leitores! PESQUISA FAPESP 191 | 7
memória
Um projeto inteligente Faculdade de Medicina da USP faz 100 anos Neldson Marcolin
Prédio da faculdade na fase final de construção, em 1931. Na parte de baixo da foto, os túmulos do Cemitério do Araçá 8 | janeiro DE 2012
A
o projetar uma escola de formação de médicos para o estado de São Paulo, em 1912, o grupo reunido em torno de Arnaldo Vieira de Carvalho pensava em fazer algo diferente. O objetivo era ter um currículo moderno, diferente das três primeiras faculdades de medicina do país, a de Salvador, a do Rio de Janeiro e a de Porto Alegre. Planejou-se um curso preliminar de um ano e outro geral de cinco anos, com 28 disciplinas. Diretor nomeado da nova escola, Vieira de Carvalho orientou o ensino para que tivesse base científica e experimental, com ênfase em pesquisa e estudos laboratoriais. Nas duas outras faculdades o modelo era de aulas teóricas com destaque para clínica. Cem anos depois, o projeto mostrou-se acertado ao tornar a Faculdade de Medicina da Universidade de São Paulo (FMUSP) uma fonte contínua não só de bons médicos, mas também de pesquisas científicas sobre o campo médico e de saúde. O começo foi difícil. Um ano antes da fundação da então Faculdade de Medicina e Cirurgia de São Paulo surgia a Universidade Livre de São Paulo, de cunho privado,
Fotos Museu Histórico da FMUSP
que nada tem a ver com a USP criada em 1934. A instituição nasceu na esteira da lei Rivadávia Correia, de abril de 1911, que permitia a organização do ensino particular no Brasil. Esta universidade particular, comandada por Eduardo Guimarães, começou com cinco cursos, um deles de medicina. Mas não durou muito – em dezembro de 1912 Vieira de Carvalho conseguiu a aprovação do governo paulista para a faculdade oficial. Esta medida, aliada a outras – como a oposição da elite médica local, que considerava a iniciativa privada de má qualidade –, levou o empreendimento ao fracasso em 1917. O projeto da faculdade oficial teve dificuldade em conseguir dinheiro regular do governo. Nos primeiros anos funcionava em dependências da Escola Politécnica, da Escola de Comércio Álvares Penteado e de um prédio alugado na rua Brigadeiro Tobias. As aulas começaram em 1913 com apenas três professores: Carvalho, Celestino Bourroul e Edmundo Xavier.
Aos poucos se agregaram a eles Guilherme Bastos Miward, os franceses Emille Brumpt e Lambert Mayer e os italianos Alfonso Bovero, Alexandre Donatti e Antonio Carini, entre muitos outros. “Em 1916 veio o apoio da Fundação Rockefeller, que demorou a se efetivar por razões políticas”, conta o historiador André Mota, coordenador do Museu Histórico da FMUSP. “A contrapartida exigida pelos americanos era a construção de um hospital de ensino, que até então funcionava na Santa Casa.” Vieira de Carvalho morreu em 1920, aos 53 anos, e o acordo com a Rockefeller só saiu do papel em 1926. Em 1931 foi inaugurado o prédio atual da faculdade, custeado pela fundação, e três anos depois surgiu a USP. A inauguração do Hospital das Clínicas ocorreu em 1944. Junto com ele começam se estruturar os institutos especializados. Hoje há oito deles. O reconhecimento internacional de excelência da faculdade ocorreu em 1951, quando a Sociedade Americana de Medicina a
Arnaldo Vieira de Carvalho lê discurso no lançamento da pedra fundamental para a construção do prédio, em 1920, ano de sua morte
Aula prática do professor Carmo Lordy, em pé de braços cruzados, no prédio da rua Brigadeiro Tobias. Foto feita entre 1914 e 1920
colocou entre as 15 melhores do mundo. “Hoje o ranking da Universidade de Xangai, um dos vários existentes, a classificou em 76º lugar; é o único curso brasileiro entre os Top 100”, diz José Otávio Costa Auler Júnior, vice-diretor em exercício da faculdade. “Queremos ficar entre as 50.” Nesses 100 anos, o corpo docente foi responsável por avanços científicos pioneiros, como o primeiro transplante de rim da América Latina (1965), o primeiro de fígado da América do Sul (1968) e o segundo de coração do mundo (1968), entre muitos. Em 1975 foram criados 62 Laboratórios de Investigação Médica (LIM) nos quais hoje se produzem 4% da pesquisa nacional (ou 14% na área médica do país). Para o futuro, Costa Auler revela três objetivos. “O primeiro é promover a maior integração dos grupos de pesquisa com pesquisadores do exterior de modo a aumentar o impacto da ciência produzida”, diz. O segundo é estruturar novos modelos educacionais para tornar os cursos mais eficientes, buscando a excelência no ensino. E, por último, desenvolver estratégias voltadas para alguns dos problemas de saúde pública das grandes cidades, como poluição, álcool e drogas. PESQUISA FAPESP 191 | 9
on-line
Nas redes
w w w. r e v i s ta p e s q u i s a . f a p e s p. b r
fabio colombini
Everton Lima Freitas_ O novo projeto gráfico da revista ficou muito bom. Parabéns!
Podcast
A importância do Atlântico Sul na formação social e cultural do Brasil é abordada pelo historiador Luiz Felipe de Alencastro
Jackson Itikawa_ As dentaduras e os banguelas estão com os dias contados!!! (Pergunte aos pesquisadores) Charles Carneiro dos Santos_ Bom seria se depois de toda esta trabalheira científica os culpados fossem condenados e as vítimas compensadas. Sonho!!! (Ossos que falam) Química ensinada_ Esse ano de 2011 vai deixar saudades! Viva o Ano
Camadas de rocha no Parque do Varvito
Internacional da Química 2011.
Exclusivo no site
caçadora de tornados, atuar na As crianças que não receberam a
física médica, mas agora estou
que rochas avistadas no Parque do
vacina BCG contra a tuberculose, no
encantada com essa veia cultural
Varvito (Itu, São Paulo) e na região
primeiro mês de vida, deveriam ser
da física. (Segredos debaixo da tinta)
de Rio do Sul (Santa Catarina) foram
vacinadas durante a idade escolar,
depositadas anualmente há 290
indica estudo feito no Brasil e
@RafaelRoesler_ @PesquisaFapesp
milhões de anos. Mas uma equipe
publicado na The Lancet Infectious
@stevensrehen Meus dois papers
de pesquisadores mostra em quatro
Diseases. Os autores do estudo
mais citados são em coautoria com
artigos que a deposição dessas
se basearam em dados de uma
o Brentani. Admirava-o muito como
rochas não teve essa periodicidade
pesquisa que há nove anos
cientista e pessoa.
e, em paralelo, que o clima no
acompanha crianças de Salvador e de
período da glaciação de Gondwana
Manaus, comparando os custos de
@puc_sp_ Independência e ousadia,
(continente que reunia América
tratamento dos casos de tuberculose
Brentani promoveu a biologia
do Sul, África, Oceania, Antártida,
com o investimento na vacinação
molecular e fortaleceu a pesquisa
Índia e península Arábica) teve fases
das crianças e a consequente
sobre o câncer no Brasil.
mais quentes do que se imaginava.
proteção que elas ganharam.
Vídeo do mês Paleontólogo Herculano Alvarenga revela os mistérios da trajetória evolutiva da ave cigana http://www.youtube.com/user/PesquisaFAPESP
10 | janeiro DE 2012
Assista ao vídeo:
Para ler o código ao lado faça o download do leitor de QR CODE no seu smartphonE
Até agora os geólogos supunham
Zul Carvalho_ Já desejei ser física
WiKi
o que é, o que é? Como funcionam as telas de toque
Pergunte aos pesquisadores Quando uma gota de água suja seca na pele, as bactérias que estavam dentro dela “andam” para outras partes do corpo? Caru Marin [via facebook]
ilustração daniel bueno foto eduardo cesar
Reinaldo Salomão professor titular de infectologia do Departamento de Medicina da Escola Paulista de Medicina da Unifesp
As bactérias contidas em uma gota de água suja acabam aderindo à parte do corpo onde caíram. Por exemplo, se o respingo caído de uma marquise for no cotovelo, as bactérias não andarão até a mão. Além disso, é muito pouco usual uma única gota de água suja gerar problemas para a saúde. A pele é um ótimo sistema de defesa. Quando está íntegra, sem ferimentos ou cortes, uma gota suja não causa problema algum, as bactérias nem conseguem invadir o nosso organismo e morrem. Neste caso, higienizar a parte do corpo com água e sabão basta para evitar problemas à saúde. Em outras situações,
como atravessar uma enxurrada ou um lugar alagado, as bactérias presentes na água podem causar infecção na própria pele ou em outras partes do corpo ao entrar no organismo por meio de um ferimento. A leptospirose é um exemplo. As bactérias, responsáveis pela doença e eliminadas pela urina de ratos, podem permanecer na água. Ao ter contato com essa água contaminada, ferimentos na pele podem facilitar a entrada de bactérias do gênero Leptospira no organismo. De uma maneira geral, mesmo nesses casos, uma pele íntegra costuma evitar doenças.
Mande sua pergunta para o e-mail guimaraes@fapesp.br, pelo facebook ou pelo twitter @PesquisaFapesp
A tecnologia touch screen integra sensores na tela e softwares para interpretar os comandos do usuário. Os dispositivos mais populares utilizam três tecnologias: resistiva, capacitiva e acústica. Nas telas resistivas se utiliza uma caneta (stylus) e elas funcionam com auxílio de duas placas finas transparentes sobrepostas, que não se tocam mas deixam passar uma pequena corrente elétrica. Ao se tocar em um determinado ponto na tela com o dedo ou uma stylus as placas se encostam e a mudança no campo elétrico é percebida. Em seguida as coordenadas do ponto são registradas e associadas a um comando. As telas capacitivas possuem uma fina camada de um material com capacidade de armazenar potencial elétrico como, por exemplo, o óxido de índio-estanho. Como o corpo humano é condutor de eletricidade, ao tocarmos no dispositivo com o dedo causamos uma distorção no campo eletrostático da tela, a qual é percebida com a mudança da capacidade de armazenamento do ponto tocado e cujas coordenadas são registradas pelo sistema. Ao contrário das resistivas que funcionam à base da pressão, nas telas capacitivas não é possível usar luvas ou outro material não condutor. Nas acústicas são usadas ondas ultrassônicas que cruzam a sua superfície. Quando a tela é tocada, uma parte da onda eletromagnética é absorvida e a mudança da oscilação permite registrar a coordenada do ponto tocado. Farid Nourani do Instituto de Geociências e Ciências Exatas da Unesp de Rio Claro
PESQUISA FAPESP 191 | 11
Dados e projetos Temáticos e Jovem Pesquisador recentes Projetos contratados entre novembro e dezembro de 2011 temáticos Mecanismos neurais envolvidos na quimiorrecepção Pesquisador responsável: Eduardo Colombari Instituição: Fac. de Odontologia de Araraquara/Unesp Processo: 2009/54888-7 Vigência: 01/11/2011 a 31/10/2015 Tema: Avaliar a participação do núcleo retrotrapezoide (NRT) nas respostas ventilatórias e cardiovasculares à hipercapnia (aumento do CO2 no sangue arterial) de ratos não anestesiados após lesões seletivas. As evidências do NRT como quimiorreceptor central foram obtidas em experimentos sob anestesia. O melhor entendimento desta região poderá ajudar na compreensão de situações fisiopatológicas. Técnicas modernas em espectrometria de massas e desenvolvimento de novas aplicações em ciências: química, bioquímica, materiais, forense, medicina, alimentos, farmácia e veterinária Pesquisador responsável: Marcos Nogueira Eberlin Instituição: Inst. de Química/Unicamp Processo: 2010/51677-2 Vigência: 01/11/2011 a 31/10/2015 Tema: Consolidar e ampliar a atuação do Laboratório ThoMSon de Espectrometria de Massas como líder no desenvolvimento e uso de técnicas modernas em
espectrometria de massas e abrir também novas áreas de atuação, como as que envolvem pesquisas em hormônios, química forense e caracterização de bactérias em matrizes diversas. ICTP - Instituto Sul-americano para Pesquisa Fundamental: um centro regional para física teórica Pesquisador responsável: Nathan Jacob Berkovits Instituição: IFT/Unesp Processo: 2011/11973-4 Vigência: 01/12/2011 a 30/11/2016 Tema: O International Centre for Theoretical Physics (ICTP), em colaboração com a Universidade Estadual Paulista (Unesp), recentemente criou o ICTP South American Institute for Fundamental Research que será alojado no prédio do Instituto de Física Teórica da Unesp na cidade de São Paulo. O novo instituto será um centro regional em física teórica para a América do Sul. Mecanismos moleculares envolvidos na disfunção e morte de células beta pancreáticas no diabetes mellitus: estratégias para a inibição desses processos e para a recuperação da massa insular em diferentes modelos celulares e animais Pesquisador responsável: Antonio Carlos Boschero Instituição: Inst. de Biologia/Unicamp Processo: 2011/09012-6
Vigência: 01/11/2011 a 31/10/2015 Tema: Estudar os mecanismos envolvidos na perda da massa e funcionalidade insulares em diferentes modelos animais (desnutrição proteica, obesidade, dislipidemias e DM2) e os mecanismos envolvidos no aumento da massa das ilhotas em diversas etapas da vida (períodos intrauterino e neonatal e prenhez). Apesar da enorme quantidade de trabalhos encontrada na literatura a esse respeito, os mecanismos moleculares subjacentes à redução ou aumento da massa de células beta, nas situações apontadas acima, não são totalmente conhecidos. Jovem pesquisador Produção de melatonina por células do sistema nervoso central em condições de injúria Pesquisadora responsável: Luciana Pinato Instituição: Fac. de Filosofia e Ciências de Marília/Unesp Processo: 2011/51495-4 Vigência: 01/12/2011 a 30/11/2015 Tema: Estabelecer bases moleculares que promovem a produção de melatonina no sistema nervoso central (SNC) e avaliar se a melatonina pode ser um dos agentes moleculares dos processos de defesa do SNC. Caracterização da proteína S1PR1 hipotalâmica no controle da ingestão alimentar em roedores
Pesquisador responsável: Eduardo Rochete Ropelle Instituição: FCA/Unicamp Processo: 2011/09656-0 Vigência: 01/11/2011 a 31/10/2015 Tema: O hipotálamo é responsável pelo controle da ingestão alimentar e do gasto energético. Proteínas hipotalâmicas controlam os sinais de saciedade. O objetivo do projeto será investigar os efeitos da proteína S1PR1 (sphingosine-1-phosphate receptor-1) neuronal no controle da ingestão alimentar em diversas situações, como o jejum, a anorexia do câncer, a obesidade e em resposta ao exercício físico. Caracterização populacional de abelhas das orquídeas (Apidae, euglossini) do estado de São Paulo por morfometria geométrica de asas e variabilidade do DNA mitocondrial Pesquisador responsável: Tiago Mauricio Francoy Instituição: EACH/USP Processo: 2011/07857-9 Vigência: 01/12/2011 a 30/11/2015 Tema: Estudar diversas populações de abelhas da tribo Euglossini, coletados em várias localidades do estado de São Paulo, de modo a avaliar a sua variabilidade populacional. A diminuição das populações de polinizadores é um problema global e diversos esforços estão sendo feitos para monitorar a biodiversidade das abelhas, sua conservação e uso sustentável.
Bioenergia e etanol combustível Patentes concedidas pelo USPTo de 2001 a 2010 e que contêm os termos bioenergy ou ethanol & fuel ou bioethanol Tendo universidade como titular
Tendo universidade como titular Total
Quantidade
%
12. Austrália
65
17
26
2
13. Holanda
64
0
0
1
14. China
62
14
23 4
País
Total
Quantidade
%
País
1. Estados Unidos
7.865
725
9
2. Japão
2.251
46
3. Alemanha
569
5
4. Coreia do Sul
470
17
4
15. Bélgica
53
2
5. França
288
10
3
16. Finlândia
47
2
4
6. Canadá
219
35
16
17. Itália
47
3
6
7. Dinamarca
165
11
7
18. Suécia
39
0
0
8. Reino Unido
158
16
10
19. Índia
36
0
0
9. Suíça
93
0
0
20. Brasil
35
3
9
10. Taiwan (China)
92
28
30
21. Cingapura
23
9
39
11. Israel
77
13
17
22. Irlanda
17
4
24
Fonte: Levantamento feito com o aplicativo Mapper, desenvolvido pela Elabora Consultoria (www.elabmapper.com.br)
12 | janeiro DE 2012
Boas práticas Liberdade de expressão e boa ciência descobertas científicas, incorporando opiniões pessoais ou especializadas”. Isso, desde que deixem claro não estão falando em nome da agência. “Em nenhuma circunstância uma autoridade da Noaa pode pedir que cientistas suprimam ou alterem suas descobertas científicas.” O documento da Noaa determina que as decisões do órgão sejam tomadas com base na “melhor ciência possível”. Estabelece regras para a declaração de conflito de interesses e cria instrumentos de proteção tanto para quem faz denúncias sobre má conduta científica de boa-fé como para pesquisadores inocentados no processo de investigação.
daniel bueno
A Noaa, agência federal norte-americana para meteorologia, oceanos, atmosfera e clima, divulgou em dezembro sua política de integridade científica, que chamou a atenção por garantir aos cientistas do órgão o direito de falar livremente com a imprensa. Em 2006, a agência foi impedida pelo Departamento do Comércio, ao qual é vinculada, de divulgar um relatório sobre o aquecimento global e seu impacto na frequência e na força dos furacões. A justificativa era que o relatório ficara “técnico demais”. Na verdade, a questão dos efeitos negativos do aquecimento global era politicamente sensível, dada a resistência do governo de George W. Bush de tomar medidas para reduzir as emissões de gases causadores do efeito estufa. No mesmo ano, outra agência norte-americana, a Nasa, envolveu-se num caso semelhante de censura. Um funcionário do setor de relações públicas foi acusado de tentar restringir o acesso de jornalistas a James Hansen, o principal especialista em mudança climática da agência espacial norte-americana. Hansen afirmou à época que a campanha de censura começou após ter feito um discurso pedindo a rápida redução dos gases responsáveis pelo aquecimento global. Segundo o blog Careers, da revista Science, a política de integridade da Noaa afirma que os cientistas da agência “podem falar livremente à mídia e ao público sobre as descobertas científicas e técnicas com base em seu trabalho oficial”. E acrescenta que eles são “livres para apresentar pontos de vista, por exemplo, sobre assuntos políticos e gerenciais, que se estendam para além de suas
Má conduta sem segredo Três agências de apoio à pesquisa do Canadá decidiram mudar suas normas de confidencialidade para poder revelar publicamente os nomes de pesquisadores condenados em processos por má conduta científica. Os institutos canadenses de pesquisa médica (CIHR) e os conselhos de pesquisa em ciências naturais e engenharia (NSERC) e de ciências sociais e humanidades (SSHRC) vão exigir que pesquisadores contemplados com financiamentos assinem um termo de consentimento permitindo que seus nomes possam ser revelados em caso de violação das normas de integridade. “Acreditamos que a introdução de consentimento irá reforçar ainda mais a reputação do Canadá no tocante à conduta responsável na pesquisa”, disseram os presidentes dos três órgãos em um comunicado, de acordo com o site da revista Nature.
Como o Canadá tem leis de privacidade rigorosas, as agências têm sido acusadas de falta de transparência em episódios de má conduta. Recentemente, a NSERC não pôde divulgar os nomes de pesquisadores condenados por má conduta, incluindo-se um que declarou uma série de artigos fictícios em seu currículo, porque estavam protegidos pela lei. Esses nomes continuarão em sigilo, porque a mudança não é retroativa. Outra novidade é a exigência de que as instituições nomeiem comissões para investigar a má conduta “sem conflito de interesse, real ou aparente”, e que incluam “pelo menos um membro externo, sem afiliação atual com a instituição”. Essa exigência é mais específica do que as que vigoram em agências norte-americanas, que se limitam a regular o conflito de interesses. PESQUISA FAPESP 191 | 13
Estratégias
Propriedade intelectual O Programa de Apoio à Propriedade Intelectual (Papi) da FAPESP foi ampliado e passará a ter três modalidades de apoio – individual, institucional e capacitação –, de acordo com portaria que instituiu, no final de novembro, o regulamento do programa. Na modalidade Individual, serão apoiados pesquisadores e instituições de ensino e pesquisa ou pequenas empresas do estado de São Paulo em questões relativas à gestão da propriedade intelectual gerada no âmbito de bolsas e auxílios financiados pela FAPESP. Na modalidade Institucional, as instituições paulistas de ensino superior e pesquisa 1
Sem remédio no horizonte
Sede da Novartis, em Basileia, Suíça: fim do laboratório de neurociência
serão amparadas por meio do apoio ao registro e licenciamento de propriedade intelectual criada a partir dos resultados de pesquisas financiadas pela Fundação. A modalidade Capacitação apoiará o aprimoramento dos Núcleos de Inovação
A multinacional
atividade de altíssimo
farmacêutica Novartis
risco, depois que uma
Tecnológica (NITs) das instituições de
está abandonando
série de remédios
ensino e pesquisa do estado de São
uma linha de pesquisa
experimentais fracassou
Paulo. Os NITs são escritórios voltados
que procurava novos
após anos de testes
para administrar a política de inovação
tratamentos contra
clínicos. “As abordagens
das instituições e garantir que os
doenças do cérebro.
convencionais para criar
resultados de suas pesquisas alcancem a
Segundo a revista
drogas para a saúde
sociedade. O Papi foi criado em 2000
Nature, a empresa vai
mental não obtiveram
para proteger a propriedade intelectual
fechar o laboratório de
resultados nos últimas
e licenciar os direitos sobre os resultados
neurociência em
duas décadas”, diz Ken
de pesquisas apoiados pela FAPESP. Mais
Basileia, na Suíça, onde
Kaitin, diretor do Centro
informações sobre o programa estão
fica a sua sede. Ela segue
Tufts para o Estudo do
disponíveis em www.fapesp.br/papi.
os movimentos da
Desenvolvimento de
GlaxoSmithKline e da
Medicamentos, em
AstraZeneca, do Reino
Boston, Massachusetts.
Unido, que em 2010
“As empresas vivem um
fecharam suas divisões
dilema, pois a procura
de neurociência.
por medicamentos é
A Novartis, contudo,
crescente.” Há uma
promete lançar no
boa quantidade de
futuro programas para
remédios baratos,
estudar a genética das
entre antidepressivos e
moléstias psiquiátricas
antipsicóticos, que agem
e cognitivas, na
sobre alvos conhecidos,
esperança de identificar
como receptores de
novas estratégias
neurotransmissores.
de tratamento.
A busca de novos alvos
O desenvolvimento de
esbarra no ainda
drogas para doenças
limitado conhecimento
cerebrais passou a ser
sobre a biologia
visto como uma
do cérebro.
14 | janeiro DE 2012
Plataforma de pesquisa oceanográfica na China A China apresentou no final de novembro seu mais avançado navio de pesquisa oceanográfica. Com capacidade para levar 80 pessoas, o Kexue foi lançado no rio Yangtzé, na cidade de Wuhan, e vai realizar em 2012 sua primeira missão no Pacífico Oeste, com foco na influência
do oceano sobre o clima e o meio ambiente marinho. O navio mede 99,6 metros de comprimento e 17,8 metros de largura, e pesa 4.864 toneladas. Vai reforçar a capacidade de pesquisa oceanográfica e diminuir a diferença entre a China e as potências marítimas ocidentais,
disse à agência Xinhua o diretor do projeto, Sun Song. Suas hélices, acionadas por motores elétricos, podem girar em qualquer direção horizontal, tornando o navio mais manobrável do que se tivesse hélice fixa e sistema de leme. Com um laboratório de 360 metros quadrados, está apto para receber uma série de instrumentos de pesquisa, da análise de sedimentos a experimentos sísmicos.
Manejo da irrigação
2
fotos 1. novartis 2. kexue-ship 3. Sérgio Luiz Seagro ilustraçãO daniel bueno
Para simular as mudanças do uso da terra
O navio Kexue promete dar impulso à pesquisa sobre mudanças climáticas e biodiversidade
A Faculdade de
em todas as culturas.
Engenharia (FE) da
O desenvolvimento do
Universidade Estadual
software levou 10 meses
Paulista (Unesp),
e seus principais
campus de Ilha Solteira,
benefícios são estimar
disponibilizou um
rapidamente a
software para o manejo
evapotranspiração,
da água utilizada
que é a perda de água
na agricultura irrigada.
do solo por evaporação
O programa é resultado
e a perda de água da
do projeto Modelagem
planta por transpiração.
da Produtividade da Água
Hernandez afirmou
em Bacias Hidrográficas
que a ferramenta foi
O Instituto Nacional de
cobertura da terra,
com Mudanças de Uso
desenvolvida pensando
Pesquisas Espaciais
como desmatamentos,
da Terra, financiado pela
na simplicidade do uso.
(Inpe) lançou o Land Use
expansão da fronteira
FAPESP e pela Fundação
“Um tutorial mostra
and CoverChange
agrícola, desertificação,
de Amparo à Ciência
como entrar com os
(LuccME) – ferramenta
degradação florestal,
e Tecnologia do Estado
dados a partir de uma
de código aberto para a
expansão urbana e
de Pernambuco (Facepe).
planilha e, caso falte
construção de modelos
outros processos em
De acordo com Fernando
alguma variável, ela
de mudança de uso e
diferentes escalas e
Tangerino Hernandez,
é estimada por rotinas
cobertura da terra.
áreas de estudo. Uma
coordenador do projeto, o
internas”, disse à
Desenvolvido pelo
das aplicações desse
sistema pode ser aplicado
Agência FAPESP.
Centro de Ciência do
tipo de modelo é a
Sistema da Terra (CCST)
construção de cenários
do Inpe, trata-se de uma
de futuros alternativos.
extensão do ambiente
Segundo Ana Paula
de modelagemTerraME,
Aguiar, pesquisadora do
resultado da parceria
Inpe e líder do projeto,
entre o instituto e a
a proposta do LuccME é
Universidade Federal de
oferecer uma ferramenta
Ouro Preto. De acordo
na qual componentes já
com o Inpe, o aplicativo
existentes podem ser
permite simular
combinados e
diferentes processos
estendidos para
de mudança de uso e
a criação de modelos.
Software ajuda a usar água na agricultura de forma mais racional
3
PESQUISA FAPESP 191 | 15
Tecnociência Os genes do causador da coccidiose aviária Um grupo de
Os pesquisadores
pesquisadores da
compararam os padrões
Universidade de São
de expressão gênica em
Paulo (USP) catalogou
seis diferentes estágios
os genes de três
da vida do parasita e
importantes espécies de
encontraram associações
protozoários (Eimeria
claras entre a posição
acervulina, E. maxima
desses estágios no ciclo
e E. tenella) causadoras
de vida do protozoário
da coccidiose aviária,
e os seus respectivos
doença que acomete o
perfis gênicos. O
trato gastrointestinal
conhecimento dos genes
das aves causando
transcritos e de seus
grandes prejuízos à
padrões de expressão
criação (International
pode levar a um
Journal for Parasitology,
entendimento mais
janeiro 2012). Em vez de
amplo dos mecanismos
sequenciar o genoma
moleculares que
do organismo, o grupo
controlam a via
Mais um possível efeito
diminuição da
de pesquisa liderado
parasitária e, com isso,
do aquecimento global:
quantidade de gelo
pelos professores Alda
ao desenvolvimento
o derretimento de
sobre a possessão
Madeira e Arthur Gruber,
de estratégias mais
100 bilhões de toneladas
dinamarquesa.
do Instituto de Ciências
específicas de combate
de gelo que estavam
“Não há realmente outra
Biomédicas da USP,
da doença, como uma
sobre a metade sul da
explicação”, diz o
escolheu como alvo
nova geração de
Groenlândia durante
pesquisador Michael
os RNAs mensageiros,
medicamentos ou
o verão extremamente
Bevis, da Ohio State
moléculas transcritas
a identificação de
quente de 2010 no
University, um dos
a partir do genoma que
possíveis moléculas
hemisfério Norte fez
envolvidos no projeto.
codificam as proteínas
candidatas à
com que partes do
“A subida anormal se
de um ser vivo.
composição de vacinas.
seu território se
correlaciona com os
sobrelevassem até
mapas de derretimento
20 milímetros, 5 a mais
de gelo de 2010. Onde
do que normalmente
o gelo derreteu por mais
é registrado nos meses
dias, a subida foi mais
estivais. Com menos
elevada.” No norte
peso em cima, as rochas
da ilha, onde o clima
que formam o solo
é muito frio e o
da porção meridional da
derretimento mais raro,
ilha ascenderam de
nenhuma estação mediu
forma excepcional. Os
movimentação relevante
dados foram coletados
da estrutura rochosa.
por uma rede de
Os dados do estudo
quase 50 estações GPS
foram apresentados
espalhadas pela costa
em dezembro num
da Groenlândia que
encontro em San
monitora a resposta
Francisco da União
do terreno local à
Geofísica Americana.
2
1
16 | janeiro DE 2012
Criação de aves: doença ataca o trato gastrointestinal dos animais e causa prejuízos
A ascensão da Groenlândia
fotos 1. Luis Miguel Bugallo Sánchez / wikicommons 2. Dana Caccamise / Ohio State University 3. eduardo cesar ilustração daniel bueno
Estação GPS: menos gelo em 2010 fez rochas ao sul da ilha se elevarem até 20 milímetros
Castanha contra cárie A adição de 10% de
o dentifrício disponível
óleo de castanha-do-pará
no mercado, sem
ou de um óleo mineral
qualquer alteração.
(parafina líquida) à
Outro usou a mesma
composição das pastas
pasta com óleo de
de dente comerciais
castanha e um terceiro
pode ser útil para
o dentifrício com
prevenir ou controlar
óleo mineral. No final
cáries e doenças
do experimento
periodontais. A
houve uma redução
conclusão é de um
estatisticamente
estudo feito
significativa de
por pesquisadores da
problemas associados
Pontifícia Universidade
à higiene bucal
Católica de Minas
nos dois grupos
Gerais (Brazilian Oral
que utilizaram pasta
Um biomarcador não
com o Instituto de
Research, nov./dez. 2011).
com óleos. Com
invasivo consegue
Química da USP,
Eles testaram durante
a modificação
em sete minutos fazer
desenvolveu um
90 dias três pastas com
na composição,
o diagnóstico da
aparelho portátil para
formulações distintas em
o dentifrício parece
gravidade do quadro
captar a substância
30 pessoas. Um grupo
ser mais eficiente no
de insuficiência cardíaca
exalada. “O ar coletado
escovou os dentes com
combate a bactérias.
por meio da avaliação
foi analisado no
da acetona exalada pelo
espectrômetro de
paciente. O projeto, que
massas e o composto
teve apoio da FAPESP,
foi identificado como
começou a partir de uma
acetona”, diz Bacal.
observação do médico
Testes comparativos
Fernando Bacal, do
foram feitos com uma
Instituto do Coração
substância colhida no
(InCor) da Universidade
sangue chamada BNT,
de São Paulo (USP). Ele
que é o padrão ouro
observou que pacientes
de marcadores de
com grave insuficiência
insuficiência cardíaca.
cardíaca exalavam um
Tanto o biomarcador
odor peculiar se estavam
como o aparelho
descompensados. Em
portátil de coleta
seguida, numa parceria
foram patenteados.
3
Castanha-do-pará: adição de 10% do óleo vegetal na pasta de dente pode prevenir ou reduzir doenças bucais
Cheiro de problema cardíaco
Cérebro dita hora de parar exercício cansativo Parte do cansaço muscular sentido durante um exercício físico extenuante é determinada pelo cérebro. Uma equipe de pesquisadores da Universidade de Zurique e da Escola Politécnica de Zurique (ETH) mostrou que a comunicação entre a ínsula – uma das regiões do córtex cerebral encarregada de sinalizar situações de perigo ao organismo, como
fome e dor – e a área associada à motricidade primária se intensifica à medida que o ritmo do pedalar numa bicicleta ergométrica se acelera e a fadiga aumenta (European Journal of Neuroscience, 21 de novembro). “Isso pode ser interpretado como uma evidência de que esse sistema neuronal não apenas informa o cérebro, mas também tem o efeito
de regular a atividade motora”, diz Lea Hilty, uma das autoras do estudo. Outro trabalho do grupo indica que, quando a comunicação entre a espinha dorsal e a área motora é temporariamente interrompida pelo emprego de um fármaco, a sinalização neuronal para suspender um exercício cansativo demora mais para ser disparada.
PESQUISA FAPESP 191 | 17
Exemplos de inovação
1
O NH2 da New Holland vai estrear em uma fazenda que produzirá o combustível
Trator a hidrogênio
Os vencedores do
e tecnológicas, o
14º Prêmio Finep de
ganhador foi o Centro
Inovação Tecnológica
de Informática da
2011 tiveram
Universidade Federal de
representantes de todas
Pernambuco pela
as regiões brasileiras.
atuação em pesquisa
A categoria grande
dentro de várias áreas
empresa ficou com a
da computação em
Braskem, de São Paulo,
parcerias com outras
pela pesquisa e
instituições e empresas.
desenvolvimento em
O troféu tecnologia
biopolímeros com foco
social foi para a
no polietileno feito de
Associação dos
cana-de-açúcar (ver em
Trabalhadores
Pesquisa FAPESP nºs 142
Agroextrativistas da Ilha
e 177). A micro e pequena
das Cinzas, no Amapá.
empresa vencedora foi
Eles desenvolveram uma
a Reason, de Santa
armadilha que só recolhe
No próximo verão
agrícolas e estrume
Catarina, desenvolvedora
camarões grandes,
europeu, na Fazenda La
ou por meio da queima
de soluções para redes
liberando os menores,
Bellotta, próximo a
desses resíduos
de transmissão de
contribuindo assim para
Turim, na Itália, uma
para gerar vapor e
energia elétrica e
manter os estoques
propriedade que busca
movimentar turbinas
equipamentos elétricos
naturais do crustáceo.
ser independente em
de geradores. O trator
industriais. A média
A última categoria é a
termos de energia, vai
foi desenvolvido
empresa foi a Scitech, de
do inventor inovador,
ocorrer a estreia do
pela New Holland em
Goiás, especializada na
cujo prêmio foi atribuído
trator NH2 movido a
colaboração com o
fabricação de aparelhos
ao físico Vladimir Jesus
hidrogênio. O
Centro de Pesquisa da
e componentes médicos
Trava Airoldi,
combustível gasoso será
Fiat, empresa holding
como o primeiro stent
pesquisador do Instituto
produzido na própria
do grupo, e possui uma
(dispositivo metálico
Nacional de Pesquisas
fazenda por meio da
célula a combustível,
que corrige e trata
Espaciais (Inpe),
hidrólise da água. Esse
equipamento que
estreitamento de
de São José dos
processo exige
transforma o hidrogênio
artérias) fabricado no
Campos (SP), por ter
eletricidade, que já é
em energia elétrica
Brasil (ver em Pesquisa
desenvolvido uma
obtida na propriedade
dentro do veículo. Além
FAPESP n° 173). Na
ponta de diamante
por meio de energia
de ser autossuficiente,
categoria destinada a
sintético para brocas
solar ou biogás,
o NH2 emite apenas
instituições científicas
odontológicas.
produzidos com restos
vapor-d’água.
Switchgrass: opção para produção de biodiesel e gasolina
Bactéria digere gramínea Uma nova rota de produção de biocombustíveis foi desenvolvida por pesquisadores do Joint BioEnergy Institute (JBEI), do Departamento de Energia dos Estados Unidos. Eles extraíram açúcares do switchgrass, gramínea que cresce na América do Norte, com linhagens de bactérias Escherichia coli geneticamente modificadas. Elas digerem a 2
18 | janeiro DE 2012
celulose e a hemicelulose da planta, que são pré-tratadas para se dissolverem com líquidos iônicos formados por solventes baratos e pouco danosos ao ambiente. As bactérias coletam os açúcares e os transformam em biodiesel, butanol (substituto da gasolina) e em pineno, composto precursor do combustível de aviação (PNAS, 28 de novembro).
fotos 1. New Holland 2. Steve Renich/Wikimedia Commons 3. Cern ilustração daniel bueno
A massa do bóson de Higgs
Uma teia musical
Finalmente surgiram
(Giga-elétron-volts),
os primeiros indícios
equivalente a cerca
experimentais da
de 130 prótons. “O dado
existência do bóson de
não é conclusivo”,
Higgs, a hipotética
explica o físico
partícula responsável
experimental Sergio
por conferir massa às
Novaes, da Universidade
demais partículas e um
Estadual Paulista
componente essencial
(Unesp), em entrevista
do chamado modelo
ao programa de rádio
padrão, o arcabouço
Pesquisa Brasil. “Mas
teórico desenvolvido
conseguimos restringir
pelos físicos nos últimos
a faixa de massa em que
50 anos para explicar
o bóson deve existir.”
o comportamento
Novaes participa do
da matéria no nível
grupo que trabalha no
submicroscópico.
detector CMS, um dos
No dia 13 de dezembro,
dois (o outro é o Atlas)
dois experimentos
encarregados de
tocados por grupos
analisar os choques
independentes no Large
entre prótons em busca
Hadron Collider (LHC) –
de partículas ainda não
o maior acelerador de
encontradas, como
partículas do mundo,
o bóson de Higgs. Até o
situado no Centro
final deste ano, os físicos
A teia tecida por uma
O trabalho é um
Europeu de Pesquisas
esperam ter acumulado
aranha e a música
dos exemplos de uma
Nucleares (Cern), em
dados suficientes
composta por um
nova metodologia
Genebra – divulgaram
para dizer se a elusiva
artista apresentam
matemática
resultados muito
partícula de fato existe
similaridades insuspeitas
denominada log
convergentes, quase
ou as evidências
quando olhadas a nível
ontológico (ou olog),
idênticos: se de fato
agora divulgadas não
nanométrico. Segundo
que fornece meios
existir, o bóson de Higgs
passaram de um falso
um estudo feito por
abstratos para classificar
deve ter uma massa em
alarme causado por uma
pesquisadores do
propriedades gerais
torno dos 125 GeV
flutuação estatística.
Massachusetts Institute
de qualquer sistema,
of Technology (MIT),
como um material,
a estrutura básica de
um conceito ou um
ambos os sistemas – um
fenômeno, e realçar
aminoácido no caso da
relações inerentes
teia e uma onda sonora
entre sua estrutura
no da canção – se
e sua função. “O abismo
relaciona de maneira
aparentemente
equivalente à sua
inacreditável que separa
respectiva função
a teia da música não
(BioNanoScience,
é maior do que o de dois
dezembro). Da mesma
campos distintos da
forma que os tijolos
matemática, como
químicos são capazes
a geometria, com seus
de conferir leveza
triângulos e esferas,
e resistência mecânica
e a álgebra, com suas
aos fios da teia, o padrão
variáveis e equações”,
repetitivo de notas e
diz David Spivak, um
acordes cria uma tensão
dos autores do trabalho
sonora capaz de captar
e criador da nova
a atenção do ouvinte.
metodologia.
Colisões de prótons no detector CMS: possível indício da existência do bóson de Higgs
3
PESQUISA FAPESP 191 | 19
capa
Colapso de ventos estelares prolonga apagĂŁo cĂclico da estrela Eta Carinae Marcos Pivetta
A estrela Eta Carinae (quadrado pontilhado) fica a 7.500 anos-luz da Terra, na nebulosa de Carina
NASA, ESA, N. Smith, The Hubble Heritage Team
Mais do que um eclipse
A
natureza da brutal e periódica perda de luminosidade da enigmática estrela gigante Eta Carinae, que a cada cinco anos e meio deixa de brilhar por aproximadamente 90 dias consecutivos em certas faixas do espectro eletromagnético, em especial nos raios X, pode ter sido finalmente desvendada por uma equipe internacional de astrofísicos comandada por brasileiros. O pesquisador Augusto Damineli e o pós-doutor Mairan Teodoro, ambos da Universidade de São Paulo (USP), analisaram dados registrados por cinco telescópicos terrestres situados na América do Sul durante o último apagão do astro, ocorrido entre janeiro e março de 2009, e colheram evidências de que esse evento literalmente obscuro esconde, a rigor, dois fenômenos distintos embora entrelaçados — e não apenas um, como acreditava boa parte dos astrofísicos. Primeiro, há uma espécie de eclipse das emissões de raios X desse sistema que, a rigor, é binário, composto de duas estrelas muito grandes: a principal e maior, a Eta Carinae A, com cerca de 90 massas solares, e a secundária, dois terços menor e dez vezes menos brilhante, a Eta Carinae B. O bloqueio da emissão é causado pela passagem da estrela de maior em frente ao campo de visão de um observador situado na Terra. Esse fenômeno, já razoavelmente conhecido e estudado, dura cerca de um mês, não mais do que isso. Como explicar então os outros 60 dias de apagão? A resposta, segundo Damineli e Teodoro, reside na existência de um segundo mecanismo que prolonga a perda de brilho em raios X do sistema Eta Carinae. Assim que termina o eclipse, as duas estrelas estão a caminho do periastro, o ponto mais próximo entre suas órbitas, da ordem de 230 milhões de quilômetros. Os ventos estelares da Eta Carinae maior, um jato de partículas que escapa permanentemente de sua superfície, passam a dominar o sistema binário, aprisionam os ventos estelares da estrela menor e os empurram de volta contra a superfície da Eta Carinae B. Nesse
momento, ocorre o que os astrofísicos chamam de colapso da zona de colisão dos ventos das duas estrelas, que até então estava em equilíbrio. Em termos de emissão de luz, duas são as consequências do colapso dos ventos, uma proposição teórica até agora nunca observada de fato: estender a duração, às vezes por mais dois meses, da perda de brilho na faixa dos raios X e — eis a grande novidade — promover uma emissão no espectro do ultravioleta. Ou seja, em meio ao apagão em raios X, há um clarão no ultravioleta, que até agora não havia sido reportado. “Os dois fenômenos estão misturados e criam um quadro complexo”, explica Damineli, que há mais de duas décadas estuda a Eta Carinae. “Se eles ocorressem em separado, seria mais fácil divisá-los.” O novo trabalho dos brasileiros fornece uma explicação mais detalhada da dinâmica de mecanismos envolvidos na cíclica e temporária redução de luminosidade da Eta Carinae, a estrela mais estudada da Via Láctea depois do Sol e uma das maiores e mais luminosas que se conhece. De forma esquemática, o primeiro mês dos costumeiros 90 dias de apagão em raios X poderia ser creditado na conta do eclipse e os dois meses seguintes, ao mecanismo de colapso dos ventos estelares. As evidências apontam nesse sentido, mas as coisas não são tão simples assim. Se o apagão tem data para começar, parece nem sempre ter para terminar. O último, por exemplo, iniciou-se em 11 de janeiro de 2009, como previsto, mas se prolongou por somente 60 dias, um mês a menos do que o esperado. “Não há necessariamente dois apagões iguais”, afirma Teodoro. “O eclipse parece se estender por cerca de 30 dias, mas o processo de colapso dos ventos estelares tem duração variável.” Aparentemente, esse segundo fenômeno pode durar algo entre 30 e 60 dias. Esse cenário intrincado foi descrito em detalhes num artigo aceito para publicação no Astrophysical Journal (ApJ). Além de Damineli e Teodoro, que são os principais autores do estudo, o traba-
Moribunda, explosiva e casada
Um dos corpos celestes mais fascinantes da Via Láctea, a Eta Carinae está situada a 7.500 anos-luz da Terra, na constelação austral de Carina, à direita do Cruzeiro do Sul. Nas classificações dos astrofísicos, aparece como uma estrela supergigante da raríssima classe das variáveis luminosas azuis que hoje contabiliza umas poucas dezenas de membros, mas que deve ter sido comum no início do Universo. É um objeto colossal e longínquo, não visível a olho nu, embora um observador treinado possa localizá-lo nas noites de inverno ou outono com um bom binóculo. O diâmetro da estrela principal do sistema é igual à distância que separa a Terra do Sol. Sua luminosidade é ainda mais impressionante, aproximadamente 5 milhões de vezes maior do que a do Sol. Quando sofre seu cíclico apagão a cada cinco anos e meio, deixa de emitir, nas faixas de raios X, ultravioleta e rádio, uma energia equivalente à de 20 mil sóis. A Eta Carinae se torna uma estrela ainda mais especial por reunir outros predicados pouco comuns. Com apenas 2,5 milhões de anos de existência, cerca de 1.800 vezes mais nova do que o Sol, já é um astro moribundo e potencialmente explosivo. Deve literalmentte ir pelos ares na forma de uma hipernova a qualquer momento entre hoje e alguns milhares de anos. “Sua morte deverá produzir uma explosão de raios gama, o tipo de evento mais energético que ocorre no Universo”, afirma Damineli. Há meros 170 anos, a megaestrela entrou aparentemente numa fase terminal e turbulenta, no auge de sua decadência. Desde então, como nos anos 1840 e em menor escala na década de 1890, sofre grandes erupções em que perde matéria da ordem de dezenas de massas solares e aumenta temporariamente seu brilho. Em 1843, a Eta Carinae se tornou visível a olho nu durante o dia por meses e quase tão luminosa quanto Sirius, a estrela mais brilhante do céu noturno, que se encontra muito próxima à Terra, a uma distância de no máximo 30 anos-luz. Naquela época, também em consequência da erupção, a megaestrela ganhou um traço que dificulta ainda mais a sua observação: uma densa 22 | janeiro DE 2012
1
zona de choque vento da estrela menor
aa par a r Ter
90 sóis são necessários para igualar a massa da Eta Carinae
3 meses é a duração máxima da redução de brilho da estrela
vento da estrela maior
emissão de raios X
nuvem de gás e poeira, no formato de dois lóbulos e denominada Homúnculo, passou a envolvê-la. “A Eta Carinae é um objeto particularmente difícil de ser estudado”, comenta o astrofísico Ross Parkin, da Universidade Nacional da Austrália, especialista em criar modelos computacionais que tentam reproduzir a interação dos ventos estelares de sistemas binários e coautor do artigo (uma de suas simulações foi usada no trabalho dos brasileiros). “É complicado vê-la, pois está imersa nesse envelope massivo de poeira.”
O
nome de Damineli está ligado à história desse misterioso objeto celeste. Contra a opinião de muitos, teve a primazia de defender, há quase 20 anos, a ideia de que a Eta Carinae era um sistema com duas estrelas, em vez de apenas uma, e que essa dupla de astros luminosos sofria um apagão periódico. “A Eta Carinae não era apenas gorda, era também casada”, diz o professor do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP, com seu talento para cunhar frases tão engraçadas quanto informativas. “Dou todo o crédito dessas descobertas ao Damineli, que foi o primeiro a perceber isso”, diz o veterano pesquisador Theodore Gull, do Goddard Space Flight Center, da Nasa. O inesperado brilho em ultravioleta em meio ao apagão de raios X em 2009 foi detectado pelos brasileiros de forma indireta, por meio do regis-
crédito raios X (parte amarela da imagem) NASA/CXC/GSFC/M.Corcoran et al.; óptico (em azul) NASA/STScI
lho é assinado por outros 24 pesquisadores do Brasil, América do Sul, Europa, Estados Unidos e Austrália. Dados obtidos no Observatório Austral de Pesquisa Astrofísica (Soar), situado em Cerro Pachón, nos Andes chilenos — iniciativa da qual o Brasil é um dos sócios e um dos mais potentes telescópios usados no estudo —, foram fundamentais para registrar indícios dos fenômenos envolvidos no apagão da Eta Carinae. Damineli é o coordernador de um projeto temático da FAPESP que permitirá a instalação no Soar de um espectrógrafo de alta resolução, o Steles.
A dinâmica do apagão A Eta Carinae é um sistema formado por duas estrelas dentro de uma nuvem de gás e poeira (à esq.). A zona de choque dos ventos estelares produz emissões de raios X (fig. 1). A cada 5,5 anos, quando as estrelas atingem o ponto mais próximo de suas órbitas (periastro), as
emissões deixam de ser visíveis (fig. 2). A estrela maior passa pelo campo de visão da Terra e provoca um eclipse. A proximidade faz o vento da Eta Carinae A engolfar e empurrar o da estrela menor de volta (fig. 3). O fenômeno prolonga o apagão em raios X e causa uma emissão de ultravioleta
A maior, a Eta Carinae A, tem 90 massas solares e a menor, a Eta Carinae B, 30
aa par a r Ter
periastro Fonte Mairan Teodoro
3
Imagens 1. 2. e 3. Ross Parkin
2
Órbita das estrelas companheiras
do estudo fizeram um trabalho muito cuidadoso e mediram a linha de emissão do hélio ionizado de uma forma consistente”, diz Smith, que não participa do artigo na ApJ. “A análise deles parece mesmo apoiar a conclusão de que a zona de colisão dos ventos despenca temporariamente sobre a estrela secundária.” Entender as interações entre os ventos estelares das duas Eta Carinae, a maior e a menor, parece ser essencial para desvendar os fenômenos envolvidos no apagão. Trata-se de um jogo de empurra-empurra desigual, travado por dois contendores bem distintos. Também presente no Sol, o vento estelar é um mecanismo de perda de matéria na forma de um jato de partículas em geral eletricamente carregadas, como prótons e elétrons liberados por um gás ionizado. Por esse mecanismo, a grande Eta Carinae deixa escapar num único dia uma quantidade de massa equivalente à da Terra. Seu vento é bastante denso e viaja a 600 quilômetros por segundo no espaço. “Ele é cinco vezes mais lento do que o vento da estrela secundária, que tem um caráter mais rarefeito”, explica Teodoro.
D
O Projeto Steles: espectrógrafo de alta resolução para o Soar nº 2007/02933-3 modalidade Projeto Temático Coordenador Augusto Damineli – IAG/USP investimento R$ 1.373.456,33 (FAPESP)
tro de uma fraca emissão numa linha espectral do gás hélio ionizado, a Hell4686 A. A medição de valores positivos para essa linha é uma espécie de assinatura espectral de que existe uma fonte de raios ultravioleta no lugar observado. “O sinal do hélio ionizado que vimos durante o apagão de 2009 é apenas 20% maior do que o limite capaz de ser medido por telescópios”, diz Damineli. “Mas ele equivale ao brilho de 10 mil sóis no ultravioleta extremo.” A captação do sinal também foi facilitada pelo cerco à Eta Carinae que Teodoro coordenou há doi anos, quando cinco telescópios observaram a estrela em distintos momentos. Tudo isso explica por que nos três apagões precedentes que também foram acompanhados pela comunidade científica (1992, 1997 e 2003) não haviam sido reportadas emissões nessa linha espectral. Como há mesmo um clarão no ultravioleta durante o apagão em raios X, a melhor explicação para essa ocorrência é a queda dos ventos estelares da Eta Carinae sobre sua irmã menor. “Acho que há uma evidência muito boa de que isso ocorre por um pequeno período de tempo durante o periastro”, afirma o astrofísico americano Michael Corcoran, do Goddard Space Flight Center, um dos coautores do trabalho com os brasileiros. Seu colega Nathan Smith, da Universidade do Arizona, outro estudioso dessa estrela, tem uma opinião semelhante. “Os autores
urante a maior parte do tempo, os ventos das duas Eta Carinae estão em equilíbrio. Eles se encontram num ponto entre as duas estrelas e essa colisão produz ondas de choque que resultam em emissões de raios X. São essas emissões que deixam de ser captadas da Terra durante o apagão da estrela. Quando as duas estrelas se aproximam demais, o jogo de forças pende claramente para o astro maior. O vento da estrela principal, que funciona como uma parede em relação ao jato de partículas da estrela menor, arremessa de volta o vento da Eta Carinae B. É o tal colapso da região de choque dos ventos estelares, o fenômeno que leva a uma fugaz emissão de ultravioleta em meio ao apagão em raios X. Segundo dados da astrofísica alemã Andrea Mehner, do Observatório Europeu do Sul (ESO), no Chile, o vento da estrela se tornou mais rarefeito nos últimos 10 anos e diminuiu sua densidade em um terço. No entanto, as observações de Damineli não corroboram essa interpretação. Para ele, a densidade do vento da Eta Carinae principal não variou muito na última década. Uma boa chance de colher mais informações sobre o tema polêmico será durante o próximo apagão da estrela, marcado para começar em julho de 2014, quando muitos telescópios voltam a mirar seus espelhos para o astro gigantesco. n Artigo científico TEODORO, M. et al. He II 4686 in Eta Carinae: collapse of the wind-wind collision region during periastron passage. The Astrophysical Journal. No prelo. PESQUISA FAPESP 191 | 23
Nas redondezas de outros mundos
Como observar luas, anéis e até o magnetismo de planetas fora do sistema solar texto Igor
Zolnerkevic
ilustração Drüm
A
inda é muito vaga a visão que temos dos planetas orbitando outras estrelas além do Sol, os exoplanetas. Em vez de fotos maravilhosas, por enquanto temos que nos contentar com as deduções do raio, da massa e das características de suas órbitas, feitas indiretamente por meio dos dois métodos de detecção mais utilizados – a técnica da velocidade radial, em que se mede como a influência gravitacional do planeta faz sua estrela oscilar, e o método do trânsito planetário, que registra a diminuição de luminosidade causada pela passagem do planeta na frente de sua estrela. Foi pelo trânsito planetário, por exemplo, que o telescópio espacial Kepler, da Nasa, já identificou mais de 2 mil possíveis exoplanetas. Uma de suas descobertas, confirmada por observações de outros telescópios, é o planeta Kepler 22b, com um raio apenas 2,4 vezes maior que o da Terra, orbitando a zona habitável de uma estrela muito parecida com o Sol, isto é, a uma distância tal que a temperatura em sua superfície permitiria a existência de 24 | janeiro DE 2012
água líquida sobre ela (ver figura na página 27). Ninguém sabe, entretanto, se o Kepler 22b é um enorme planeta rochoso, uma super-Terra, ou se é um mini-Netuno – uma versão em miniatura dos gigantes gasosos do sistema solar. Nossa imagem dos exoplanetas, entretanto, deve ficar muito mais rica nos próximos anos graças ao trabalho de astrofísicos teóricos que vêm propondo novas maneiras pelas quais seria possível observar no trânsito planetário os sinais de outras propriedades desses mundos. A astrofísica Adriana Válio, da Universidade Presbiteriana Mackenzie, em São Paulo, e seu aluno de doutorado Luis Ricardo Tusnski, do Instituto Nacional de Pesquisas Espaciais, em São José dos Campos, foram os primeiros a determinar qual deve ser o tamanho mínimo de luas e anéis em torno de planetas extrassolares para que sejam detectáveis pelo Kepler e pelo telescópio espacial Corot, da Agência Espacial Europeia, que também utiliza o método de trânsito planetário e conta com a participação de pesquisadores brasileiros. Já uma equipe coordenada pela astrofísica brasileira Ali-
ne Vidotto, da Universidade de Saint Andrews, na Escócia, descobriu que o trânsito planetário pode ser usado em certas condições para medir o campo magnético de um exoplaneta. Esses trabalhos de ponta feitos por brasileiros contribuem de uma forma ou de outra para avançar a busca por um exoplaneta capaz de suportar a vida como nós a conhecemos. Embora a maioria dos mais de 700 planetas extrassolares cuja descoberta já foi confirmada sejam gigantes gasosos, tão grandes ou maiores que Júpiter, aqueles localizados nas zonas habitáveis de suas estrelas poderiam ter luas rochosas grandes o suficiente para reterem uma atmosfera por bilhões de anos e assim abrigarem oceanos cheios de vida. “Se o Kepler 22b tivesse uma lua do tamanho de Marte, por exemplo, ela seria habitável”, diz Adriana. “Outro fator importante que permite que um planeta seja habitável é o seu campo magnético”, explica Aline. “O campo funciona como um escudo protetor, impedindo que as partículas de alta energia vindas da estrela desgastem a sua atmosfera.”
Luas ocultas
Desde 2003, Adriana desenvolve um modelo computacional para estudar como as manchas estelares – o fenômeno análogo ao das manchas que surgem na superfície do Sol – interferem na curva de luz do trânsito planetário. Em 2009, Tusnski, então seu aluno de mestrado, decidiu adaptar o modelo para simular o trânsito de um planeta com uma lua. Outros pesquisadores haviam proposto antes detectar luas por meio da perturbação que elas causam no movimento do planeta, mas observar isso exigiria acompanhar a variação do brilho da estrela por um tempo maior do que os telescópios costumam fazer. O modelo dos brasileiros mostrou que isso era desnecessário. Se uma lua fosse grande o suficiente, um sinal inconfundível de sua presença surgiria na curva de luz do trânsito planetário na forma de pequenos “degraus”. No entanto, as curvas de luz obtidas pelo Kepler e o Corot não são lisas como as dos modelos, pois o brilho das estrelas não é constante, flutuando erraticamente, entre outros motivos, pela aparição e sumiço de manchas estelares.
astrofísica
PESQUISA FAPESP 191 | 25
Brilho
Curva de luz indica tipo de planeta Pequeno
Grande
Com lua
Com anéis
Estrela
Tempo O método do trânsito planetário mede a diminuição de brilho de uma estrela quando um objeto celeste passa em sua frente. Até agora foi usado para procurar mundos fora do sistema solar. Mas alguns astrofísicos teóricos acreditam que a
técnica também pode ser empregada para estudar parâmetros desconhecidos dos exoplanetas, como a possível existência de luas, de anéis e de um campo magnético. De acordo com características do mundo em trânsito, o método geraria um gráfico com uma
“A coisa é ainda mais complicada porque há certo ruído no instrumento que gera uma incerteza na medida”, explica Tusnski. Os “degraus” indicando a presença das luas precisariam, portanto, ser identificados em meio ao ruído criado por essa variação. Mesmo assim, em um artigo publicado em dezembro na revista Astrophysical Journal, Tusnski e Adriana mostraram por meio de simulações dessas flutuações que seria possível distinguir nos dados do Corot luas 1,3 vez maiores do que a Terra, enquanto nos dados do Kepler poderia haver evidências de satélites tão pequenos quanto a nossa Lua. Tusnski já começou a buscar por esses sinais nos dados. “A aplicação dessa ferramenta pode resultar na descoberta do primeiro satélite natural em exoplanetas”, afirma o especialista em dinâmica planetária Othon Winter, da Unesp. “Uma das grandes vantagens desse trabalho é a facilidade de aprimorar o modelo ( já utilizado), incluindo manchas estelares e mais luas.”
E
mbora a maior lua do sistema solar, Ganimedes, em Júpiter, tenha um tamanho um pouco menor que a metade da Terra, Winter, junto com Rita Domingos e Tadashi Yokoyama, ambos também da Unesp, calcularam em um artigo publicado em 2006 na revista Monthly Notices of Royal Astronomical Society (MNRAS) que exoplanetas semelhantes a Júpiter orbitando na
26 | janeiro DE 2012
curva de luz particular. Planetas grandes produzem curvas maiores que os pequenos. Se houver uma lua, podem aparecer pequenos “degraus” na curva. O efeito dos anéis seria suavizar as bordas do “poço” da curva de luz e torná-lo mais fundo
zona habitável de estrelas do porte do Sol poderiam ter satélites do tamanho Técnica do trânsito da Terra ou maiores. “Há foi empregada para uma expectativa crescente de que a detecção de luas identificar mais de será feita em breve, por causa do tremendo volu2 mil possíveis me de dados esperando para ser analisado”, diz o planetas extrassolares astrônomo Darren Williams, da Universidade Estadual da Pensilvânia, nos Estados Unidos, que também demonstrou recentemente como exoplanetas gigantes gasosos poderiam ter luas grandes. “Suspeito que a maioria dos planetas detectados O Projeto pelo Kepler tenha luas e uma fração delas seja Investigation of high energy and plasma astrophysics maior que Marte.” theory, Adriana e Tusnski também foram os primeiros a phenomena: observation, and numerical determinar como a presença de anéis ao seu redor simulations – nº 2006/50654-3 dos exoplanetas afetaria a curva de luz do trânsito planetário. Seu modelo mostrou que o efeito dos modalidade anéis seria suavizar as bordas do “poço” da curva Projeto Temático de luz, bem como torná-lo mais fundo. Realizan- Coordenador do uma análise semelhante àquela das luas, eles Elisabete Maria de Gouveia Dal Pino - IAG/USP mostraram que um sistema de anéis como o de Saturno pode ser detectável pelo Kepler, enquanto investimento os anéis só seriam visíveis pelo Corot se fossem R$ 366.429,60 (FAPESP) pelo menos 50% maiores que os de Saturno.
O
próximo passo dos pesquisadores será adaptar seu modelo para identificar o sinal dos anéis de exoplanetas extremamente próximos de suas estrelas. Nesse caso, a atração gravitacional da estrela é capaz de entortar os anéis. Segundo Tusnski, eles poderiam usar essa deformação para obter informações sobre as densidades dos núcleos dos exoplanetas.
Arcos de choque
Também seria possível conhecer mais sobre o interior dos exoplanetas se os astrônomos conseguissem detectar o campo magnético deles. Pesquisadores vêm buscando sinais desses campos por meio de radiotelescópios. A ideia seria captar as ondas de rádio emitidas por partículas eletricamente carregadas disparadas pelas estrelas, quando elas fossem capturadas pelos campos magnéticos planetários – é o mesmo fenômeno que produz as auroras boreais na Terra. Mas todas as buscas falharam até agora. Desde 2010, Aline e seus colegas Moira Jardine, Christiane Helling, Joe Llama e Kenneth Wood, todos da Universidade de Saint Andrews, publicaram uma série de quatro artigos nas re-
Onde está a zona habitável Zona habitável
Sistema do Kepler 22
Sistema solar
Mercúrio Terra
infográfico drüm fonte NASA / Ames / JPL-Caltech
Vênus
Marte
Kepler 22b
O menor exoplaneta situado no meio de uma zona habitável em torno de uma estrela parecida com o Sol é o Kepler 22b. Seu raio é 2,4 vezes maior do que o da Terra. A estrela em torno da
qual o planeta extrassolar completa uma órbita a cada 289 dias é a Kepler 22. Situada a 600 anos-luz da Terra, ela é um pouco menor do que o Sol. Por isso, a zona habitável desse sistema,
onde as temperaturas seriam compatíveis com a presença de água líquida e boas para o surgimento de vida, é um pouco mais próxima da estrela do que no caso do Sol
vistas Astrophysical Journal Letters, MNRAS e MNRAS Letters, detalhando um novo método, mais indireto mas promissor, de medir campos magnéticos de exoplanetas. De fato, a equipe afirma ter conseguido estimar a intensidade do campo magnético do exoplaneta Wasp 12b, descoberto em 2008 pelo telescópio Super Wasp, instalado em La Palma, uma das ilhas do arquipélago espanhol das Canárias. Quase duas vezes maior que Júpiter, o Wasp 12b orbita sua estrela a uma distância 16 vezes menor que a distância entre o Sol e Mercúrio, dando uma volta completa em torno dela a cada 26 horas, à velocidade estupenda de cerca de 300 quilômetros por segundo. Observações do trânsito planetário com o telescópio Hubble mostraram que a curva de luz da estrela começa a cair antes no comprimento de onda da luz ultravioleta que no da luz visível. Aline e sua equipe acreditam que esse efeito seja provocado pela formação de um “arco de choque” na frente do planeta, criado pelo fato de ele estar se movendo a uma velocidade maior que a da propagação do som num meio permeado por partículas emitidas pela estrela, o chamado vento estelar. De acordo com o modelo dos pesquisadores, as partículas do vento estelar estariam se chocando contra o campo magnético do Wasp 12b, formando na sua frente uma região em forma de arco que seria transparente à luz visível, mas opaca à ultravioleta. Medindo a diferença entre o início do trânsito nos dois comprimentos de onda, a equipe conseguiu estimar a distância entre o planeta e o arco de choque, e a partir daí inferir a intensidade do campo magnético do planeta, que deve ser menor que 24 Gauss, um valor comparável ao campo nos polos de Júpiter, que varia entre 10 e 14 Gauss, e é quatro vezes maior que o da Terra. Para guiar novas observações do fenômeno, a equipe analisou uma série de exoplanetas já descobertos por trânsito planetário, verificando dados como a distância dos planetas a suas estrelas e a intensidade dos ventos estelares. “Fizemos uma lista dos exoplanetas que seriam os melhores candidatos a ter um arco de choque observável”, diz Aline. Entre eles estão vários dos mais próximos da Terra descobertos pelo Super Wasp e pelo Corot. “Aline e seus colegas encararam um problema astrofísico muito difícil”, comenta a especialista em interações magnéticas entre estrelas e planetas Evgenya Shkolnik, do Observatório Lowell, no Arizona, nos Estados Unidos. “Seria extremamente valioso se pudéssemos medir ao menos o campo magnético de alguns dos exoplanetas mais próximos de suas estrelas, os chamados Júpiteres quentes, para distinguir diferenças estruturais entre eles.” n PESQUISA FAPESP 191 | 27
entrevista Mauricio da Rocha e Silva
O segredo da visibilidade Fisiologista que demonstrou o efeito do hormônio vasopressina no organismo conta como fazer uma revista científica de nível internacional
H
Marcolin e Ricardo Zorzetto
á sete anos o fisiologista Mauricio da Rocha e Silva trocou o laboratório pela redação. Às vésperas da aposentadoria na Universidade de São Paulo (USP) em 2004, decidiu que era hora de mudar de ringue e encarar novos problemas pelos quais valesse a pena se bater. Aceitou o desafio proposto pela Faculdade de Medicina de recriar a revista da casa de modo a transformá-la em uma publicação científica visível. Além das reformas necessárias para torná-la objeto de desejo dos pesquisadores da área médica, o mais importante era aumentar significativamente o fator de impacto (FI) da publicação. O FI é uma medida criada para estimar a influência de um periódico em uma área. Ele representa o número médio de vezes que um artigo daquela publicação é citado por outros trabalhos em certo período. Até agora Rocha e Silva obteve sucesso. O FI da revista Clinics subiu de 0,35 para 1,54 sob a sua direção – e ele espera que passe de 2 até 2013. Ao mesmo tempo, Rocha e Silva assumiu a defesa das revistas científicas brasileiras contra os critérios do sistema Qualis de avaliação de periódicos da Coordenação de Aperfeiçoamento de Pessoal de
28 | janeiro DE 2012
Nível Superior (Capes), que considera injusto. Não é uma briga gratuita. Ele acredita que um país que almeje ter ciência de alta qualidade deve ter publicações que acolham e reflitam essa ciência com apoio mais criterioso e equilibrado dos órgãos de governo. Rocha e Silva é filho de Maurício Oscar da Rocha e Silva – descobridor nos anos 1940 da bradicinina, composto que originou uma linha de medicamentos contra a pressão alta –, de quem sofreu decisiva influência. Ele se refere ao pai frequentemente pelo primeiro nome, um distanciamento que espelha também admiração e respeito pela figura profissional. As contribuições científicas do filho passaram por estudos sobre o hormônio vasopressina e a hipertônica, uma solução de água e sal superconcentrada, capaz de restabelecer a circulação sanguínea em pessoas com hemorragias graves. A seguir, os principais trechos da entrevista. O senhor está transformando a Clinics, uma revista que foi invisível por décadas, em uma publicação com bom fator de impacto. Como isso aconteceu?
Leo Ramos
texto Neldson
PESQUISA FAPESP 191 | 29
A Clinics nasceu em 2005 de uma publicação anterior, a Revista do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo, que era conhecida como a “Revista do HC” e havia sido importante quando foi criada, em 1946, dois anos depois da fundação do hospital. Por cinco anos, na década de 1990, havia zero citação. Isso significa que nem os próprios autores citavam os artigos que publicavam nela. Em 1998 me convidaram para assumir o periódico, mas não aceitei. As bibliotecas científicas eletrônicas SciELO [Science Eletronic Libray On-Line] e PubMed estavam engatinhando e faltavam seis anos para a minha aposentadoria. Por que essa revista foi importante? Ela trazia relatos dos casos complexos estudados no HC. Mas isso foi perdendo a importância e ela virou uma revista de pesquisa original. Nesse momento, enfrentou um problema comum a quase todas as revistas brasileiras do século passado, que era a invisibilidade. Além disso, havia uma postura xiita da comunidade científica brasileira de querer publicar artigos em português, argumentando que era importante defender a língua pátria. E isso quando as revistas francesas e alemãs estavam publicando em inglês, inclusive mudando de nome, nos anos 1980. A razão é conhecida há muito tempo: a língua da ciência é o inglês. No Brasil, a única revista que começou em inglês é a Brazilian Journal of Medical Biological Research, editada em Ribeirão Preto por Lewis Joel Greene, um americano naturalizado brasileiro. Foi o primeiro periódico na área da saúde a adquirir qualidade internacional.
lhor revista científica do Brasil. Ajuda o fato de eles terem um tema excelente, porque, afinal, o Instituto Oswaldo Cruz é pioneiro no mundo em medicina tropical, exótica. E eles aproveitam bem o nicho, publicam ciência boa. É a única brasileira cujo impacto já passou de 2. Quem assumiu a “Revista do HC”? O Pedro Puech-Leão, professor de cirurgia vascular aqui da casa. Ele fez mágica: a revista passou a sair em inglês, ganhou peer review sério e foi à caça de bons artigos. Saiu do zero absoluto. Quando peguei a revista, o impacto calculado era 0,35. Isso é um milagre maior do que ir de 0,35 para 1. Estar no zero significa que ninguém quer publicar.
to bom em editoração. Aí fizemos um pacto de sangue. Combinamos que as 30 pessoas do corpo editorial teriam de mandar um artigo por ano para a Shock. E esse artigo teria de ser citado de três a quatro vezes nos dois anos seguintes em outras revistas do Primeiro Mundo. Todos fizeram. No primeiro ano, o impacto foi de 0,7. Tem de se considerar que uma revista americana entra no ISI [Institute for Scientific Information, serviço de bases bibliométricas que hoje faz parte da Thomson Reuters, responsável pelo cálculo do fator de impacto das publicações] no dia seguinte ao em que é criada e isso ajuda muito no impacto. Em 15 anos ela chegou a 3,5. Eu aprendi esses pulos de gato. Há alguns éticos e outros nem tanto. O editor da Shock é um modelo de comportamento ético. O senhor decidiu usar esses métodos na Clinics? Exatamente. Quando cheguei tinha aquele nome impossível. Havia 10 maneiras diferentes para procurar as citações. O Pedro queria mudar, mas temia perder o registro no PubMed [da National Library of Medicine, padrão ouro do sistema de periódicos na área da saúde]. Fui para Washington conversar com o pessoal da National Library of Medicine. Eles entenderam. No primeiro número, a Clinics já estava no PubMed. Falo bem inglês, fui educado nos Estados Unidos e na Inglaterra, então eles acham que não sou selvagem. Falar bem a língua deles e conversar pessoalmente faz diferença.
Ter um nome que não denuncie a origem terceiro-mundista é bom para o fator de impacto e para pedir artigos
Memórias do Instituto Oswaldo Cruz, de 1909, era bilíngue no início, publicada em português e alemão. Essa começou bem, depois teve uma fase só em português em que apresentava apenas trabalhos da Fiocruz. Ficou duplamente prejudicada: em português e endógena. Nos anos 1980 eles começaram a fazer em inglês. Hoje é a me30 | janeiro DE 2012
E por que assumiu a revista em 2004? Nesse ano o Pedro decidiu sair e o conselho deliberativo do HC me ofereceu outra vez a publicação. Fui almoçar com ele, que me disse, “Eles realmente querem criar uma revista decente; então você aceita, mas pede um enxoval completo, com tudo o que precisa para trabalhar, que eles vão te dar”. Outro detalhe me levou a aceitar. Nos anos 1990 fui do conselho editorial de uma revista americana, a Circulatory Shock. Como ela estava mal financeiramente, seus donos decidiram matar a revista e criar uma nova, chamada Shock. Fui um dos fundadores como membro editorial. Para dirigir veio um cientista mui-
Como surgiu o nome novo? O Pedro queria Clínicas. Mas tem acento, os estrangeiros iriam errar... Pensei em Clinics, descobrimos que o nome estava vago e registramos. Só depois descobrimos os benefícios colaterais. Não ter nome que denuncie a origem terceiro-mundista faz bem para o fator de impacto e para pedir artigos. Os chineses sabem disso. Não tem mais “Chinese Journal”. É tudo “International Journal”. Quanto tempo levou a montagem dessa estratégia de levantar a revista?
Entramos no ISI em 2007. Leva três anos para aparecer o primeiro impacto. Em 2009 batemos em 1,59 e ficamos atrás apenas de Memórias. Em 2010 caímos um pouquinho, para 1,42, e estamos em terceiro. Os resultados de 2011 ainda não saíram, mas pelos meus cálculos voltaremos para o segundo lugar. A revista de Manguinhos é meu modelo. Eles deram o primeiro salto acima de 2 publicando um suplemento sobre a doença de Chagas. Todo mundo cita. Então eu criei um suplemento sobre neurocomportamento, com artigos de revisão do Miguel Nicolelis e do inglês Timothy Bliss. O Bliss foi quem descobriu nos anos 1980 como os neurônios fixam a memória. Ele tem um artigo com mais de 5 mil citações. Nosso suplemento saiu em junho de 2011, mas leva seis meses para começarem a citar. Creio que passaremos de 2. Por que é importante ter boas revistas aqui? A ciência brasileira está progredindo e vai chegar a ser de alta qualidade. Se não tivermos revistas nacionais capazes de espelhar esse tipo de ciência, ela vai direto para o exterior e nossos autores podem enfrentar uma concorrência não muito leal dos editores estrangeiros protegendo a turma deles. É um imperativo de autonomia da ciência brasileira, talvez dentro de 10 anos, ter revistas brasileiras de alta qualidade. Precisamos ter alguns periódicos com impacto 4.
no mesmo período. A verdadeira revolução foi proporcionada pela invenção da internet. A partir de 1999, dava para entrar no site do PubMed de graça, colocar a palavra-chave e fazer a busca. Quando me formei, em 1961, eu visitava a biblioteca toda semana para ver o que tinha saído. Isso praticamente não existe mais. Basta acessar o site das publicações científicas para ver o que há de mais novo na área. A SciELO nasceu no Brasil, com apoio da FAPESP, na mesma época que o PubMed nos Estados Unidos. Foi uma ideia de gênio do Rogério Meneghini, de criar uma coleção de revistas que fossem selecionadas a sério, com acesso aberto instantâneo. Os artigos brasileiros ficaram visíveis. Em 10 anos, o acesso passou de zero para 100 milhões de downloads por ano.
Revistas nacionais de alta qualidade são importantes para espelhar a melhor ciência feita no Brasil
O senhor sempre publicou em inglês e no exterior? Quando comecei a fazer ciência a primeira coisa que meu pai me ensinou foi: nunca publique numa revista brasileira, em português, se você puder publicar lá fora. E o Michel Rabinovitch, um grande professor, repetia a mesma coisa. Estamos falando de 1960. Ninguém lê português no exterior, não assinam revista do Terceiro Mundo e, se mandamos de graça, não expõem nas bibliotecas. Publicar assim era esconder seus dados. Apesar de tudo, as revistas brasileiras vêm ganhando destaque. Isso ocorre hoje por causa da SciELO e do PubMed, que nasceram mais ou menos
Foi o que elevou a visibilidade das revistas brasileiras? As revistas boas, como Memórias, Brazilian Journal, Journal of the Brazilian Chemical Society, passaram pelo número mágico e alcançaram fator de impacto maior que 1 em 2002. Nunca uma revista brasileira tinha alcançado isso. Hoje temos uma com impacto maior que 2 e 15 delas maior que 1. Como é sua luta contra o sistema Qualis de avaliação de periódicos da Capes? Escrevi um estudo acadêmico sobre isso que saiu em dezembro na Clinics. A Capes usa um sistema equivocado de avaliação de artigos científicos. Não é a única,
os NIH [National Institutes of Health dos Estados Unidos e outras instituições] usam critérios semelhantes. Não sou só eu que o considero equivocado. O pai do fator de impacto, Eugene Garfield, já disse que usar o fator de impacto da revista na qual sai o artigo e dizer que o artigo é bom é um grave erro teórico. Todas as revistas têm uma distribuição de citações assimétrica. Quer dizer, 20% dos artigos concentram 50% das citações e os 20% mais baixos concentram 3% das citações. De maneira que no New England Journal of Medicine a revista médica de mais alto impacto do mundo, por exemplo, tem 20% de artigos que são muito pouco citados. Isso vale para qualquer revista. Para fazer esse trabalho estudei 60 revistas com impacto que ia de 1 a 50. Não encontrei nenhuma que não tivesse essa distribuição. O argumento da Capes e dos NIH é esse: se você publica numa boa revista, você é bom. Não é bem assim. Como funciona o Qualis? As revistas são classificadas em oito categorias. De A1 e A2, de B1 a B5 e C. As categorias superiores usam fator de impacto e as inferiores não. Então, se eu publico numa revista A1, ganho a nota de A1. Mas 70% dos artigos que saem na revista A1 não têm aquele bom nível de citação, que vem de 30% dos artigos. Por isso 70% dos artigos ali publicados recebem um upgrade equivalente ao dos outros 30%. Nenhuma revista brasileira é A1. Nas revistas de categorias intermediárias o problema é mais grave porque elas têm obrigatoriamente um limite inferior e um superior. Quem publica um artigo ali ganha a nota da revista. E tem 50% de chance de receber um upgrade. Eu fiz essa conta, que está no meu artigo. Mas quem publica nessa revista tem 20% de risco de estar sendo rebaixado, porque o seu artigo tem mais citações do que a média de citações daquela da revista. Se 20% concentram 50% das citações, é claro que no meio desses há artigos com muito mais citações do que a média dessa faixa. Mas a probabilidade maior é de o artigo ser “levantado”? PESQUISA FAPESP 191 | 31
É. Mas existe uma possibilidade, que não é desprezível, de você estar sendo rebaixado por causa do sistema de faixa. A Capes não está dando nota para a revista, o que ela está fazendo é dar nota para os artigos das áreas de pós-gradua ção que saem nas revistas. Eles dizem isso – e é verdade. Só que na hora em que atribuem classificação baixa a uma revista, eles estão dizendo para os pós-graduandos e seus orientadores, “Não publiquem nessa revista se você puder publicar em uma com fator de impacto mais alto”. Ou seja, não classificam a revista, mas a prejudicam. A minha briga é puxar o impacto para cima. Se o Qualis não tivesse esse problema interno, daqui a 10 anos teríamos uma coleção de grandes revistas internacionais brasileiras porque haveria um estímulo à publicação. Antes que pensem que estou de mal com a Capes, faço questão de dizer: ela é muito importante, é o motor da pós-graduação brasileira e, assim, da produção científica. O portal de periódicos Capes é fantástico. A única besteira é o Qualis.
isso era o Rabino. Ele era um ímã. O primeiro destino das pessoas que pensavam em fazer ciência era a sala do Rabino. Naquela época, o Maurício me deu um problema para estudar: o efeito da bradicinina sobre a função renal. Como eu tinha aprendido o know-how de fisiologia renal, topei. Passei quatro férias, de começo e de meio de ano, em Ribeirão estudando isso. A bradicinina induzia a secreção de hormônio antidiurético. Aqui em São Paulo quem fazia fisiologia renal de verdade era o Gerhard Malnic, outro grande pesquisador. Eu o procurei e começamos a trabalhar com isso. Àquela altura, nós só sabíamos que a bradicinina produzia o efeito da vasopressina, que era a antidiurese. A vasopressina tem esse nome porque a pri-
era parte do mecanismo de regulação de pressão arterial. Havia quem tivesse formulado isso como hipótese, mas nunca ninguém tinha feito um experimento que provasse. Onde foi feito? Aqui, na Faculdade de Medicina. E isso saiu no Journal of Physiology, em 1969, a mais prestigiosa revista de fisiologia do mundo. Antes, durante um período em que passei em Londres, consegui demonstrar qual é o mecanismo pelo qual a bradicinina secretava hormônio antidiurético. Quando voltei, pensei que isso deveria ter uma ação fisiológica. Bolamos um experimento aqui, eu e uma estudante, a Manuela Rosenberg, para ver se a gente conseguia provar. E funcionou. Foi minha tese de livre-docência.
O Qualis anterior era frouxo. O atual está mais ou menos certo para Harvard, mas não para a comunidade brasileira
Mas em algum momento o sistema de avaliação da Capes incentivou os pesquisadores a publicarem mais? Sim. Alguma forma de avaliação dos artigos da pós-graduação é essencial. O Qualis anterior tinha um defeito grave: era muito frouxo e permissivo. Todos conseguiam nota máxima pelas suas publicações. Mudaram e criaram o novo Qualis em 2008, que acho que está mais ou menos certo para Harvard, mas não para a comunidade científica brasileira. Talvez tenham apertado demais o cinto das pós-graduações – e apertado errado.
Vamos falar sobre suas contribuições científicas. O senhor trabalhou com seu pai em pesquisas sobre a bradicinina? O Maurício é uma influência quase impossível de ser ignorada. No início da minha carreira tinha também o Rabinovitch, incentivador de jovens pesquisadores. Meu pai foi para a USP de Ribeirão Preto quando eu estava no terceiro ano da Faculdade de Medicina em São Paulo e fiquei aqui. Uma boa razão para 32 | janeiro DE 2012
meira coisa que foi descoberta é que ela aumenta a pressão arterial. O efeito fisiológico básico dela é controlar a diurese. Ela se chama também hormônio antidiurético. É o hormônio da hipófise que controla o volume básico de diurese. Em concentrações muito altas, ela produz efeito nos vasos sanguíneos. Essa foi minha contribuição importante em vasopressina. Na minha tese de doutorado, em 1963, mostrei que a bradicinina induzia a secreção de hormônio antidiurético, produzia a antidiurese, mas esse efeito desaparecia se tirássemos a hipófise do animal. Depois, em 1969, provei pela primeira vez que a vasopressina não só fazia a pressão subir como
O senhor sempre pensou em fazer pesquisa? Sempre. Na verdade eu ia fazer física. Mas o Maurício disse, “Isso é besteira, você vai acabar sendo empregado de médico”. Foi assim, bem fascista. Fui fazer medicina porque a influência dele era muito forte e deu certo. Sempre digo que tive sorte de fazer aquilo que eu estava condenado a fazer pela influência paterna. Maurício passou a vida achando que só existia salvação na ciência.
Vocês trabalharam juntos? Apenas nas férias. Ele era difícil, muito exigente. Naquela época nos dávamos bem. Depois brigamos e no fim ficamos amigos de novo. A dureza dele não me incomodava muito porque eu topava trabalhar. Um dia eu o ajudava em uma cirurgia de cachorro e meu braço estava encostado naquelas lâmpadas de cúpula de metal. Avisei, “Está queimando meu braço”. Ele disse, “Você pensa que está numa estação de águas? Segura o afastador e fica quieto”. Era o estilo dele. O senhor foi para a Inglaterra por motivos políticos em 1970? Decidi sair no dia em que cassaram 40 pessoas no Brasil, das quais 25 da USP, durante o AI-5. Fui a Ribeirão ver meu pai, que havia sofrido um acidente de
carro e quebrado umas costelas. Voltei para São Paulo e passei na casa do Alberto Carvalho da Silva, que era meu chefe na fisiologia e havia pedido notícias do Maurício. Quando cheguei lá, ele tinha sido cassado e afastado do cargo de diretor científico da FAPESP. Nesse dia decidi que ia embora. E por que Londres? Fui duas vezes para lá. Ganhei uma bolsa do British Council em 1964 para pesquisar no National Institute for Medical Research, onde havia um grupo forte em vasopressina. Voltei no fim do governo Castello Branco. Em 1970, depois do episódio das cassações, voltei para lá. Escrevi para os amigos ingleses pedindo ajuda e consegui emprego no mesmo National Institute. Fiquei quatro anos lá. Quando voltei fui para o Instituto de Ciências Biomédicas da USP. Dez anos depois, em 1984, voltei para a Faculdade de Medicina, onde estou. Foi nesse período que começaram as pesquisas com a hipertônica? Foi um pouco depois de minha volta. Em meados dos anos 1970, um recém-formado da Santa Casa, o Irineu Velasco, testemunhou um erro médico dar certo: um paciente submetido à diálise recebeu uma solução preparada errada, superconcentrada em sal. E esse paciente, que estava mal, em choque, saiu do choque. O Velasco queria fazer uma pesquisa sobre isso e sugeriram que falasse comigo. Ele entrou na minha sala e disse, “Eu quero injetar cloreto de sódio [sal de cozinha] a 7,5% em cachorro chocado [em estado de choque]”. A concentração normal é 0,9%. Eu olhei para ele e pensei, “Cada louco que me aparece”. Para me livrar dele pedi para preparar um protocolo da experiência e voltar depois. Uma semana depois ele trouxe o protocolo, que estava bem bolado. Eu corrigi o que foi necessário e decidi autorizar. Pensei, “Vamos matar o cachorro porque isso não pode funcionar”. A minha sorte foi ter mandado o Velasco voltar porque a coisa funcionou. O curioso é que a solução hipertônica, essa de água com 7,5% de sal,
tira cachorro do choque, mas não tira rato nem coelho, não sabemos se tira ou não gato, nunca ninguém tentou, e tira gente, mas não tem grande vantagem sobre o tratamento padrão, o estado da arte. Se vocês tivessem apostado no animal errado... Já parava ali mesmo. Mas os cachorros saíam vivos. Tirávamos 40% do sangue do cachorro. Se não fizesse nada, ele morreria em poucas horas. Dávamos essa solução superconcentrada e no dia seguinte o cachorro estava vivo. Repetimos várias vezes e era sempre a mesma coisa. Criamos um novo protocolo para tentar esclarecer como é que aquilo funcionava e isso virou a tese de doutorado dele. Velasco foi o pai da criança. Creio
o estado da arte. Esse estudo pode terminar de três maneiras: em sucesso, se a ideia nova é melhor do que a velha; em fracasso, se a ideia nova é pior; ou no que se chama em futilidade, se a ideia nova não é melhor nem pior. Os dois ensaios terminaram em futilidade, a solução hipertônica é tão boa quanto o estado da arte, mas não melhor. Qual é o estado da arte? O soro fisiológico normal, com 0,9% de sal, oito vezes mais diluído que a hipertônica. Infelizmente há uma propriedade da análise estatística que diz que testar diferença é muito mais barato do que testar equivalência. O problema da equivalência é que o teste estatístico exige um número muito maior de entradas para que se consiga afirmar “é equivalente”. Por isso é que o resultado não diferente em um estudo para testar diferença se chama “em futilidade”. Nunca ninguém resolveu gastar o dinheiro que a FDA, a Food and Drugs Adminstration, exige para poder liberar a hipertônica como equivalente ao soro fisiológico.
A solução hipertônica completou seu ciclo como medicamento. Hoje ela interessa como ferramenta de pesquisa que sem a minha experiência científica em burilar projetos, talvez não tivesse avançado tanto. Mas a ideia foi dele. O trabalho durou muitos anos e teve apoio da FAPESP. A solução foi testada em gente? Diversas vezes. O primeiro estudo sistemático foi feito no HC por um médico hoje famoso na oncologia, o Riad Younes. Depois foram feitos dois grandes ensaios multicêntricos nos Estados Unidos, um coordenado pela Universidade de Houston e outro pelo exército americano em oito hospitais diferentes. Quando se faz um ensaio clínico controlado, compara-se uma ideia nova com a ideia clássica,
Chegou a ser usado oficialmente? Os militares americanos usaram na Guerra do Iraque e outras forças militares utilizam quando precisam. O uso, em si, não é proibido. Basta o médico prescrever uma fórmula magistral. O que não pode é comercializar sem licença oficial. Os militares usam porque há vantagens logísticas. Em vez de carregar dois litros para cada paciente, carrega-se ¼ de litro. Ou seja, o peso que vai na mochila do padioleiro é oito vezes menor. Além disso, o produto com 7,5% de sal só congela a três graus abaixo de zero. E é estéril, pela própria natureza, logo, não estraga. Ainda assim não é comercial? Não é. Acho que a hipertônica completou seu ciclo como medicamento. Mas continua interessante como ferramenta de pesquisa. Desde 1980 grandes revistas publicam em média um artigo por semana sobre o tema. A falta de utilidade prática não mudou esse ritmo. n PESQUISA FAPESP 191 | 33
política c&t _ Energias do Futuro
Alemanha verde
Governo, empresas e centros de pesquisa avançam juntos para ampliar o uso de fontes renováveis Carlos Fioravanti, de Berlim*
C
omeçam a aparecer os resultados de um plano de ação que o governo federal da Alemanha elaborou em 2008, em conjunto com universidades, centros de pesquisa e empresas. O objetivo era ampliar as cooperações internacionais em ciência e tecnologia, compensar as limitações internas e incentivar o uso das chamadas tecnologias verdes – métodos de produção mais modernos, com menos uso de matérias-primas e consumo de energia, e danos menores ao ambiente do que os baseados no uso de combustíveis fósseis. No centro de produção do Instituto Fraunhofer (IPK), em Berlim, uma construção circular cercada por vidros transparentes que lembra um ginásio de esportes tomado por máquinas, um jovem engenheiro mostra o gás carbônico (CO2) sólido, na forma de pedrinhas de gelo que, com uma pequena pá, ele deposita nas mãos dos visitantes mais curiosos, pedindo para passarem rapidamente de uma mão para outra para não se queimarem. Essa tecnologia, ele conta, expressa a possibilidade de reaproveitar CO2, resíduo comum de processos industriais, e já está em uso experimental em uma indústria automobilística alemã. Em seguida submete uma placa metálica pintada sob uma máquina que dispara jatos de CO2 sólido dentro de uma cabine fechada com vidros. Os jatos removem a pintura da placa que, depois de alguns minutos, está limpa e gelada. Desde 1986, o centro de tecnologia abriga as equipes do IPK, criado em 1976, e do Instituto 34 janeiro DE 2012
para Máquinas Ferramenta e Gerenciamento Industrial (IWF), de 1904. “Somos duas instituições, mas trabalhamos juntos”, diz Jens König, gerente de projeto do IPK, um dos maiores centros de pesquisa aplicada da Alemanha, com 56 laboratórios espalhados pelo país, 13 mil cientistas e engenheiros e um orçamento anual de pesquisa de € 1,6 bilhão, dos quais € 1,4 bilhão provém de contratos com empresas. “Temos um projeto de colaboração com o Brasil”, diz König, referindo-se ao Bragecrim, sigla de Brazilian-German Collaborative Research Initiative on Manufacturing Technology (Iniciativa de Pesquisa Colaborativa Brasileira-Alemã em Tecnologias de Manufatura). Esse programa reúne cerca de 30 universidades, empresas e centros de pesquisa dos dois países, com o propósito de melhorar a precisão das chamadas máquinas-ferramenta. Reunidos no início de novembro em Florianópolis, Santa Catarina, os coordenadores dos quase 20 projetos do Bragecrim decidiram pela continuidade do programa, que começou há dois anos e conta com o apoio financeiro de agências federais de financiamento à ciência e tecnologia de cada país. “Vimos que não tínhamos nem gente, nem tempo, nem dinheiro para fazer tudo o que queríamos”, reconhece Eckart Lilienthal, coordenador da estratégia de cooperação internacional do Ministério de Educação e Pesquisa. “Essa estratégia foi discutida com representantes de todos os ministérios, centros de pesquisa e universidades da Alemanha. Não foi implantada de cima para bai-
engenharia
foto Carlos Fioravanti ilustração ana paula campos
inovação
medicina
Em exibição: protótipos de carro elétrico da VW no pátio da Austostadt, em Wolfsbrug
1
1
Universidade Charitè: recuperada da guerra, um dos ícones do pioneirismo alemão na medicina
xo, porque um plano como esse não pode ser feito por um só ministério. Estamos avançando, passo a passo.” Tanto os parceiros tradicionais da Alemanha na Europa e na América do Norte quanto os dos países em desenvolvimento como o Brasil estão ganhando mais atenção. Em agosto, a DFG Fundação Alemã de Pesquisa Científica e a FAPESP renovaram por mais cinco anos o acordo de colaboração entre as duas instituições, apoiando a realização de projetos conjuntos entre os dois países. Em setembro, a secretária-geral do Serviço Alemão de Intercâmbio Acadêmico (Daad), Dorothea Rüland, esteve no Rio de Janeiro para ver como atrair mais brasileiros e, inversamente, como enviar mais pesquisadores alemães para o Brasil. Em funcionamento desde 1972, o escritório do Daad no Rio coordena cerca de 30 programas de intercâmbio de estudantes e pesquisadores, em parceria com as agências federais e estaduais de apoio à pesquisa científica.
O
s alemães investem intensamente em ciência e tecnologia. Em 2009, os gastos totais nessa área foram de US$ 82 bilhões, o equivalente a 2,8% do PIB, enquanto no Brasil foram de US$ 24 bilhões ou 1,19% do PIB. “Do orçamento público federal, 10% está indo para educação e pesquisa”, diz Lilienthal. A Alemanha conta com uma rede de mais de 300 universidades e centros de pesquisa básica como o Max Planck,
36 janeiro DE 2012
Os alemães acreditam que bons produtos só adiantam com pessoas dispostas a economizar energia
com 77 unidades, 13 mil funcionários, 17 ganhadores do Prêmio Nobel ao longo de sua história e um orçamento anual de € 1,3 bilhão (R$ 3,1 bilhões). As empresas – algumas gigantescas como Siemens, Basf e Volkswagen – respondem por dois terços dos gastos anuais em pesquisa e desenvolvimento. A interação entre empresas e centros públicos de pesquisa é intensa e antiga. Em 1910, logo depois de o médico Paul Ehrlich ter verificado que um derivado de arsênio que ele havia sintetizado após 605 tentativas detinha a sífilis em ratos infectados, a empresa farmacêutica Hoechst rapidamente se pôs a produzir o composto em quantidade suficiente para fazer os testes
de eficácia e toxicidade em seres humanos e depois para consumo amplo. A decisão do governo alemão de fechar as oito usinas nucleares mais antigas – e todas até 2022 – após o acidente em Fukushima no Japão valorizou as tecnologias verdes, agora prioritárias. Como os alemães são precavidos, já havia muita coisa funcionando, de modo que eles não ficaram no escuro nem com frio, por falta de aquecedores (durante muitos anos, as usinas nucleares forneceram um terço da energia consumida no país). As 21 mil usinas eólicas em funcionamento suprem um terço da eletricidade nos dias de inverno mais rigoroso na Alemanha, cuja meta é gerar pelo menos 20% de eletricidade através de energias renováveis até 2020. No final de 2010, o setor de energias renováveis estava em franca expansão, já empregando 340 mil pessoas. Em 2011, o governo federal, por meio de uma campanha nacional, promoveu as tecnologias de produção verde (ambientalmente corretas) desenvolvidas por empresas e centros de pesquisa.
A
inda há muito debate sobre o fato de as fontes renováveis de energia serem altamente subsidiadas como forma de promover o consumo. “Só subsidiar não é a solução”, diz Hans-Josef Fell, membro do Parlamento alemão, o Bundestag, e porta-voz em políticas energéticas do Partido Verde. “Precisamos combinar estratégias para reduzir o consumo de energia, a produção de resíduos e a emissão de gás carbônico.” Rutger Schlatmann, diretor da PVcomB, empresa de desenvolvimento de filmes finos e materiais fotovoltaicos, também acredita que a melhor saída será uma combinação de formas diferentes de produzir energia. “Podemos ter bons produtos, mas não vai adiantar se não tivermos também pessoas educadas, dispostas a economizar energia”, diz ele. Nessa área, informa Iver Lauermann, pesquisador do centro de materiais e energia Helmholtz, um dos institutos de pesquisa ligados à PVcomB, uma das metas atuais é melhorar o desempenho e substituir um componente tóxico, o cádmio, dos filmes finos usados em painéis para produção de energia solar. “Somos engenheiros, não falamos muito, mas gostamos de mostrar as máquinas que fazemos”, diz Stefan Kozielski, diretor do centro de excelência de tecnologias integradas de produção, que reúne cerca
2
FOtos 1. e 2. Carlos Fioravanti 3. eduardo cesar
Carro elétrico, dados esféricos e outras ideias inovadoras já ganharam as ruas da Alemanha de 30 empresas, 25 institutos de pesquisa e 150 pesquisadores em vários prédios da Universidade de Aachen, em Aachen, cidade no oeste da Alemanha, na fronteira com a Bélgica e a Holanda. Um dos projetos em desenvolvimento é o Street Scooter, um carro elétrico com autonomia de 130 quilômetros e velocidade máxima de 130 quilômetros por hora que deve começar a ser produzido ainda em pequena escala em 2012. Seu preço para o consumidor deve ser de cerca de € 5 mil. “Em 2020, 10% de todos os carros do mundo serão elétricos, mas será caro”, diz Lino Santacruz-Moctezuma, coordenador de comunicação da Autostadt, centro automotivo com museus e exposições próximo à fábrica da Volkswagen na cidade de Wolfsburg. Segundo ele, a Volkswagen agora prioriza o desenvolvimento de novos modelos de carros práticos, de baixo custo e ambientalmente corretos, primeiramente aproveitando o conhecimento acumulado sobre motores a gasolina e diesel. Os protótipos do carro elétrico da VW, que deve começar a ser vendido comercialmente em 2015, já estão no pátio da Autostadt e se movem em absoluto silêncio, como se permanecessem parados e desligados.
3
L
ilienthal ressalta um ponto importante da estratégia de produção de ciência e tecnologia em centros de pesquisa públicos e empresas na Alemanha: “As ações têm de ser sincronizadas”. Os esforços para concatenar as diversas iniciativas são visíveis. Além de um conceito, apresentando o país como “terra de ideias” (em alemão, Land der ideen), uma página na internet (www. research-in-germany.de) concentra notícias e informações sobre ciência e tecnologia para pesquisadores de empresas e de instituições acadêmicas. Essas ações estão reunificando a ciência alemã, que já foi a melhor do mundo. No início do século passado, médicos e pesquisadores brasileiros falavam e escreviam em alemão, e quase todo ano um cientista alemão ganhava o Prêmio Nobel de física, química ou medicina. Depois,
os nazistas valorizaram a saúde, insistiam para os alemães deixarem de fumar como forma de evitar doenças, mas eliminaram muitos cientistas judeus que não haviam emigrado. Só no hospital Charité, onde trabalharam médicos como Robert Kock, que identificou o agente causador da tuberculose, e Paul Ehrlich, o descobridor do tratamento contra a sífilis, 145 professores foram demitidos, emigraram ou morreram nos campos de concentração. O médico judeu Otto Weisburg só escapou por ter feito descobertas fundamentais sobre o funcionamento das células tumorais e ter ganho o Nobel de Medicina e Fisiologia em 1931. Os bombardeios dos aliados durante a Segunda Guerra Mundial destruíram Berlim quase completamente. Obviamente, os centros de pesquisa – e os pesquisadores, principalmente os judeus – também perderam seus prédios e suas equipes, agora finalmente refeitos. “Os alemães têm um notável senso de propósito e de trabalho em equipe”, observou o químico mexicano Luis Manoel Guerra, que estudou em Munique de 1968 a 1971, trabalhando à noite na Bayer para pagar os estudos. “Não se perguntavam se iriam conseguir reconstruir o país, mas como poderiam fazer.” Conhecidos pela organização, pela obsessão em fazer benfeito e pela visão de futuro, mas também pela inflexibilidade e pelo grande apego à hierarquia, os alemães recolocam o sistema de ciência e tecnologia do país como um dos mais pujantes do mundo. Em muitos sentidos, a Alemanha já é uma “terra de ideias”, como o slogan propõe. Muitas inovações já podem ser vistas por muitos. Carros elétricos de várias marcas circulam pelas ruas de Berlim – com discrição, diferentemente dos similares que circularam festivamente pelas ruas de Paris. A entrada do Hotel Blue, ao lado da catedral de Berlim, expõe um aquário imenso que os hóspedes podem apreciar também por dentro, quando o atravessam em um elevador. Uma das boas surpresas da loja do Museu de História da Alemanha são os dados que, em vez de cúbicos, são esféricos. n * O jornalista viajou a convite do Serviço Alemão de Intercâmbio Acadêmico (Daad). pESQUISA FAPESP 191 37
_ M udanças climáticas
A Plataforma de Durban Conferência obtém compromisso global para redução de gases do efeito estufa a partir de 2020 Fabrício Marques
A
17ª Conferência da ONU sobre Mudanças Climáticas, realizada em Durban, na África do Sul, entre 28 de novembro e 10 de dezembro, alcançou um compromisso dos representantes de quase 200 países para adoção de metas de cortes de emissões de carbono, incluindo os Estados Unidos e a China, as principais potências poluidoras. Os negociadores superaram o impasse das conferências de Copenhague, em 2009, e de Cancún, em 2010, que haviam obtido apenas promessas de caráter voluntário, e também avançaram em relação ao Protocolo de Kyoto, aprovado em 1997, que estabelecia metas para cortes de emissões, mas isentava países em desenvolvimento de segui-las. As delegações, que estouraram o prazo-limite da conferência em um dia para conseguir um acordo, deixaram a cidade portuária sul-africana num clima de alívio e de festa. O saldo da conferência, no entanto, é composto mais de intenções do que de resultados palpáveis. Os países comprometeram-se, sim, com cortes, por meio de um “compromisso legalmente vinculante”, que os obriga a cumprirem metas. Mas o patamar não foi definido nem será no curto prazo. Os detalhes virão apenas em 2015 e o compromisso valerá a partir de 2020. Houve progressos na negociação de um Fundo Climático Verde para ajudar os países pobres a enfrentar as consequências do aquecimento global – a ideia é conseguir US$ 100 bilhões anuais para esse objetivo, tam-
38
_ janeiro DE 2012
bém a partir de 2020. Faltou definir algo crucial: de onde sairão os recursos. As conversas ainda avançaram na criação de um sistema capaz de permitir pagamentos a países que reduzem suas emissões de carbono evitando desmatamentos, o que contabiliza 15% das emissões globais. Os negociadores estabeleceram detalhes sobre como as nações vão calcular suas emissões e iniciaram conversas sobre o funcionamento do sistema. A próxima conferência, que vai realizar-se em Doha, no Qatar, no final de 2012, revelará o grau de dificuldade de avançar nesses temas. “Sendo realista, não há nenhuma garantia de que as promessas serão cumpridas, assim como não dá para antecipar que vai dar errado. Qualquer coisa pode acontecer”, diz Paulo Artaxo, professor do Instituto de Física da USP e um dos coordenadores do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais. Ele prevê a resistência dos Estados Unidos, mas também enxerga sinais animadores de outros países. “O lobby da indústria do petróleo é muito forte nos Estados Unidos. Mas a União Europeia, mesmo enfrentando uma forte crise econômica, empenhou-se em obter um acordo. A China é o país que mais investe hoje em energias renováveis no mundo e o Brasil mostrou que é possível reduzir drasticamente as emissões provocadas por desmatamentos – dos 27 mil quilômetros quadrados desmatados em 2004, caímos para 6 mil quilômetros quadrados em 2010.”
A abertura da conferência, no dia 28 de novembro: delegados decidiram prorrogar o Protocolo de Kyoto
foto Kyodo via AP Images / Glowimages
O que se conseguiu de concreto em Durban foi a extensão do Protocolo de Kyoto por um período de cinco a oito anos – o prazo exato também será definido em Doha. Parece pouco, mas não foi um resultado trivial. Criado em 1997, o protocolo é o único tratado global que estabelece metas vinculativas para os países reduzirem suas emissões de gases estufa. É verdade que os países em desenvolvimento estavam isentos e os Estados Unidos se recusaram a ratificá-lo, enfraquecendo seu impacto. A extinção do protocolo, marcada para o final de 2012, era vista como um retrocesso a ser evitado a qualquer custo – e as diplomacias da União Europeia e do Brasil articularam-se fortemente para evitar esse passo atrás. Ainda assim houve um revés: logo após a conferência, o Canadá, que não conseguiu cumprir as metas de Kyoto, anunciou que estava abandonando o protocolo. Anteriormente, Rússia e Japão já haviam feito a mesma coisa. “O problema foi jogado 10 anos para a frente, o que é claramente inadequado, porque muito carbono que poderia ser evitado será lançado na atmosfera durante os próximos nove anos”, escreveu o físico José Goldemberg, em artigo publicado no
jornal O Estado de S. Paulo. “O fundamental, contudo, é que o problema das emissões de carbono, daqui para a frente, é claramente de todos, e não somente dos países industrializados.” A chamada Plataforma de Durban modificou o Mecanismo de Desenvolvimento Limpo (MDL), criado pelo Protocolo de Kyoto, por meio do qual os países podem vender créditos de carbono a nações poluidoras se levarem a cabo projetos que reduzam as emissões de gases do efeito estufa. Os negociadores ampliaram o mecanismo para incluir projetos que promovam a estocagem de carbono capturado da atmosfera. Thelma Krug, pesquisadora do Instituto Nacional de Pesquisas Espaciais que participou da delegação brasileira, diz que o resultado da conferência é robusto. “Estávamos patinando na mesma discussão e eu já não aguentava mais debater sempre a mesma coisa, sem avançar. A Plataforma de Durban vira uma página. O impacto de não acabar com Kyoto e ter algo vinculante era extremamente importante”, afirma ela, que foi secretária de Mudanças Climáticas e Qualidade Ambiental do Ministério do Meio Ambiente. Ela ressalta o ambiente conturbado em que se obteve o acordo. “O espectro
da crise econômica mundial se sobrepôs à ameaça do aquecimento global. Ficou muito difícil falar em metas de cortes por causa disso”. Afirma, porém, que o caminho é longo e que está cada vez mais difícil impedir que o aquecimento supere os 2 graus neste século. As últimas análises sugerem que o mundo está a caminho de assistir a um aquecimento de 3,5 graus até 2100. “O que se fez foi decidir fazer menos agora para acelerar mais adiante. Temos de acreditar que, nos próximos anos, a situação econômica melhore, a tecnologia avance e ofereça novos instrumentos para mitigar os efeitos das mudanças climáticas e também que consigamos mobilizar as autoridades. É preciso ser otimista, senão não adianta sentar para negociar.” Ela aposta que o próximo relatório do Painel Intergovernamental das Mudanças Climáticas (IPCC), que será lançado em 2013, poderá fornecer evidências científicas que ajudarão a pressionar as autoridades e aperfeiçoar os termos do acordo de 2015. Como acontece em conferências desse tipo, um acordo parecia impossível nos primeiros dias de discussão. Nos momentos mais sombrios das negociações surgiram rumores sobre um adiamento completo da decisão. Em meio às disputas entre países ricos e pobres, os delegados da União Europeia tomaram a dianteira e começaram a articular o acordo. Colaboraram com o resultado, na reta final, a fadiga coletiva e o temor dos contendores de terminarem como os vilões da conferência. Países como a Venezuela protestavam contra os esboços de proposta, lembrando que as emissões do passado do mundo industrializado são responsáveis por boa parte do aquecimento atual. Outros países em desenvolvimento, como o Brasil e a África do Sul, mobilizaram-se por um acordo desde o início, sob o argumento de que o crescimento de emissões futuras virá, em grande medida, de países pobres. No último dia, China e Estados Unidos finalmente disseram sim. Apenas a Índia resistia. Um discurso forte do ministro do Meio Ambiente e das Florestas, Jayanthi Natarajan, exigindo que os esforços dos países ricos e pobres fossem diferenciados, sugeria a manutenção do impasse. Mas também os indianos acabaram aceitando o compromisso. n pESQUISA FAPESP 191
_ 39
_ hist ória da fapesp vii
A escalada do etanol Articulação dos pesquisadores paulistas ajuda a multiplicar o uso da bioenergia Fabrício Marques
P
esquisadores das universidades de São Paulo (USP) e Estadual de Campinas (Unicamp) desvendaram em 2011 cerca de 10,8 gigapares de bases do DNA da cana, 33 vezes o produto dos dois anos do projeto Genoma Cana, encerrado em 2001, que mapeou os genes expressos da planta. O resultado faz parte de dois projetos temáticos, coordenados pela bióloga molecular Glaucia Souza e a geneticista Marie-Anne Van Sluys, professoras da USP, e com conclusão prevista para 2013, que buscam o mapeamento dos genes da cana-de-açúcar. Dada a complexidade do genoma, 300 regiões já estão organizadas em trechos maiores que 100 mil bases, que contêm de 5 a 14 genes contíguos de cana. Os pesquisadores querem ir além do Genoma Cana tanto na quantidade de dados como nas perguntas sobre como funciona o genoma da planta que se tornou sinônimo de energia renovável. Estudos de gramíneas como sorgo e arroz mostraram que para melhorar a produtividade das plantas é preciso saber como a atividade dos genes é controlada, função de trechos do DNA conhecidos como promotores. A pesquisa é um exemplo de como o conhecimento sobre cana-de-açúcar e etanol avançou nos últimos 15 anos, com apoio da FAPESP. Do projeto Genoma Cana, que mapeou os genes expressos da cana-de-açúcar entre 1998 e 2001, ao Programa FAPESP de Pesquisa em Bioenergia (Bioen), ini40
_ janeiro DE 2012
ciado em 2008, do qual Glaucia é coordenadora, a Fundação vem patrocinando um grande esforço de investigação, que articula pesquisadores de várias áreas do conhecimento, voltado para aprimorar a produtividade do etanol brasileiro e avançar em ciência básica e tecnologia relacionadas à geração de energia de biomassa. Com três anos de existência, os resultados do Bioen são palpáveis e variados. Um processo inovador para a produção de bioquerosene a partir de vários tipos de óleos vegetais, que poderá tornar o combustível usado em aviões menos poluente e mais barato, foi desenvolvido na Faculdade de Engenharia Química (FEQ) da Universidade Estadual de Campinas (Unicamp). Após sua extração e refino, o óleo é colocado em um reator junto com uma quantidade específica de etanol e um catalisador, responsável por acelerar as reações químicas. “A maior contribuição do processo de obtenção do bioquerosene são os altos índices de pureza do produto final”, disse Rubens Maciel Filho, professor da FEQ e coordenador do estudo. Outra contribuição de Maciel é um projeto que busca criar compostos de alto valor econômico a partir de substratos da cana. O projeto vem obtendo bons resultados na produção do ácido acrílico e do ácido propiônico a partir do ácido láctico. “É possível desenvolver produtos com valores 190 mil vezes maiores do que o do açúcar”, diz Maciel.
Campo experimental de cana-de-açúcar da Usina da Barra, em Barra Bonita (SP), em 2000
Delfim Martins
bioenergia
A experiência em genômica da geneticista Maria-Anne Van Sluys, da USP, levou-a à liderança de um projeto cujo objetivo é gerar um sequenciamento parcial de dois cultivares de cana (R570 e SP80-3280) e subsidiar o desenvolvimento de ferramentas moleculares capazes de auxiliar na compreensão deste genoma. Um dos alvos é o estudo dos chamados elementos de transposição, regiões de DNA que podem se transferir de uma região para outra do genoma, deixando ou não uma cópia no local antigo onde estavam. “Programas de melhoramento também poderão ser beneficiados tendo acesso a informações moleculares com potencial para o desenvolvimento de marcadores”, diz Marie-Anne. Um projeto liderado por Ricardo Zorzetto Vêncio, da Faculdade de Medicina de Ribeirão Preto da USP, desenvolveu a versão piloto de um software para tentar caracterizar as funções de genes da cana-de-açúcar. A abordagem é inovadora porque não se limita a atribuir a uma sequência de genes de um organismo as funções já observadas numa sequência semelhante de outro ser vivo. A ideia é utilizar algoritmos que contemplem a incerteza contida nessa associação. “Em vez de simplesmente dizer que um gene tem uma função específica queremos dizer qual é a probabilidade de ele ter essa função e, neste cálculo, levar em conta diferentes evidências como a relação evolutiva com outros genes ou se tem algum ex-
perimento que confirma a função”, diz Vêncio. Augusto Garcia, professor da Escola Superior de Agricultura Luiz de Queiroz (Esalq), da USP, está desenvolvendo um software voltado para a utilização de marcadores genéticos em programas de melhoramento, explorando a genética e a fisiologia da cana-de-açúcar. “Essa é uma das grandes expectativas de obtenção de cultivares mais rapidamente”, diz Glaucia Souza. A cada ano, o Centro de Tecnologia Canavieira (CTC) testa 1 milhão de mudas em busca de plantas mais produtivas. Demora 12 anos para que surjam duas ou três variedades promissoras. Estudos de André Meloni Nassar, diretor-geral do Instituto de Estudos do Comércio e Negociações Internacionais (Icone), avançaram também na utilização de modelos econômicos para avaliar as mudanças de uso da terra causadas pela produção em larga escala de biocombustíveis. Já na busca do etanol de celulose, um dos destaques é um projeto que avalia como é possível romper a resistência das paredes celulares de vegetais lignificados, como a cana, por meio de hidrólise enzimática. A lignina é uma macromolécula encontrada em plantas, associada à celulose na parede celular, cuja função é conferir rigidez e resistência. Quebrá-la é um desafio para obter etanol de celulose. “Para entender como a remoção de lignina pode diminuir a recalcitrância das paredes celulares, têm sido avaliados, além de
Genética
inovação
pESQUISA FAPESP 191
_ 41
“O professor José Fernando Perez, diretor científico à época, me perguntou o que eu achava. Observei que a cana tem um genoma muito complexo e sugeri o mapeamento dos fragmentos funcionais do genoma”, diz Arruda, que hoje é um dos coordenadores da área de Pesquisa para Inovação da FAPESP. A cana é um um organismo poliploide: cada cromossomo tem de 6 a 10 cópias – nem sempre iguais. Essa peculiaridade fez com que o sequenciamento integral do genoma fosse descartado.
A produtividade do etanol Biocombustível brasileiro tem o melhor rendimento 8.000 7.000
6.800
6.000
5.400
5.200
Litros por hectare
5.000 4.000
Brasil
União Europeia (UE)
Índia
EUA
Tailândia
UE
0
Etanol de cana
Etanol de milho
Etanol de mandioca
Etanol de trigo
desafios e talentos
2.400
fonte unica
Tipo de cultivo de cana
Produtividade (toneladas/hectare)
Média comercial
84
Máximo comercial
148
Máximo experimental
212
Máximo teórico
381 fonte glaucia souza
variedades comerciais, híbridos de cana com teores contrastantes de lignina”, diz Adriane Milagres, professora da Escola de Engenharia de Lorena, da USP, uma das coordenadoras do projeto. “Quando materiais são tratados com métodos seletivos, a remoção de 50% da lignina original já eleva o nível de conversão da celulose para 85-90%.” Desde os seus primeiros anos, a FAPESP deu suporte a iniciativas que criaram massa crítica para o esforço recente. Um exemplo foi o lançamento, em 1968, do Laboratório de Biotecnologia Industrial da Escola Politécnica da USP. Desde a década de 1940 a Poli havia montado uma usina piloto para a produção de etanol por fermentação, mas faltavam reatores de pequeno porte e equipamentos que permitissem a realização de trabalhos mais completos. Outra contribuição da Fundação foi o Programa Bioq-FAPESP, lançado em 1972 (ver Pesquisa FAPESP nº 185). Ao formar recursos humanos no campo da biotecnologia, abriu caminho para a tarefa de sequenciar o genoma de 42
3.100
Etanol de beterraba
2.000 1.000
3.100
Etanol de cana
3.000
_ janeiro DE 2012
56% da energia consumida no estado de São Paulo vem de fontes renováveis vários organismos nos anos 1990 e 2000, entre os quais o da cana. “Tanto o Bioq-FAPESP, nos anos 1970, quanto o Programa Integrado de Genética, do CNPq, nos anos 1980, são pilares do esforço atual”, diz Marie-Anne Van Sluys, professora do Instituto de Biociências da USP e uma das coordenadoras do Bioen. Um salto no interesse pela pesquisa em cana e etanol aconteceu em abril de 1999, com o advento do Genoma Cana, cujo nome oficial era Programa FAPESP Sucest (Sugar Cane Est). O projeto, que mapeou 250 mil fragmentos de genes funcionais da cana, caracterizou-se pela interação com o setor privado que marca o esforço de pesquisa em bioenergia até hoje. Paulo Arruda, professor da Unicamp, lembra que foi convidado a liderar o projeto depois que a Cooperativa dos Produtores de Açúcar e Álcool do Estado de São Paulo (Copersucar) procurou a diretoria científica da FAPESP e propôs uma parceria entre universidades e indústria para o mapeamento do genoma da cana.
O Genoma Cana durou dois anos e meio, reuniu 240 pesquisadores e teve financiamento da ordem de US$ 4 milhões da FAPESP e outros US$ 400 mil da Copersucar. “O projeto foi realmente inovador. Centrado em gente muito jovem, que tinha mais facilidade de lidar com tecnologia que os pesquisadores mais experientes, o Genoma Cana mostrou que é possível identificar grandes desafios e reunir talentos para resolvê-los”, afirma Arruda. Fundamentalmente, deu início ao esforço, ainda em curso, de aprofundar o conhecimento sobre o metabolismo da cana para obter mais rapidamente variedades mais produtivas e resistentes à seca ou a solos pobres. A conclusão do Genoma Cana não arrefeceu o interesse dos pesquisadores e da indústria em seguir buscando conhecimento sobre a planta. Depois de 2003, Glaucia Souza assumiu a coordenação do Sucest e iniciou o Projeto Sucest-FUN, dedicado à análise dos genes da cana. A identificação dos 348 genes associados ao teor de sacarose foi realizada em um projeto entre o CTC, a Usina Central de Álcool Lucélia e pesquisadores da USP e Unicamp, num projeto liderado por Glaucia. Outro projeto importante foi a identificação de marcadores moleculares a partir das sequências do Sucest, sob a liderança da pesquisadora Anete Pereira de Souza, do Instituto de Biologia da Unicamp. “Os projetos da Glaucia e da Anete foram dois marcos, porque demonstraram haver uma comunidade preparada a investir no tema. Os avanços viabilizaram mapear o Genoma da Cana, o que não era possível na época do Sucest”, diz Marie-Anne. Simultaneamente, crescia o interesse das empresas pela pesquisa em bioenergia. Em 2006, a FAPESP, em parceria com o
Uma Itaipu de resíduos Geração de eletricidade por queima de bagaço e palha de cana no país 12
1.000 megawatts médios (MWm)
10,1 10 8
Itaipu (9.699 MWm)
6 4 2 0
2006/07
2007/08
2008/09
2009/10
2010/11
2011/12
2010/13 fonte unica
bagaço
bagaço + palha
BNDES, firmou um convênio com a Oxiteno, do Grupo Ultra, para o desenvolvimento de projetos cooperativos em que se investiga desde o processo de hidrólise enzimática do bagaço da cana para a obtenção de açúcares até a produção de etanol de celulose. No ano seguinte, a Dedini Indústrias de Base celebrou um convênio com a FAPESP para financiar projetos sobre técnicas de conversão do bagaço de cana em etanol. No início de 2008, a FAPESP e a Braskem também estabeleceram um convênio para o desenvolvimento de biopolímeros. Duas empresas de biotecnologia, formadas em boa medida por pesquisadores vinculados ao Programa Genoma da FAPESP, a Alellyx e a Canavialis, foram adquiridas no final de 2008 pela multinacional Monsanto, que as transformou em sua plataforma mundial de pesquisa em cana-de-açúcar – Paulo Arruda, que liderou o Genoma da Cana, trabalhava na Alellyx. milho com subsídios
A crescente importância econômica da cana ajudou a impulsionar o interesse dos pesquisadores. O Brasil colheu na safra de 2009 569 milhões de toneladas de cana – quase o dobro da colheita de 1999, segundo dados da União da Indústria de Cana-de-Açúcar (Unica). Metade da produção foi transformada em etanol – o equivalente a 27 bilhões de litros –, o que coloca o Brasil como o segundo maior produtor
Universidades, FAPESP e governo articulam-se para ampliar número de pesquisadores dedicados à bioenergia mundial de combustível. O primeiro lugar cabe aos Estados Unidos, que extraem etanol de milho a poder de pesados subsídios. São Paulo respondeu por 60% da produção nacional. O ganho de produtividade tem sido maior do que 3% ao ano nos últimos 40 anos, resultado de melhoramento genético da cana. O etanol fez do Brasil um exemplo único de país que substituiu o uso de gasolina em grande escala. No estado de São Paulo, 56% da energia vem de fontes renováveis, sendo 38% da cana. Para articular os esforços existentes e dar impulso a vertentes de pesquisa ainda incipientes, a FAPESP lançou em julho de 2008 o Programa Bioen. Um dos
objetivos é superar entraves tecnológicos e ampliar ainda mais a produtividade do etanol de primeira geração, feito a partir da fermentação da sacarose. Outro mote é participar da corrida internacional em busca do etanol de segunda geração, produzido a partir de celulose. O programa tem cinco vertentes. Uma delas é o de pesquisa sobre biomassa, com foco no melhoramento da cana. A segunda é o processo de fabricação de biocombustíveis. A terceira está vinculada a aplicações do etanol para motores automotivos e de aviação. A quarta é ligada a estudos sobre biorrefinarias, biologia sintética, sucroquímica e alcoolquímica. E a quinta trata dos impactos sociais e ambientais do uso de biocombustíveis. Um desdobramento do Bioen foi a criação em 2010 do Centro Paulista de Pesquisa em Bioenergia. Trata-se de um esforço para estimular a pesquisa interdisciplinar e ampliar o contingente de pesquisadores envolvidos com o tema, mantido pela FAPESP, o governo do estado de São Paulo e as três universidades estaduais paulistas. Pelo convênio, o governo repassa recursos para a USP, a Unicamp e a Unesp, que serão usados para a construção de laboratórios, reformas e compra de equipamentos. As universidades incumbem-se de contratar mais pesquisadores em diversas vertentes da bioenergia. Já a FAPESP assumiu a missão de selecionar e financiar os projetos vinculados ao centro. “Atualmente as três universidades estão organizando editais para contratar os primeiros 17 pesquisadores do centro, sendo 7 nas unidades da USP, 5 na Unicamp e 5 na Unesp”, diz Luis Cortez, professor da Unicamp e coordenador do centro. Esse número deve chegar a cerca de 50, à medida que novos investimentos forem feitos pelo governo. Um exemplo é o Centro de Biologia Sintética e Sistêmica da Biomassa, na USP, idealizado em 2008 por Glaucia Souza, Marie-Anne Van Sluys e Marcos Buckeridge. Esse centro vai reunir pesquisadores dos institutos de Química, de Matemática e Estatística, de Biociências, de Ciências Biomédicas, e da Escola Politécnica. A biologia sintética combina biologia e engenharia para construir novas funções e sistemas biológicos. “A intenção é investir numa área em que o Brasil ainda não tem grande expertise e envolver pesquisadores de várias disciplinas”, diz Glaucia Souza. n pESQUISA FAPESP 191
_ 43
_ I nternacionalização da ciência
1
A arte de fazer parceiros Estudo sugere que o contato pessoal entre pesquisadores é essencial para incentivar colaborações internacionais
Q
uais são as formas mais efetivas de semear parcerias de pesquisadores com colegas de outros países? As colaborações, cada vez mais almejadas por alcançarem produtividade e relevância frequentemente maiores do que as de trabalhos individuais ou de parcerias domésticas, ocorrem com mais naturalidade em meio a um conjunto de fatores, e um dos mais importantes deles é a chance de conhecer informalmente colegas estrangeiros, em congressos e simpósios. Também desempenham papéis importantes na frequência de colaborações a proximidade cultural entre os pesquisadores; a existência de recursos direcionados para a pesquisa em cooperação; além, naturalmente, da excelência acadêmica e dos níveis de desenvolvimento tecnológico dos parceiros, combustíveis naturais para trabalhos conjuntos de alto nível. Essas conclusões emergem de um estudo feito por três pesquisadores da Coreia do Sul publicado na edição de dezembro da revista Scientometrics. De autoria de Seongkyoon Jeong e Jae Young Choi, do Korea Institute of Machinery and Materials (KIMM), e Jaeyun Kim, do Korea Institute for Industrial Economics and Trade (KIIET), o artigo apresenta um modelo estatístico que se propõe a ponderar a importância de 44
_ janeiro DE 2012
A consultoria ScienceMetrix criou um mapa das colaborações científicas no mundo com base em artigos com coautores de países diferentes publicados em revistas das bases de dados Scopus e Web of Science entre os anos de 2005 e 2009
Olivier H. Beauchesne / Science-Metrix, 2011 / http://collabo.olihb.com
cienciometria
diversos fatores na criação de parcerias internacionais, de colaborações dentro de um mesmo país ou de uma mesma instituição, ou ainda da opção pelo trabalho individual. O dado mais significativo do artigo é o peso que ele confere à comunicação informal entre os pesquisadores como fator fundamental no estímulo às parcerias. Os autores observaram, por exemplo, uma relação direta entre a frequência de viagens internacionais e a preferência dos pesquisadores por publicar artigos científicos em coautoria com estrangeiros, em detrimento de trabalhos individuais. “O resultado mostra como a comunicação informal com uma unidade de pesquisa no exterior pode acelerar as colaborações internacionais”, escreveu Seongkyoon Jeong, autor principal do artigo e pesquisador do Departamento de Políticas em Pesquisa e Desenvolvimento do KIMM. A internet e outros recursos da tecnologia da informação claramente favorecem a comunicação a distância entre cientistas, mas as evidências mostram que a maioria das colaborações começa apenas depois que as partes estabelecem contatos pessoais. “Os formuladores de políticas públicas devem estimular a frequência de comunicação informal para encorajar os pesquisadores a se beneficiarem das oportunidades de colaboração internacional.”
É certo que a amostra avaliada tem limites: foi analisado um conjunto de 1.530 artigos publicados entre 1997 e 2010 por pesquisadores do KIMM, um instituto do governo coreano para pesquisa em mecânica que atua como ponte entre as universidades e o setor industrial. Esses dados foram cruzados com outras informações sobre o desempenho dos pesquisadores, como, por exemplo, as viagens de trabalho nacionais e internacionais que realizaram no período. O estudo discute as motivações dos que mais colaboram e oferece um conjunto de sugestões para as instituições de pesquisa e as agências de fomento incentivarem seus pesquisadores a colaborar com estratégias mais eficientes. Além de estimular a comunicação informal, recomenda fomentar processos de avaliação dos pesquisadores e dar mais peso à produção acadêmica feita em parcerias internacionais neste processo de avaliação. Ou ainda criar linhas de financiamento que estimulem pesquisas com potencial de colaboração. A ideia de que encontros pessoais com colegas estrangeiros fertilizam futuras parcerias coincide com a experiência de pesquisadores brasileiros. Vanderlei Salvador Bagnato, professor do Instituto de Física de São Carlos (IFSC) da Universidade de São Paulo (USP), cita um exemplo recente. pESQUISA FAPESP 191
_ 45
Em abril, ele coordenou um curso de duas semanas em São Carlos com a participação de palestrantes e estudantes estrangeiros, a Escola Avançada Desafios Modernos com Matéria Quântica: Átomos e Moléculas Frias. A iniciativa faz parte de uma modalidade de apoio da FAPESP, as Escolas São Paulo de Ciência Avançada, que buscam aumentar a exposição internacional de áreas de pesquisa de São Paulo já competitivas mundialmente. Além de discutir um tema emergente, o objetivo, segundo Bagnato, é atrair bons alunos do exterior e de outros estados para atuar em São Paulo. Como acontece em todas as Escolas Avançadas, a metade dos alunos convidados veio de outros países e a ambição do programa é que parte deles se candidate a bolsas de pós-doutoramento no Brasil. “A escola foi maravilhosa para nós. Muitos estudantes que participaram querem vir estudar conosco ou fazer pós-doutoramentos. Em especial, temos vários candidatos alemães que desejam passar alguns meses aqui para discutir possibilidades de pós-doutorado”, diz Bagnato. Com relação aos professores, diversas colaborações nasceram. “Com a Universidade de Cambridge, a pesquisadora Natalia Berloff começou uma cola46
_ janeiro DE 2012
boração conosco e levou uma de minhas estudantes para fazer um doutorado sanduíche na Inglaterra. O professor Makoto Tsubota, da Universidade da Cidade de Osaka, já enviou um visitante para o nosso laboratório e nós pretendemos mandar estudantes para lá. Muitos outros participantes estão colaborando com o professor Philippe Courteille, também do Instituto de Física da USP. Acho que a escola foi uma boa janela para trazermos estrangeiros para cá e estabelecer uma forte colaboração feita sobre pilares sólidos, pois agora eles conhecem também nossa instituição e não apenas um dos pesquisadores”, explica. contra o senso comum
Samile Vanz, autora de uma tese de doutorado sobre colaborações científicas no Brasil (ver Pesquisa FAPESP nº 169) e professora da Universidade Federal do Rio Grande do Sul, acredita que os achados do grupo sul-coreano são um ponto de partida importante para o debate sobre as colaborações e um norte para futuros estudos. “Há outro dado do artigo, que contraria o senso comum, mostrando que não foi observada uma correlação entre o fato de pesquisadores terem feito
Rede de coautores das colaborações científicas ligadas ao Laboratório de Pesquisa em Informática da Universidade Paris-Sud, na França, de 2000 a 2004
Burocracia das universidades faz com que pesquisadores viajem menos ao exterior do que poderiam, diz Samile Vanz
crédito Jean-Daniel Fekete / INRIA Futurs, 2007
doutorado no exterior e um aumento em colaborações internacionais. As agências de fomento brasileiras, aliás, só têm financiado doutoramentos lá fora em poucos casos, quando se trata de áreas em que o país ainda é fraco. Preferem patrocinar os doutorados sanduíche e os pós-doutorados, de duração menor”, diz. “Claro que isso precisa ser investigado numa amostra bem maior, mas sugere que a ideia de que é preciso enviar pesquisadores para fazer doutorado no exterior para internacionalizar a ciência brasileira talvez tenha impacto menor do que a estratégia de investir com mais fôlego na participação em simpósios, congressos, visitas e missões no exterior”, diz Samile. A pesquisadora afirma que a burocracia das universidades e as regras restritas de agências de fomento fazem com que os pesquisadores brasileiros viajem menos ao exterior do que poderiam. “Falo pela minha experiência, de quem trabalha numa universidade federal. A autorização para uma viagem é demorada e precisa passar por diversas instâncias. E não se consegue mais do que um auxílio por ano nas agências. Os recursos para participar de congressos, ou para trazer gente de fora em congressos aqui,
saem do lugar. A incompatibilidade pode ser de timing. Existe o interesse, mas uma das partes não está tão disponível quanto a outra. Às vezes o problema é o excesso de confiança – um dos parceiros quer publicar logo e o outro não. Ou então é o excesso de zelo – uma das partes quer testar 30 vezes e a outra não acha necessário”, diz Knobel, que já estabeleceu colaborações com colegas de mais de 20 países e costuma receber em seu laboratório pesquisadores visitantes de várias nacionalidades (ver Pesquisa FAPESP nº 175). Apenas uma fração dos As motivações para cocontatos em congressos laborar são múltiplas, afirma. “Pode ser o jointernacionais converte-se vem pesquisador em busca da sabedoria do em colaborações mais velho, ou o cientista sênior sem tempo para se dedicar mais e precisando da ajuda de jovens talentosos. Às vezes são pesquisadores experimentais precisando da ajuda de teóricos, ou vice-versa. Ou então se trata do especialista numa determinada técnica que é procurado por pesquisaainda são restritos”, afirma. “Há muito a dores em busca de um apoio específico”, avançar no estímulo a esse intercâmbio explica. O contato pessoal com colegas de outros países é indispensável para a informal aqui no Brasil.” Estudos citados no artigo sul corea- colaboração vicejar. “Você não precisa no mostram que a proporção de papers conhecer um pesquisador para saber o de alto impacto cresce à medida que o que ele está fazendo. Basta ler seus tranúmero de autores por artigo aumen- balhos científicos. Mas para fazer parta – se os coautores são de países dife- ceria é preciso ter contato pessoal, ver rentes, o número de citações chega e se os gostos e os interesses se afinam, ser duas vezes maior do que em cola- se a conversa tem ressonância. No funborações dentro de um mesmo país. “Os do, é para isso que se fazem tantos conformuladores de políticas também têm gressos e simpósios”, diz o pesquisador, estimulado colaborações em grandes que em 2010 ajudou a coordenar o siminiciativas sob a influência de um novo pósio Frontiers of Science, organizado paradigma chamado de Inovação Aber- pela Royal Society e pela FAPESP, que ta”, escreveram os autores, referindo-se a reuniu em Itatiba, no interior paulista, um modelo colaborativo de pesquisa em um grupo de 76 pesquisadores do Brasil, que o fluxo de informações permite que do Reino Unido e do Chile para debater as ideias sejam mais bem aproveitadas grandes questões do conhecimento sob mesmo que não seja necessariamente uma ótica multidisciplinar. “O objetivo do simpósio era justamente o de colocar por quem as gerou. Mas o desejo de colaborar enfrenta pesquisadores para conversar e estimular uma prova de obstáculos antes de se con- parcerias”, afirma. n Fabrício Marques verter em artigos publicados em coautoria. Marcelo Knobel, professor do Instituto de Física Gleb Wataghin, da UniversiArtigo científico dade Estadual de Campinas, conta que só Jeong, S. et al. The determinants of research collaboration modes: exploring the uma fração dos contatos internacionais effects of research and researcher characteristics transforma-se em colaborações. “Há paron co-authorship. Scientometrics. v. 89, cerias que começam promissoras mas não p. 967-83. 2011. pESQUISA FAPESP 191
_ 47
_ c ooperação {
Pontes entre disciplinas Especialista defende a convergência tecnológica, estratégia que reúne áreas diversas em temas de fronteira
M
ihail Roco, engenheiro de ascendência italiana nascido na Romênia e uma das maiores autoridades em nanotecnologia nos Estados Unidos, esteve em São Paulo em novembro para motivar os pesquisadores brasileiros a trabalharem em conjunto com colegas de outras áreas em projetos amplos, ambiciosos, de alto impacto científico, econômico e social. Essa abordagem de trabalho multidisciplinar é hoje chamada convergência tecnológica, um tema debatido na Europa, nos Estados Unidos, na Austrália e no Japão e cada vez mais valorizado no Brasil. Em 2008, Esper Abrão Cavalheiro, pesquisador da Universidade Federal de São Paulo (Unifesp) e assessor do Centro de Gestão e Estudos Estratégicos (CGEE) do Ministério da Ciência e Tecnologia, alertou: “Se o Brasil não entrar no debate sobre as convergências tecnológicas correrá o risco de ver os países desenvolvidos decidindo por nós” (ver Pesquisa FAPESP nº 136). “As pessoas não conseguem se reorganizar do dia para a noite”, comentou Roco, conselheiro de nanotecnologia da National Science Foundation
48 janeiro DE 2012
(NSF), principal agência federal norte-americana de financiamento à pesquisa, com um orçamento anual próximo a US$ 7 bilhões. Mesmo nos Estados Unidos, segundo ele, não é nada fácil convencer um cientista a levar realmente a sério o que um colega de outra área está fazendo. “Uma de minhas tarefas é tirar os cientistas da inércia em que vivem e mostrar que podem ganhar muito trabalhando com especialistas de outras áreas”, comentou. “As especialidades são necessárias, mas não precisamos permanecer o tempo todo nelas. Podemos integrar nossas áreas e voltar a ver a ciência como uma coisa só.” Em 10 anos, desde que começou a trabalhar nessa área no NSF, Roco fez os investimentos federais em nanotecnologia nos Estados Unidos aumentarem seis vezes, até atingir US$ 1,5 bilhão, como em 2007. Segundo Roco, a convergência tecnológica implica começar um trabalho a partir dos problemas a serem resolvidos, não das disciplinas envolvidas. Implica também buscar objetivos comuns, compartilhar teorias e enfoques de trabalho, valorizar as capacidades das pessoas e os resultados e antecipar e gerenciar oportunidades e riscos.
info
cogno
bio
nano
As quatro áreas da NBIC, a maior expressão atual da convergência
transformar boas ideias em produtos capazes de modificar a vida das pessoas e as relações sociais. “Nas décadas recentes houve duas revoluções biomédicas, a biologia molecular e a genômica”, recapitularam Phillip Sharp e Robert Langer, cientistas do Instituto de Tecnologia de Massachusetts (MIT), Estados Unidos, em um artigo publicado em julho de 2011 na revista Science. “Acreditamos que a convergência de campos representa uma terceira revolução, em que o pensamento e a análise multidisciplinares permitirão a emergência de novos princípios científicos e em que engenheiros e físicos sejam parceiros em igualdade de condições com biólogos e médicos enquanto lidam com os novos desafios médicos.” Sharp, ganhador do Prêmio Nobel de Medicina em 1993, é também o primeiro autor de um documento de 40 páginas do MIT distribuído em janeiro de 2011 com as definições e as perspectivas da convergência tecnológica, agora vista como uma abordagem capaz de trazer avanços em setores como saúde, energia, agricultura e clima.
Bioinformática
Biotecnologia
Zona de conforto
Em resumo, como ele disse, “usar todo o cérebro, não só parte dele”. Para deslanchar, essa estratégia de trabalho necessita também de mudanças na governança das universidades, centros de pesquisa, empresas e órgãos do governo, de modo que valorizem “uma visão de longo prazo, transformadora, inclusiva, colaborativa e visionária”. Os Estados Unidos apostam nessa estratégia de trabalho multidisciplinar – em especial na área chamada NBIC, que reúne nanotecnologia, biologia, informática e ciências cognitivas – para manter a liderança científica mundial. Se os obstáculos forem vencidos, talvez os pesquisadores consigam realmente chegar, como pretendem, a terapias contra câncer ou uma retina artificial, entre outros produtos, como resultado do trabalho conjunto de médicos, engenheiros, físicos e cientistas da computação. O que se quer é tornar mais comuns produtos como os implantes ósseos, raros há 10 anos e hoje corriqueiros, e o álcool combustível, produzido no Brasil há mais de 30 anos. O desenvolvimento de tais produtos indica que especialistas de mundos muitas vezes distantes conseguem se entender e
E no Brasil, quais as chances de a convergência tecnológica avançar? Teoricamente, são grandes, na visão de Lélio Fellows Filho, assessor do CGEE. Seu primeiro argumento é que a convergência tecnológica, que ele define como “uma nova maneira de olhar problemas e abordar soluções”, é oportuna porque “precisamos dar saltos, não só caminhar”, para resolver os problemas do país. Além disso, ele verificou que 1.309 grupos de pesquisa, dos 35 mil registrados no país, já estão na NBIC (220 grupos em nanotecnologia, 791 em biotecnologia, 278 em tecnologias da informação e 120 em ciências cognitivas). Dos 134 institutos nacionais de ciência e tecnologia (INCTs), 55 formam “o universo que pode ser mobilizado para ações de convergência”, comentou. Fellows sabe que não será simples motivar os principais representantes desse universo a trabalharem coletivamente em problemas comuns ou que exigem soluções complexas. “Precisamos diminuir a desconfiança e as distâncias entre áreas de conhecimento de práticas, costumes e ideários diferentes”, ele propõe. “Temos também de vencer a inércia das áreas de conhecimento e motivar os pesquisadores a saírem de suas zonas de conforto e se envolverem em iniciativas de risco e de ruptura.” n Carlos Fioravanti
Nanotecnologia
Tecnologia da Informação
pESQUISA FAPESP 191 49
ciência
Quando o t imo não vai bem 50 janeiro DE 2012
_ Im unodeficiências primárias
Cópia extra de gene prejudica o amadurecimento das células de defesa na síndrome de Down texto Ricardo
fotos leo ramos e eduardo cesar
ilustração
Zorzetto e Francisco Bicudo
Mariana Coan
C
omeça-se a conhecer melhor a razão por que as pessoas com síndrome de Down, que atinge uma em cada 700 crianças, são mais suscetíveis a desenvolver doenças autoimunes do que o restante da população. Nelas, um sofisticado mecanismo que ensina as células de defesa a reconhecer e combater o que é estranho ao organismo encontra-se desregulado, mostraram pesquisadores brasileiros em um estudo publicado em setembro no Journal of Immunology. A consequência desse desequilíbrio é que as células que deveriam proteger o corpo passam a atacá-lo, levando ao desenvolvimento de enfermidades autoimunes como o diabetes tipo 1, o hipotireoidismo ou a doença celíaca. A pediatra Magda Carneiro-Sampaio e sua equipe no Instituto da Criança (ICr) da Faculdade de Medicina da Universidade de São Paulo (FMUSP) verificaram que algo não andava bem com o amadurecimento das células de defesa das crianças com síndrome de Down quando puderam comparar a atividade do timo delas com a do timo de crianças sem o problema. Órgão pequeno e achatado em forma de borboleta, o timo se situa no tórax, atrás do osso esterno e à frente do coração, e funciona como uma escola de treinamento de guerra. É ali que um grupo especial de células de defesa – os linfócitos T, responsáveis por orquestrar o combate a infecções e a eliminação de células doentes – aprende a distinguir o que integra o próprio corpo e deve ser preservado daquilo que vem de um organismo estranho e deve ser exterminado. Quando o timo funciona bem, os linfócitos que passam por esse treinamento e se mostram capazes de reconhecer e atacar as células do próprio organismo são destruídos ali mesmo – a morte é o destino de 95% a 97% dos linfócitos T. Só saem do timo para a circulação sanguínea e a linfática os 3% a 5% restantes dos linfócitos, que demonstram ter a habilidade de identificar e atacar apenas os agentes infecciosos, os compostos estranhos ao corpo ou as células defeituosas. Na síndrome de Down, porém, esse rigoroso sistema de preparo e seleção celular encontra-se desbalanceado. O desajuste no amadurecimento dos linfócitos só começou a ficar evidente nos últimos anos, quando o grupo de Magda usou técnicas de biologia molecular para estudar o timo de 60 crianças (14 com síndrome de Down e 46 sem) com idade entre 4 meses e 12 anos. Todas elas haviam passado por uma cirurgia para corrigir defeitos cardíacos graves que exigiu a retirada do
Imunologia
pediatria
pESQUISA FAPESP 191 51
Treinamento de guerra Timo prepara células de defesa para identificar agentes infecciosos e compostos estranhos ao corpo
Multiplicação Amadurecimento No timo, os linfócitos aprendem a identificar o que é estranho ao organismo e deve ser destruído. Uma seleção rigorosa elimina os linfócitos (em preto) defeituosos ou capazes de atacar o próprio corpo
timo. Ao comparar o funcionamento do timo, os pesquisadores constataram que, em média, esse órgão era menos ativo nas crianças com síndrome de Down do que naquelas sem o problema (ver infográfico acima).
O
geneticista Carlos Alberto Moreira Filho e a psiquiatra e especialista em bioinformática Helena Brentani avaliaram o nível de ativação de quase 22 mil genes nas células do timo e verificaram que cerca de 400 desses genes, muitos deles responsáveis pela multiplicação celular e pelo amadurecimento das células de defesa, se encontravam menos ativos nas crianças com Down. Um em especial chamou a atenção. É o gene autoimmune regulator (AIRE). Esse gene codifica a produção de uma proteína essencial para a seleção apropriada dos linfócitos T. Sem essa proteína, os linfócitos nocivos ao próprio organismo não são exterminados no timo, como deveriam, e se espalham pelo corpo. A patologista Maria Irma Seixas Duarte e a biomédica Flavia Afonso Lima observaram que havia duas vezes mais células com o gene AIRE ativo no timo das crianças sem Down do que no daquelas com a síndrome. Em média, 155 células por milímetro quadrado expressavam o AIRE no timo das crianças do primeiro grupo e apenas 70 no daquelas do segundo. “O baixo nível de expressão do
52 janeiro DE 2012
Apenas de 3% a 5% dos linfócitos gerados no timo (linfócitos T) vão para a corrente sanguínea. Eles se espalham pelo corpo e permanecem prontos para combater agentes infecciosos e células doentes
gene AIRE permite compreender por que as doenças autoimunes são mais frequentes em quem tem síndrome de Down”, conta Magda. O padrão de acionamento dos genes nas células do timo ajuda também a explicar os sinais clínicos observados em crianças com Down, a anomalia cromossômica mais comum em seres humanos, causada pela presença de uma cópia extra do cromossomo 21 no núcleo das células. Desde muito cedo na vida, boa parte das pessoas com Down apresenta problemas autoimunes desencadeados pelo ataque das células de defesa a órgãos específicos. O risco de desenvolver hipotireoidismo, diabetes tipo 1 ou doença celíaca é respectivamente 4 vezes, 6 vezes e de 10 a 40 vezes maior entre as crianças com síndrome de Down do que no restante da população. Há quase três décadas também se sabe que o timo dessas crianças é menor do que o daquelas sem a anomalia cromossômica. Ante os resultados de agora, Magda e sua equipe propõem uma reinterpretação da origem dos problemas autoimunes frequentes na síndrome de Down. “As enfermidades autoimunes que essas crianças apresentam são decorrentes de uma imunodeficiência primária, e não secundária como se classifica atualmente”, afirma. O que essa reavaliação significa? Em primeiro lugar, que a causa das doenças autoimunes nas pessoas com Down é di-
ferente do que se pensava. “A origem do mau funcionamento do sistema de defesa delas é genética e aparece durante a formação do embrião”, conta Magda. Até então, a explicação mais aceita pelos especialistas era que esses problemas autoimunes decorriam da degeneração do timo causada pelo envelhecimento precoce. Em segundo lugar, que essas crianças podem não estar recebendo medicação adequada. A fim de aprimorar o tratamento dessas crianças, a equipe de Magda e a do pediatra Zan Mustacchi iniciaram em dezembro no Hospital Infantil Darcy Vargas, em São Paulo, a triagem daquelas que têm síndrome de Down e apresentam infecções recorrentes mesmo depois de vacinadas contra doenças virais e bacterianas. Eles pretendem verificar se essa suscetibilidade maior a infecções – elas
O Projeto Autoimunidade na criança: investigação das bases moleculares e celulares da autoimunidade de início precoce – nº 2008/58238-4 modalidade Projeto Temático Coordenadora Magda Carneiro-Sampaio – FMUSP investimento R$ 1.470.770,68 (FAPESP)
fonte magda carneiro-sampaio / usp
Precursoras dos linfócitos, células-tronco vindas do fígado e da medula dos ossos penetram no timo e começam a se multiplicar
Vigilância
Ataque Alterações no funcionamento do timo prejudicam o processo de seleção e deixam escapar linfócitos T que atacam órgãos como a tireoide, causando doenças autoimunes
podem agravar os problemas cardíacos, frequentes nas crianças com Down – também decorre do mau funcionamento do timo. “Se for confirmado, poderemos programar uma vacinação complementar na tentativa de melhorar a resposta imunológica dessas crianças e, em certos casos, indicar o uso preventivo de antivirais e antibióticos para aquelas com cardiopatia congênita”, diz Zan.
A
nos atrás o grupo do Instituto da Criança decidiu investigar a atividade do timo na síndrome de Down porque o padrão de problemas imunológicos apresentados por essas crianças lembrava o de outra enfermidade rara associada à disfunção desse órgão: a poliendocrinopatia autoimune tipo 1 (APECED). Comum em italianos da Sardenha, finlandeses e judeus iranianos, essa poliendocrinopatia, também se caracteriza pela atividade anormal do timo. Em ambas, linfócitos que deveriam ser destruídos escapam à seleção e atacam o próprio corpo por causa da atividade anormal do gene AIRE, que se encontra no cromossomo 21.
Na APECED alterações na estrutura desse gene, como a encontrada em 2007 pelo grupo de Magda em uma família de brasileiros descendentes de italianos, prejudicam a expressão do AIRE e a seleção dos linfócitos T. Na síndrome de Down trechos muito pequenos de material genético – os micro-RNAs, encontrados em abundância no cromossomo 21 – podem interferir na atividade do AIRE e de outros genes. “Pretendemos investigar o papel desses micro-RNAs na próxima etapa do trabalho”, conta Magda. Ela e os pesquisadores da USP planejam ainda usar testes que permitam avaliar o tamanho e a atividade do timo para identificar, se possível antes mesmo do nascimento, essas e outras imunodeficiências primárias graves. Consideradas raras, essas enfermidades se manifestam muito cedo na vida e deixam as crianças mais suscetíveis a infecções ou a problemas autoimunes. Calcula-se que uma em cada 10 mil crianças apresente alguma forma de imunodeficiência grave (parte dos casos com alteração no timo), quase sempre fatal sem o tratamento correto. Uma das imunodeficiências que os pesquisadores esperam detectar cedo é a síndrome de DiGeorge, que afeta uma em cada 4 mil crianças. Consequência da perda de um pedaço do cromossomo 22, essa síndrome causa defeitos no coração e na face e impede o desenvolvimento normal do timo. De 1% a 2% das crianças
órgão. Mas o teste genético ainda é caro para ser adotado pelo sistema público de países como o Brasil – seriam necessários a cada ano US$ 2,4 milhões para aplicar o teste às 600 mil crianças que nascem no estado de São Paulo. Por esse motivo, o grupo da USP pensa em aproveitar a ultrassonografia do feto, feita durante a gestação, para avaliar o tamanho do timo. “Esse seria apenas um item a mais a ser verificado durante a avaliação de anomalias fetais por ultrassom”, diz Luiz Antonio Nunes de Oliveira, chefe do Serviço de Radiologia do ICr.
C
omo o timo é proporcionalmente grande no feto, é possível identificá-lo por meio desse exame de imagem. “Os casos em que o timo for menor que o normal ou não estiver visível seriam considerados suspeitos e os médicos poderiam solicitar um leucograma logo após o nascimento”, explica Oliveira. A obstetra Roseli Nomura, do Departamento de Obstetrícia e Ginecologia da FMUSP, trabalha agora para descobrir as melhores condições técnicas para avaliar o timo por ultrassom no último exame pré-natal, sem aumentar muito a duração e o preço do exame. Identificar mais cedo a atividade anormal do timo é importante para a sobrevivência do recém-nascido. As crianças com imunodeficiências graves, por exemplo, não devem receber a vacina BCG, aplicada logo após o nascimento. Essa vacina antituberculose é produzida com bacilos vivos, que podem causar uma infecção grave – e até Pesquisadores buscam fatal – nesses bebês. “Quanto condições técnicas para antes se fizer o diagnóstico, cedo se pode programar avaliar o timo no pré-natal mais a imunização mais adequada para a criança”, afirma a pediatra Cristina Jacob, checom a síndrome podem até mesmo nascer fe da Unidade de Alergia e Imunologia sem o timo, o que impede a formação do do ICr. Nos casos de imunodeficiência sistema imunológico e só é corrigido por combinada grave, o diagnóstico precomeio do transplante do órgão. A equipe ce permite o encaminhamento rápido do ICr quer identificar ainda os casos de da criança para o transplante de células imunodeficiência combinada grave, que hematopoiéticas, a única opção terapêutica possível por ora. n atinge 1 em cada 40 mil bebês. Nos últimos anos alguns estados norteamericanos incluíram na triagem neoArtigo científico natal – o teste do pezinho – um exame LIMA, F. A. et al. Decreased AIRE expression and que mede o número de linfócitos recémglobal thymic hypofunction in Down Syndrome. -liberados pelo timo, que funcionam coThe Journal of Immunology. v. 187 (6), p. 3.42230. 15 set. 2011. mo indicador no sangue da atividade do pESQUISA FAPESP 191 53
_ p reservação ambiental
Uma estrada, muitas florestas Construção de rodoanel na Grande São Paulo aciona operação de replantio de matas Carlos Fioravanti
P
elo menos uma vez por semana o biólogo sul-mato-grossense Paulo Ortiz chega por volta das sete da manhã, uma hora e meia antes do habitual, ao Instituto de Botânica, ao lado do Zoológico da cidade de São Paulo. Põe as botas pretas e logo sai, com outros biólogos, para percorrer a periferia da capital e municípios vizinhos e ver como estão crescendo as matas que devem repor a vegetação nativa perdida com a construção do trecho sul do rodoanel Mário Covas, uma estrada de 57 quilômetros que contorna a capital paulista e outros seis municípios da Grande São Paulo, interligando as estradas do interior paulista ao litoral. O trabalho de recomposição de mata atlântica, ainda que pouco visível para quem circula pelas ruas da metrópole, mas importante para amenizar o calor e as inundações, representa a maior experiência de restauração de florestas realizada em conjunto por órgãos públicos, institutos de pesquisa e empresas privadas na história paulista. Os 1.016 hectares (cada hectare equivale a 10 mil metros quadrados) que devem ser reocupados com espécies nativas de mata atlântica estão espalhados por 147 áreas públicas de ta-
54
_ janeiro DE 2012
1
2007
2
ECOLOGIA
fotos 1. luis fernando do rego / dersa 2. e 3. if / emplasa / seade
Três anos depois: a floresta ganha corpo em um dos parques criados pela Dersa; acima, a estrada atravessa uma das represas da capital
2010
3
manhos variáveis – de 70 metros quadrados, o equivalente a um apartamento, a 100 hectares, ou 100 campos de futebol juntos – em São Paulo e outros 13 municípios próximos (Biritiba Mirim, Cotia, Embu das Artes, Itapecerica da Serra, Mairiporã, Mauá, Mogi das Cruzes, Nazaré Paulista, Ribeirão Pires, Salesópolis, Santo André, São Bernardo do Campo e Piracaia; ver no site www.revistapequisa.fapesp.br a localização das áreas de replantio). Essa experiência atesta a habilidade de trabalho conjunto entre pesquisadores de diferentes instituições, que se mobilizam para enfrentar problemas urgentes e resistências naturais ou humanas ao crescimento das florestas urbanas. Em um terço da área plantada, cerca de 300 hectares, as árvores morreram ou não cresceram como se esperava, por causa de imprevistos como alagamentos, incêndios provocados, geadas, invasão de gado e oposição de alguns moradores vizinhos, que preferiam continuar ocupando as terras públicas com pastagens clandestinas para o gado que criavam. Uma equipe da Escola Superior de Agricultura Luiz de Queiroz (Esalq) da Universidade de São Paulo (USP) ajudou a PeSQUISA FAPESP 191
_ 55
restaurar 8.500 hectares, uma área bem maior que a do trecho sul do rodoanel, mas sem tantos conflitos porque as novas matas cresceram em terras particulares, cujos donos desejavam a certificação ambiental da produção de açúcar e álcool (ver Pesquisa Fapesp no 144, de fevereiro de 2008). À medida que avança, a ocupação com vegetação nativa de uma área equivalente a 25% da floresta da Tijuca, na cidade do Rio de Janeiro, evidencia a capacidade de botânicos e engenheiros agrônomos e florestais contribuírem efetivamente para a formulação e implantação de políticas públicas. Prova disso é que, como resultado de pesquisas que se transformaram em argumentos para aprimorar a legislação ambiental do estado de São Paulo, cada hectare deve conter cerca de 2 mil árvores de pelo menos 80 espécies diferentes. Desse modo, procura-se fazer com que as novas florestas sejam duradouras e pelo menos similares às removidas para a construção da estrada. Não houve reflorestamento compensatório para o trecho anterior do rodoanel, 56
_ janeiro DE 2012
a empresa pública responsável pela construção da estrada, replantasse 1.016 hectares de florestas, em áreas próximas à futura rodovia, para compensar a perda de 200 hectares de mata atlântica que cerca a Grande São Paulo. O primeiro problema emergiu assim que Luiz Mauro Barbosa, então diretor do Instituto de Botânica, soube Os botânicos que sua instituição ticonheciam pouco nha sido designada para orientar o resgate de a mata que seria plantas vivas e o reflorestamento compensacortada pela tório com espécies nativas: “Mal conhecíaestrada mos aquela área, do ponto de vista botânico”, lembra-se Barbosa, atualmente diretor de um dos centros de pesquisa do instituto. Ele foi um dos líderes de uma equipe de 80 pesquisadores que lo Uma das novas áreas de mata atlântica go entraram na mata em Parelheiros, para identificar as planextremo sul de São tas e retirar o que fosse Paulo: diversidade de possível, antes que cheárvores já é visível gassem os tratores raso oeste, mas as leis e os métodos apli- gando a floresta para abrir a estrada. Os pesquisadores estavam preocupacados na restauração da mata atlântica do trecho sul devem ser aproveitados dos com o tempo, que era escasso, e com na construção dos próximos trechos, o o tamanho da mata que teriam de pernorte e o leste, para compensar a perda correr. A mata a ser cortada pela estrada de vegetação nativa próxima ao Parque ocupava uma área quatro vezes maior da Serra da Cantareira, a maior floresta que a de outra experiência pioneira de urbana do mundo, com 7.900 hectares, que haviam participado em 1985: a recuo dobro da área da floresta da Tijuca. peração da vegetação nativa da encosta Outra exigência ambiental do trecho da serra do Mar, corroída pela poluição sul que deve ser adotada nos próximos então sem controle das empresas químitrechos é o sistema de monitoramento cas de Cubatão. Hoje Barbosa acredita da dinâmica demográfica e das trans- que, a despeito das pressões, conseguiformações do uso do solo e da cober- ram salvar 80% de plantas herbáceas tura vegetal nativa, desenvolvido e ge- e epífitas da área de mata cortada pelo renciado em conjunto pelas equipes da trecho sul do rodoanel. No total, resgataram 22 mil plantas Fundação Sistema Estadual de Análise de Dados (Seade), Empresa Paulista de – principalmente samambaias, palmeiPlanejamento Metropolitano (Emplasa) ras, bromélias e orquídeas –, que foram transferidas para o Jardim Botânico de e Instituto Florestal. São Paulo e praças públicas da Grande São Paulo ou reinstaladas nas imediaO chamado Em 2007, como condição para a aprova- ções de onde saíram e nas áreas de reção do projeto de construção do trecho florestamento. Na mata atlântica que sul do rodoanel, órgãos ambientais esta- cerca a represa de Guarapiranga, uma duais e federais determinaram que a De- das principais fontes de água dos morasenvolvimento Rodoviário S.A. (Dersa), dores da Região Metropolitana, os bo-
tânicos encontraram raridades como uma bromélia de flores lilases, a Tillandsia linearis, já considerada extinta, e a Zygopetalum maxillare, uma orquídea ameaçada de extinção.
fotos eduardo cesar
Pisoteios e despachos
Dois anos depois, o trecho sul do rodoanel está funcionando, conectado ao trecho anterior, o oeste, e muitas áreas já parecem uma floresta jovem, com boas perspectivas de crescimento, principalmente quando cercadas por remanescentes de matas nativas. Em um dos novos fragmentos de floresta em Parelheiros, um bairro distante na zona sul da cidade de São Paulo, as coisas estão correndo bem. “Veja, a floresta está começando a funcionar”, observa o engenheiro agrônomo Maycon de Oliveira, da Verdycon, uma das três empresas contratadas pela Dersa para cuidar do replantio das árvores nas 147 áreas selecionadas. Oliveira mostra uma das árvores, um fumo-bravo, que ele e sua equipe plantaram em novembro de 2009. Nesse tempo, a árvore cresceu – está com quase 2,5 metros –, floresceu, frutificou e lançou sementes que germinaram e formaram descendentes já com 30 centímetros de altura que estão perto da árvore principal. O fumo-bravo, o ingá e o timburi que vicejam neste lote são espécies de árvores pioneiras, que crescem rapidamente, fazendo sombra para as espécies de árvores de crescimento mais lento, mas de vida mais longa. Ao lado, um dedaleiro, uma árvore que deve viver ali muitos anos, já está com 1,5 metro de altura – e floresce. Ali, como fazem há dois anos nas 147 áreas selecionadas para o refloresta-
Resultados do salvamento de vegetação nativa cortada pelo trecho sul do rodoanel:
22 mil indivíduos (plantas) de centenas de espécies resgatados
7 mil plantas (samambaias, bromélias, orquídeas, palmeiras) doadas às prefeituras da Grande São Paulo
Indicadores de sucesso: um mento, Paulo Ortiz e dedaleiro floresce outro biólogo, Carlos e Ortiz registra Yoshiyuki Agena, exaapenas 12% de minam a mata emermortalidade de árvores gente – sempre que podem, a bióloga Regina Tomoko Shirasuna e a engenheira Renata Ruiz Silva também participam das inspeções. Ali, a diversidade de espécies é visível, não há plantas rasteiras competindo por nutrientes e a mortalidade das árvores é de apenas 12%. É um resultado bom, eles ponderam, já que no início esta área foi invadida por cavalos que pisotearam as mudas recém-plantadas. Hoje cercadas para barrar a entrada de animais, as árvores crescem em terras antes ocupadas por uma horta desapropriada pela prefeitura. Ao redor deste lote as árvores são mais antigas e mais altas. Karina Cavalheiro Barbosa, bióloga da Dersa que acompanha as equipes que orientam ou executam o plantio, conta que o conjunto de lotes plantados em Parelheiros faz parte de quatro unidades de conservação que devem ser entregues à prefeitura nos próximos meses. Em Piracaia e Mairiporã, dois municípios que abrigam áreas destinadas ao replantio, os problemas são piores. Acredita-se que alguns moradores vizinhos cortem a cerca das áreas selecionadas para recolocar bois e vacas que haviam sido expulsos dali. Houve também incêndios de origem possivelmente criminosa nas florestas em crescimento; latões de combustível encontrados nas terras queimadas alimentam essa possibilidade. Karina e sua equipe persistem, replantando o que foi perdido e colocando placas alertando que se trata de uma área pública que não deveria ser pESQUISA FAPESP 191
_ 57
invadida. “Não faça despacho”, implora 1 uma placa anônima cravada na terra de uma área de reflorestamento em Mairiporã. É uma forma de evitar os incêndios provocados pelas velas usadas em rituais religiosos. Às vezes os moradores vizinhos das áreas selecionadas para reflorestamento são mais diretos e avisam aos primeiros que chegam que não querem nenhuma mudança desse tipo por ali, porque uma mata tiraria a visibilidade de suas casas e deixaria a comunidade mais isolada. E ameaçam: se avançarem, haverá represálias. O que fazer? Algumas vezes se opta por refazer o planejamento para não se perder o trabalho: a reposição de florestas é um trabalho caro, que custa de R$ 20 mil a R$ 25 mil por hectare. Ninguém previa essas reações opostas, do mesmo modo que ninguém previa a geada que em uma só noite de julho de 2011 destruiu quase metade das árvores plantadas no município de Cotia pelas equipes da Verdycon e do consórcio Jardiplan/Biotech. Em áreas de solo ruim – uma delas, ao lado do rodoanel,
era pátio de caminhões e depósito de 2 entulho – a mortalidade das árvores é de 40%, mas estão surgindo soluções. Oliveira, da Verdycon, está avaliando a eficiência de um resíduo das usinas de açúcar e etanol para melhorar a qualidade do solo. A equipe da Corpus, outra empresa que cuida do plantio, cobriu a terra ruim com resíduos da produção de cogumelos e verificou que as árvores estão crescendo melhor. Florestas de vida curta
Barbosa, do Instituto de Botânica, acredita que contribuiu bastante para a definição legal dos critérios de reflorestamento adotados, reforçando a necessidade de utilização da alta diversidade de espécies nativas para aumentar as chances de sucesso dos planos de restauração. Por meio de dois projetos de políticas públicas apoiados pela FAPESP em 2001 e 2003, ele avaliou 98 áreas reflorestadas nos 10 anos anteriores em todo o estado de São Paulo. “Quando vi o resultado, levei um susto”, ele conta. Na maioria das áreas havia
Por um fio: as árvores custam a crescer em solo pobre, como na área ao lado, um ex-depósito de entulho, e morrem após geadas fortes como a de Cotia em julho de 2011 (abaixo)
58
_ janeiro DE 2012
no máximo 30 espécies de árvores por hectare, bem abaixo do que é encontrado em trechos originais de mata atlântica. Dessas 30, predominavam as pioneiras, que têm ciclo de vida curto e morrem em poucos anos. “Em dois anos havia uma pequena mata”, ele diz, “mas depois de 10 anos não havia quase nada”. Apenas duas das 98 áreas examinadas apresentavam uma densidade de árvores e uma diversidade de espécies aceitáveis. Barbosa fez barulho. Procurou os dirigentes da Secretaria do Meio Ambiente do estado e das conversas, ele conta, resultou a Resolução SMA-21, publicada em 2001, definindo o plantio mínimo obrigatório de 30 a 80 espécies por hectare, dependendo do tamanho da área (quanto maior, mais espécies diferentes deveriam ser plantadas) e da proximidade com remanescentes de florestas, que poderiam ampliar a diversidade de espécies. Outra resolução, a SMA-47, de 2003, determinou que cada hectare deveria conter pelo menos 80 espécies nativas diferentes, sendo pelo menos 40% de pioneiras, de vida curta, e 40% de não pioneiras, de vida longa. A legislação fez os viveiros de mudas ampliarem o número de espécies e a produção de mudas de árvores nativas. Barbosa, outra vez, foi atrás dos números e verificou que 55 viveiros cadastrados produziam 13 milhões de mudas de 277 espécies nativas em 2001. Seu levantamento indica que hoje 208 viveiros produzem 41 milhões de mudas de mais de 600 espécies nativas do estado de São Paulo (o site do instituto, www.ibot.sp.gov.br, remete aos viveiros cadastrados e à lista das 700 espécies de árvores já reconhecidas como nativas do estado). Com esse avanço,
3
4
Bloqueios: placas e cercas tentam impedir o avanço de moradores insatisfeitos e bois famintos
ele acredita que a tarefa de reflorestar os 1,3 milhão de hectares do estado devem agora levar 63 anos, não mais 200, como há 10 anos. Desse modo tomou forma uma legislação e uma estrutura de suporte de produção de mudas que põem o estado de São Paulo à frente dos outros. “Meus amigos biólogos de Mato Grosso do Sul não acreditam que em São Paulo fazemos restauração com uma diversidade de espécies tão alta, que por enquanto é inviável por lá”, comenta Ortiz. Os conceitos amadureceram bastante. Em 1985, uma das estratégias adotadas para reocupar a encosta da serra do Mar com vegetação nativa foi jogar de helicóptero sementes dentro de cápsu-
fotos 1. e 4. eduardo cesar 2. luis vicente b. bufo / verdycon 3. Karina C. Barbosa / dersa
OS ProjetoS 1. Modelos de repovoamento vegetal para proteção de sistemas hídricos em áreas degradadas dos diversos biomas do estado de São Paulo nº 2000/02020-9 2. Estabelecimento de parâmetros de avaliação e monitoramento para reflorestamento induzidos visando ao licenciamento ambiental nº 2003/06423-9 modalidade Programa Políticas Públicas Coordenador 1 e 2. Luiz Mauro Barbosa – IBt investimento 1. R$ 144.214,61 (fapesp) 2. R$ 173.793,33 (fapesp)
Instituto de Botânica. O problema é que os viveiros por enquanto só oferecem mudas de árvores. Uma regulamentação recente da Secretaria do Meio Ambiente recomenda, mas ainda não obriga, que não se plantem apenas árvores. As técnicas de restauração estão relativamente maduras para a mata atlântica, mas ainda pouco claras para outros ambientes naturais do estado de São Paulo como cerrado, manguezais e restingas. “Novas pesquisas vão indicar novos caminhos”, acredita Kageyama. As novas matas que crescem em torno do rodoanel já estão servindo como base para pesquisas que compararam o crescimento das plantas em áreas diferentes ou sob diferentes tipos de pressões naturais ou urbanas. Uma Recriar as florestas perdidas das perguntas que só de São Paulo hoje tomaria serão respondidas daqui a muitos anos é se apenas 63 anos, não mais os fragmentos de florestas encravados no os 200 de 10 anos atrás ambiente urbano vão se comportar do mesmo modo que os fraglas de gelatina; depois se verificou que mentos de florestas em meio a pastagens apenas 30% das sementes germinaram. na Amazônia, por exemplo. Além disso, a reposição de florestas Usou-se braquiária, uma espécie exótica de capim de crescimento rápido, ainda não supera as perdas. De 1995 a para segurar o solo da encosta. “Hoje 2003 o Instituto Nacional de Pesquisas não faríamos desse modo”, conta Bar- da Amazônia (Inpa) promoveu a restaubosa. Se necessário, ele diz, usariam a ração da floresta amazônica, mas não a orelha-de-onça (Tibouchina clavata), ponto de repor o que era continuamente um arbusto nativo, com a mesma fun- perdido – os relatórios desse trabalho, ção. Antes se pensava que as sementes que contou com financiamento do Japão, poderiam ser guardadas apenas por indicam que a recuperação de paisagens semanas, hoje se sabe que podem du- naturais só avança efetivamente quanrar anos. E agora há várias técnicas de do está associada a políticas públicas restauração florestal, que podem ser mais amplas. Em um estudo publicado na revista PNAS em 2008, pesquisadocombinadas se necessário. res dos Estados Unidos estimaram que o Brasil perdeu 2,6 milhões de hectaalém das árvores Ainda há problemas, claro. Uma pes- res por ano por causa do desmatamenquisa da Esalq indicou que trepadeiras to de florestas úmidas de 2000 a 2005, e epífitas como as bromélias e as orquí- enquanto na Indonésia, o segundo país deas constituem 42% da biomassa de com a maior perda de vegetação nativa, uma floresta e são muito importantes o desmatamento deve atingir 700 mil para a reconstrução do ambiente, en- hectares por ano. Por fim, para desconforto dos paulistas quanto as árvores participam com 35% mais apresssados, os resultados são lenda biomassa. “Só árvores não é a solução”, reiterou tos. “A restauração demora”, reconhece Paulo Kageyama, professor da Esalq, em Ortiz. “Só saberemos daqui a 10 ou 20 um simpósio sobre restauração ecoló- anos se essas florestas em torno do rogica realizado em novembro de 2011 no doanel realmente vingarão.” n pESQUISA FAPESP 191
_ 59
_ a nálise genética
Uma planta enganadora Estudo questiona a origem de árvore do grupo dos pinheiros Salvador Nogueira
Q
ualquer paisagem com dinossauros não fica completa sem as cicas. No mesmo período em que esses répteis se agigantaram e se espalharam pela Terra, essas plantas – fisicamente semelhantes às palmeiras, mas aparentadas dos pinheiros – dominaram a paisagem do planeta. Registros fósseis mostram que as cicas surgiram há cerca de 270 milhões de anos e existem até hoje. Como a aparência delas quase não mudou ao longo do tempo, as cicas são tidas como fósseis vivos. Ou melhor, eram. Um estudo de uma equipe internacional que contou com a participação de um pesquisador brasileiro acaba de mudar radicalmente o rumo dessa história. Nada como uma análise de DNA para trazer nova luz ao estudo da evolução da vida. Com base na morfologia – ou seja, no aspecto visível das plantas –, os biólogos não enxergavam muitas diferenças significativas entre os fósseis com dezenas de milhões de anos e suas contrapartes vivas. A única grande diferença era a quantidade de espécies. Aparentemente, em tempos antigos, a variedade era bem maior (o auge foi durante o Jurássico, entre 201 milhões e 146 milhões de anos atrás), o que fez muitos pesquisadores suporem até que foi o sumiço dos dinossauros que levou à redução na biodiversidade das cicas. O novo estudo, liderado por Sarah Matthews e Nathalie Nagalingum, da Universidade Har60
_ janeiro DE 2012
vard, nos Estados Unidos, partiu das espécies que estão por aí (cerca de 300, um número bem modesto) para traçar sua filogenia – uma espécie de árvore genealógica reconstruída a partir do DNA. Para isso, analisaram um gene específico, o fitocromo P (PHYP). A ideia era usar as variações encontradas nesse gene, associadas às datações do registro fóssil, para especificar quando viveu o ancestral comum das espécies. O conceito de datar com base nas diferenças genéticas parte de um pressuposto muito simples: mutações aleatórias acontecem no DNA num ritmo mais ou menos homogêneo – com variações maiores ou menores entre grupos distintos, que são também levadas em conta pelos cientistas. Criando uma correlação entre a quantidade de diferenças e o tempo que levaria para essa divergência, é possível estimar quando viveu o ancestral comum. É assim, por exemplo, que conseguimos confirmar nosso parentesco mais próximo com os chimpanzés (que têm 96% do DNA igual ao nosso) que com os camundongos (90%). Pois bem. Ao analisar o gene PHYP em 199 espécies (dois terços das existentes hoje), além de outros dois genes (rbcL e matK) em um número menor de plantas, eles descobriram que o ancestral comum de cada um dos gêneros que agrupam as espécies atuais viveu 12 milhões de anos atrás. É um bocado de tempo, mas nada tão
eduardo cesar
radical a ponto de sugerir que essas espécies estejam aí mais ou menos imutáveis por 200 milhões de anos. “Esse resultado mostra que as espécies vivas hoje surgiram nos últimos 10 milhões de anos, o que no tempo geológico é muito recente”, afirma Tiago Quental, biólogo da Universidade de São Paulo (USP) que participou do estudo, publicado no periódico científico americano Science. “Isso indica que essas espécies não podem ser consideradas fósseis vivos e que as espécies hoje vivas certamente não estavam presentes na época dos dinossauros, extintos 65 milhões de anos atrás.” novo com cara de velho
Mesmo que indiretamente, esse resultado projeta uma sombra sobre todo o conceito de fóssil vivo. Uma vez que os paleontólogos só podem avaliar a morfologia nos fósseis – e se descobriu que essa não é uma técnica completamente segura para identificar o surgimento de novas espécies (fenômeno chamado especiação) e de modificações genéticas importantes – quem diz que outros fósseis vivos não são apenas novas espécies com cara de velhas?
Cicas: espécies atuais descendem de ancestrais que viveram 12 milhões de anos atrás
Mais do que dizer o que as atuais cicas não são, a análise também ajuda a reconstruir sua narrativa evolutiva. As cicas são plantas gimnospérmicas, o que quer dizer que apresentam as sementes nuas, sem flores. No tempo dos dinossauros, os gigantes herbívoros as comiam e dispersavam as sementes em outros lugares. Mas aquelas que co-habitaram com esses répteis, agora se sabe por meio da análise filogenética, não são as espécies hoje viventes. Na verdade, em vez de serem sobreviventes bem adaptadas desde o passado distante, as cicas quase sumiram de uma vez por todas no meio do caminho até o presente. Seu ressurgimento, documentado agora pela análise filogenética, aconteceu cerca de 10 milhões de anos atrás. “E o curioso é que esse ressurgimento ocorreu de forma sincronizada em todo o nosso planeta, o que sugere que um efeito global poderia ter causado esse padrão”, diz Quental. Os pesquisadores sabem disso porque analisaram espécies de diversas partes do mundo. A maior variedade de espécies encontra-se na Austrália, mas também existem cicas em regiões quentes e temperadas da África, da Ásia e da América Central. E nessas diferentes regiões a variedade local de espécies parece ter aumentado de modo importante mais ou menos na mesma data. Por essa razão, os cientistas especulam que foi algo que aconteceu em toda a Terra para dar essa nova chance às cicas – possivelmente uma mudança climática. Na ocasião, o que acontecia era um esfriamento global. Não é à toa, portanto, que vivemos hoje uma época não muito boa para essas plantas. E o crescente aumento das temperaturas médias da Terra, em parte consequência das atividades antropogênicas, não deve ajudá-las a prosperar. “A atual diversificação das cicas parece estar diminuindo, e sua recente evolução provavelmente não é garantia contra a próxima onda de extinções”, avalia Susanne Renner, bióloga da Universidade de Munique, na Alemanha, que não participou da pesquisa e foi convidada pela revista Science para comentá-la. n Artigo científico NAGALINGUM, N.S. et al. Recent synchronous radiation of a living fossil. Science. v. 334. 11 nov. 2011. pESQUISA FAPESP 191
_ 61
_ r edes complexas {
A arquitetura dos tecidos Conexões com vizinhos ajudam a definir a função das células no organismo
D
epois do boom de estudos sobre o genoma e as proteínas, os pesquisadores das ciências biológicas voltam agora sua atenção para os processos de diferenciação celular envolvidos no desenvolvimento de cada indivíduo, desde o embrião até a fase adulta. Um exemplo é o trabalho do engenheiro eletrônico Luciano da Fontoura Costa, professor do Instituto de Física de São Carlos, da Universidade de São Paulo (IFSC-USP). Ele desenvolveu e implementou métodos computacionais para analisar imagens de células do epitélio, tecido que recobre interna ou externamente os órgãos. O objetivo era verificar as ligações entre as células e traçar a rede de contatos de cada uma delas, transformando essas informações em grafos – uma espécie de diagrama, representado como um conjunto de pontos (nós ou vértices) ligados por retas. O trabalho resultou num artigo publicado recentemente na revista científica Nature Communications. Nele, os pesquisadores demonstram como podem identificar, com mais precisão e sensibilidade, o início da especialização das células. Segundo Costa, o estudo é consequência de anos de colaboração dele com os pesquisadores Madan Babu e Luis Escudero, ambos do Laboratório de Biologia Molecular de Cambridge, na Inglaterra. “O principal objetivo dessa pesquisa foi investigar
62 janeiro DE 2012
a organização epitelial de uma forma mais abrangente e sistemática, usando não apenas medidas da forma de cada célula, mas também uma rede de contatos entre elas”, explica Costa. Ele fez a caracterização geométrica de cada célula registrada em imagens microscópicas do epitélio de asas e olhos de embriões de frango e da pupa de drosófila, a mosca-das-frutas, obtidas por seus colegas de Cambridge. Costa montou ainda a rede de contatos entre as células e realizou a análise multivariada dos dados, método estatístico que considera mais de uma variável aleatória simultaneamente e serve para modelar a natureza, possibilitando, dentre outras coisas, categorizar dados, testar hipóteses e buscar padrões. Para cada tipo de epitélio foram coletadas imagens de vários indivíduos diferentes e, para cada imagem, foi gerado um vetor de características, composto por medidas como as médias e os desvios padrão da área de uma célula vista ao microscópio, o número de arcos ligados a um nó da rede, o grau de interconexão entre os vizinhos de um nó, e o número médio de vizinhos que os vizinhos de um nó possuem. “Isso possibilitou comparar de forma mais abrangente epitélios em vários estágios de desenvolvimento, de diferentes tecidos, órgãos e espécies, além da variação natural na organização desse tecido de indivíduo para indivíduo”, conta.
leo ramos
Evanildo da Silveira
Os pesquisadores fizeram isso usando uma abordagem que eles chamam de representação geométrica e de rede da organização epitelial (GNEO, na sigla em inglês). Com essa estratégia, eles conseguiram verificar a organização do epitélio levando em conta os padrões de contatos das células. A GNEO torna possível ainda quantificar diferenças entre epitélios de organismos e tecidos diversos, mesmo quando o tamanho e a forma das células que os constituem são visualmente indistinguíveis. “Mostramos que epitélios de órgãos e espécies diferentes têm estruturas distintas e quantificáveis”, diz Costa. forma, conexão e função
O Projeto Modelagem por redes (grafos) e técnicas de reconhecimento de padrões: estrutura, dinâmica e aplicações nº 2005/00587-5
modalidade Projeto Temático Coordenador Roberto Marcondes Cesar Junior – IME/USP investimento R$ 384.090,51 (FAPESP)
O trabalho da Nature Communications representa um passo além do que havia sido dado pelos estudos anteriores, que levam em conta apenas a geometria e o tamanho das células. Agora o modelo inclui também dados sobre a conexão entre as células, que está ligada às funções específicas que desempenham. Costa explica que no início da formação do embrião todas as células são iguais – de formato hexagonal – e as ligações entre elas assemelham-se a uma colmeia. Quando as células começam a mudar de forma, tornando-se mais alongadas, esféricas ou parecidas com um cubo, é indício de que está iniciando o processo de diferenciação ou especialização celular. É um momento crítico para a formação dos tecidos e dos órgãos. O problema é que ninguém sabe o que dispara essa mudança. “Não é o DNA, pois ele é o mesmo para todas as células”, diz Costa. “Só que algumas vão virar rim, outras coração e outras neurônios. O que determina isso é o que falta descobrir na biologia.” Por essa razão, com o mapeamento dos genomas, tornou-se fundamental entender como cada gene é ativado ou inibido durante o desenvolvimento. Segundo Costa, o controle da expressão gênica ocorre sob influência de fatores variados, internos e externos ao indivíduo, tais como a gravidade, diferenças de concentração de moléculas,
temperatura, dentre outros. Além disso, as próprias estruturas existentes no organismo durante o desenvolvimento afetam de modo não uniforme a expressão gênica nas células ao seu redor, por exemplo, por meio de difusão de moléculas de sinalização. O trabalho lança um pouco de luz sobre essa questão. Ele possibilitou verificar, por exemplo, o que mais contribui para a diferenciação entre epitélios. “Descobrimos que a área das células contribui pouco para a distinção entre estruturas de diferentes espécies”, conta Costa. “Na verdade, são as características da rede de contatos que fornecem as medidas mais discriminativas nesses casos. Descobrimos que, durante a diferenciação celular, a relação entre vizinhos é mais importante do que a forma.” Dito de outra maneira, a rede de contatos é muito importante para fornecer características do desenvolvimento dos tecidos, oferecendo assim novas informações sobre como eles se diferenciam. Segundo Costa, tem-se uma boa noção da contribuição dos mecanismos genéticos (sinais externos e percursos regulares do gene associado) e da mecânica celular (padrões próprios decorrentes da taxa de divisão celular) para formação das estruturas multicelulares e para o desenvolvimento da arquitetura epitelial em vários sistemas-modelo. Mas faltavam os meios para caracterizar e quantificar as semelhanças e as diferenças na organização desse tecido de modo mais preciso e abrangente. “Um dos principais objetivos do nosso trabalho foi auxiliar a preencher essa lacuna, fornecendo tais meios”, diz. “Além disso, nossa abordagem também pode ser aplicada a outras amostras biológicas como as conexões entre células nervosas, musculares e tumorais, assim como servir de subsídio para a medicina regenerativa.” n Artigo científico ESCUDERO, L. M. et al. Epithelial organisation revealed by a network of cellular contacts. Nature Communications. 8 de nov. 2011. pESQUISA FAPESP 191 63
Ossos da face: fraturas poderão ser reparadas com biomateriais produzidos com bactérias 64 janeiro DE 2012
CNRI / SCIENCE PHOTO LIBRARY / Latinstock
tecnologia
_ m ateriais bioativos
Mimetismo Membranas com celulose e vidros estimulam a
ósseo
BIOQUÍMICA
regeneração celular Dinorah Ereno
P
esquisadores brasileiros estão desenvolvendo, com abordagens inovadoras, biomateriais para aplicações nas áreas médica e odontológica que fazem ligações com o tecido celular e auxiliam na formação dos vasos sanguíneos e na rápida recuperação do osso. Um desses materiais bioativos é uma membrana feita a partir da celulose produzida por bactérias que traz em sua composição peptídeos (pedaços de proteínas) sintetizados em laboratório, capazes de estimular processos que melhoram a reparação óssea, além de elementos constituintes dos ossos como colágeno e hidroxiapatita. Em contato com os fluidos fisiológicos, os materiais classificados como bioativos, a exemplo de cerâmicas e vidros, são capazes não só de regenerar a camada perdida, mas também de fazer a ligação com o tecido ósseo. São materiais diferentes do titânio, por exemplo, muito usado para fixar implantes, mas que não possui uma ligação química efetiva com o osso. O material compósito à base de celulose bacteriana desenvolvido na Universidade Estadual Paulista (Unesp) de Araraquara, no interior paulista, pode ser usado em implantes dentários em casos em que não há osso suficiente para colocação do pino de suporte ou em processos de extração de dente que resulta em encolhimento do osso. Os testes já feitos dão indicações de possíveis aplica-
ções para reparação de pequenas fraturas ósseas em locais sem grande carga mecânica, como ossos da face. A celulose já é utilizada na área médica, a exemplo dos curativos antibacterianos indicados para queimaduras vendidos comercialmente, mas não havia sido usada até agora para regeneração de tecidos ósseos. “Introduzimos na celulose dois tipos de peptídeos, um contendo cinco resíduos de aminoácidos e outro 14, e os dois promoveram uma melhor reparação óssea”, diz o professor Reinaldo Marchetto, do Instituto de Química, coordenador do projeto e líder de um grupo de pesquisa de Síntese, Estrutura e Aplicações de Peptídeos e Proteínas na Unesp de Araraquara. Marchetto foi o orientador do trabalho de doutorado da cirurgiã-dentista Sybele Saska, premiado na 88ª Sessão Geral da Associação Internacional de Pesquisa Dentária, em julho de 2010 em Barcelona, na Espanha, como o melhor trabalho na categoria Materiais Dentários. O estudo faz parte de dois projetos financiados pela FAPESP coordenados pelo pesquisador. Em função dos resultados obtidos foi feito um depósito de patente no Instituto Nacional de Propriedade Industrial (INPI) com auxílio do Programa de Apoio à Propriedade Intelectual (Papi), também da Fundação. A celulose é formada por nanofibras produzidas pelas bactérias do gênero Gluconacetobacter pESQUISA FAPESP 191 65
e cada uma possui entre 10 e 50 nanômetros – 1 nanômetro equivale a 1 milímetro dividido por 1 milhão. Elas são expelidas pelas bactérias que ficam imersas em um meio de cultura composto por glicose, aminoácidos, extrato de levedura e sais, por um período de 120 horas a uma temperatura de 28ºC. As camadas vão se sobrepondo até formar uma espécie de manta de consistência gelatinosa formada entre o meio de cultura e a superfície. Ao atingir 5 milímetros de espessura, a manta é retirada do meio para lavagem e remoção das bactérias. Depois de passar por um tratamento químico, lavagens com água destilada e esterilização, sobra apenas a celulose pura na qual são adicionados componentes como o colágeno, a hidroxiapatita e os peptídeos.
A
pós análises das propriedades físico-químicas do material e ensaios mecânicos de resistência e tração, os pesquisadores realizaram testes in vitro com células precursoras de ossos cultivadas por até 21 dias sobre as membranas contendo os peptídeos e sem a presença deles. “As amostras que receberam os peptídeos tiveram uma proliferação muito maior de células de osteoblastos, as células jovens do tecido ósseo, e o processo de mineralização foi superior quando comparado com as amostras sem as proteínas”, diz Marchetto. O resultado sugere uma regeneração mais rápida do osso. Encerrados os ensaios in vitro, os Membrana de celulose após secagem
66 janeiro DE 2012
pesquisadores fizeram testes empregando regeneração óssea guiada em pequenos defeitos no fêmur de ratos. As análises para avaliar a biocompatibilidade, a eficiência do peptídeo regulador e a densidade óssea abrangeram períodos de 7, 15, 30 e 120 dias. “O peptídeo realmente promoveu a condução e a indução óssea”, relata Marchetto. Entre 15 e 30 dias o osso estava formado. Os ensaios iniciais apontaram que a reabsorção das membranas pelo organismo só ocorre em períodos superiores a 120 dias. Para
projeto do biovidro e uma das sócias da Ceelbio. “A alta temperatura torna o material denso e não permite a incorporação de medicamentos.”
O
s pesquisadores escolheram uma rota de síntese chamada sol-gel, que consiste em uma sequência de processos químicos acelerados por um catalisador, à temperatura ambiente. No final do processo é obtido um gel com estrutura porosa, transformado em pó para facilitar a preparação e adição de medicamentos. Os ensaios de avaliação da toxicidade do material reconhecidos pela Agência Nacional de Vigilância Sanitária (Anvisa) comprovaBiovidro feito à temperatura ram que ele não é tóambiente permite adição de xico. Em parceria com o Instituto de Ciênfármacos com ação localizada cias Biológicas e a Escola de Odontologia da UFMG, os pesquia membrana de celulose modificada ser sadores fizeram testes in vitro e em raaplicada em consultórios odontológicos tos, além de um estudo preliminar com ainda são necessários novos testes com pessoas, utilizando o vidro bioativo assoanimais e pessoas. ciado a antibióticos e anti-inflamatórios, Outro biomaterial, desenvolvido na com bons resultados. Universidade Federal de Minas Gerais As pesquisas na universidade que le(UFMG), é um vidro bioativo composto varam ao desenvolvimento do biovidro à basicamente por sílica, cálcio e fósforo, temperatura ambiente tiveram início no indicado inicialmente para recupera- final da década de 1990, com uma aluna ção óssea em implantes dentários. Fu- de doutorado orientada por Rosana que turamente, o produto poderá ser usado em aplicações ortopédicas como reparo de vértebras e em associação com Os Projetos o colágeno, por exemplo. Suas aplicações se estendem para a substituição 1. Peptídeos sintéticos com aplicação na área de saúde: perspectivas de inovação e de ossos com maior resistência mecâdesenvolvimento tecnológico – nº 2010/10168-8 nica, como pernas e braços. No merca2. Nanocompósitos à base de celulose do brasileiro já existem biovidros fabribacteriana para aplicação na regeneração do tecido ósseo – nº 2009/09960-1 cados por empresas norte-americanas, 3. Materiais nanocompósitos à base de mas o material desenvolvido na unicelulose bacteriana, colágeno, hidroxiapatita, versidade e que está em fase de aperfatores de crescimento e peptídeos afins, para aplicação na regeneração de tecido feiçoamento na empresa startup Ceelósseo – nº 2009/50868-1 bio, de Belo Horizonte, traz como inovação o seu processo de síntese à tempemodalidade 1. e 2. Auxílio Regular a Projeto de Pesquisa ratura ambiente. Além de gastar menos 3. Programa de Apoio à Propriedade Intelectual energia, o processo permite a incorporação de fármacos com liberação conCoordenador 1., 2. e 3. Reinaldo Marchetto – Unesp trolada e ação localizada. “No processo convencional, de fusão das matérias-priinvestimento 1. R$ 366.830,00 (FAPESP) mas e resfriamento rápido, o biovidro é 2. R$ 131.672,04 (FAPESP) fabricado a 800ºC”, diz a professora Ro3. R$ 18.651,50 (FAPESP) sana Domingues, do Instituto de Ciências Exatas da UFMG, coordenadora do
Celulose bacteriana Passo a passo da produção da película para uso odontológico Secagem a 50oC Bactérias em meio de cultura líquido expelem celulose
Formação de película gelatinosa
Tratamento químico para retirada de bactérias
Adição de colágeno, hidroxiapatita e peptídeos sintéticos
Película pronta para aplicação
Ação
foto leo ramos infográfico ana paula campos
Membrana de celulose estimula reparação óssea em fraturas e facilita os implantes dentários
criou um biomaterial à base de hidroxiapatita e zircônia. Desde então foi criada uma linha de pesquisa exclusiva para o desenvolvimento de materiais cerâmicos bioativos no Departamento de Química da UFMG. O desenvolvimento do biovidro pela rota sol-gel teve um pedido de patente depositado em 2002 e a partir de 2008 estudos dirigidos para aplicação comercial. Além de Rosana, o professor Tulio Matencio, do mesmo departamento, também é sócio da Ceelbio, que inicialmente ficou abrigada na incubadora de empresas da UFMG, a Inova. Como a incubadora não possui alvará para funcionamento na área biológica, a empresa está de mudança para a incubadora da empresa Biominas, a Habitat. A Ceelbio trabalha com materiais cerâmicos em duas linhas distintas. Uma é a de células a combustível, equipamento semelhante a um gerador para produção de energia elétrica a partir do hidrogênio, e a outra são as cerâmicas bioativas para a área biológica. O projeto que resultou no biovidro recebeu financiamento no valor de R$ 30 mil da Fundação de Amparo à Pesquisa do Estado de Minas Gerais (Fapemig), R$ 120 mil da Financiadora de Estudos e Projetos (Finep) e R$ 67 mil por ter vencido o Desafio Brasil 2011, um prêmio de empreendedorismo e inova-
de patente no INPI pela Agência de Inovação da Unicamp, a Inova. Essa modificação funciona como um acelerador do processo de formação do fosfato de cálcio na interface entre o biovidro e o tecido ósseo. “Conseguimos acelerar a resposta biológica do biovidro sem precisar alterar a facilidade do seu processamento”, relata Bertran. Modificação na superfície de Tanto o processo como biovidro acelera reações de o material resultante são novos.” interação com o organismo A caracterização completa da composição da superfície do Na Universidade Estadual de Campi- biovidro assim como a determinação da nas (Unicamp), o grupo de pesquisa do velocidade com que os íons que comprofessor Celso Bertran, do Instituto de põem a superfície modificada são libeQuímica, desenvolveu uma modificação rados para o tecido, tornando-se resfuncional na superfície de um biovidro ponsáveis pelos processos indutores de comercial chamado Bioglass 45S5, com- formação óssea e conexão do biovidro posto por cálcio, fósforo, silício e sódio, com o tecido hospedeiro, já foram feitas que acelera as reações de interação com pelos pesquisadores. A ideia inicial era o organismo, induzindo a um crescimento modificar a superfície do biovidro manmais rápido de tecidos ósseos. “Modifi- tendo as propriedades vítreas, o que foi camos a superfície do biovidro com íons conseguido com sucesso. Atualmente cálcio em concentração adequada”, diz a pesquisa tem como foco a determiBertran, orientador da tese de doutorado nação dos mecanismos de modificação de João Henrique Lopes, com bolsa da da superfície do biovidro e a avaliação FAPESP, que resultou em um depósito biológica do material in vitro. n
ção promovido pela Intel e pelo Centro de Estudos em Private Equity e Venture Capital da Escola de Administração de Empresas de São Paulo, da Fundação Getúlio Vargas.
pESQUISA FAPESP 191 67
_ v idros
A beleza das vitrocerâmicas Imagens refletem a produção de um dos principais centros mundiais de pesquisa em materiais vítreos Yuri Vasconcelos
A
evolução dos microscópios eletrônicos e a expansão de seu uso trouxeram muitos benefícios para a humanidade, mais visíveis sobretudo no campo da saúde. Mas eles também fizeram avançar de forma acelerada o conhecimento dos materiais, de metais a cerâmicas, além de desvendar as diminutas formas, muitas vezes espetaculares, de amostras colocadas sobre suas lentes e mapeadas por feixes de elétrons. São belas imagens que podem ser colorizadas artificialmente na tela de um computador e ajudam a entender melhor a estrutura e composição principalmente de novos materiais desenvolvidos por pesquisadores científicos. Nessa linha que une conhecimento e beleza plástica, o professor Edgar Dutra Zanotto, coordenador do Laboratório de Materiais Vítreos (LaMaV) do Departamento de Engenharia de Materiais (DEMa) da Universidade Federal de São Carlos (UFSCar), compôs o livro Cristais em 68
_ janeiro DE 2012
Cristais do mineral wolastonita de tamanho milimétrico e em formato de agulha
Vlad Fokin / Lamav/Ufscar
engenharia
química
pESQUISA FAPESP 191
_ 69
50 mil fotomicrografias científicas e artísticas geradas ao longo de 35 anos
1. Nucleação superficial de um cristal metassilicato de lítio em formato de carambola 2. Raro cristal de diopsídio no interior de um vidro de mesma composição 3. Cristalização interna em vidro de cordierita dopada com óxido de titânio
1
vidro – Ciência e arte. A obra marca os 35 anos do LaMaV e torna disponível para um público maior que o acadêmico algumas das 50 mil fotomicrografias científicas e artísticas geradas ao longo desse período.
O
foco das pesquisas do laboratório coordenado por Zanotto concentra-se no desenvolvimento de novos tipos de vidro, no estudo de suas propriedades físico-químicas e na pesquisa aprofundada da cinética e dos mecanismos de cristalização de materiais vítreos, aspectos essenciais para o desenvolvimento de vitrocerâmicas. Esse material, sintetizado pela primeira vez há 59 anos, possui combinações de propriedades diferenciadas, como altíssima resistência e tenacidade com transparência, coeficiente de dilatação térmica muito baixa, durabilidade química e zero ou pouca porosidade. Por essas razões, o material tem sido empregado em diversas aplicações, desde utensílios para cozinha, principalmente em placas de aquecimento de fogões elétricos mais avançados, e até em áreas de alta tecno-
70
_ janeiro DE 2012
logia, como grandes espelhos para telescópios, substratos de discos rígidos de computadores e dentes artificiais. As vitrocerâmicas são resultado do controle da cristalização, um fenômeno que ocorre quando um vidro, misturado a um agente nucleante – um aditivo como óxido de titânio, óxido de fósforo, prata ou cobre –, é submetido a altas temperaturas, entre 500 e 1.100 graus Celsius.
Elas foram os materiais protagonistas desde o início do LaMaV. No livro, Zanotto conta que as pesquisas do laboratório sobre cinética e os mecanismos de cristalização de vidros começaram em 1977 com a sua dissertação de mestrado e prosseguiram com os estudos de doutorado. “Em janeiro de 1977 eu havia acabado de concluir o curso de engenharia de materiais na UFSCar (...) e me deparei
Os Projetos 1. Problemas correntes sobre cristalização de vidros – nº 1999/00871-2 2. Processos cinéticos em vidros e vitrocerâmicas – nº 2007/08179-9 modalidade 1. e 2. Projeto Temático Coordenador Edgar Dutra Zanotto – UFSCar investimento 1. R$ 468.674,44 e US$ 190.408,30 (FAPESP) 2. R$ 343.670,74 e US$ 573.410,28 (FAPESP) 3
por acaso com o livro de Peter McMillan sobre vitrocerâmicas e me encantei imediatamente com o assunto. Ocorreu-me que este novo tipo de material poderia ser um grande tema de pesquisa em ciência e engenharia de materiais e segui a minha intuição”, relata Zanotto.
fotos nonononon / nononononon
foto 1 Vlad Fokin e Dani Cassar - Fotos 2 e 3 Vlad fokin/Lamav/ufscar
T
rinta e cinco anos depois, o LaMaV desfruta de prestígio internacional, com a publicação de cerca de 200 artigos científicos em revistas especializadas, e é considerado um dos sete principais centros de pesquisa em vitrocerâmicas do mundo, no nível dos laboratórios mantidos pelas universidades de Nagaoka, no Japão, de Missouri, nos Estados Unidos, e de Jena, na Alemanha, e dos institutos privados de pesquisa da Nippon Electric Glass, também no Japão, Corning Glass, nos Estados Unidos, e Schott Glass, da Alemanha. “Nossos estudos deram significativa contribuição para o entendimento dos processos que controlam a nucleação e o crescimento de cristais em inúmeros vidros. No campo científico, descrevemos processos cinéticos e testamos modelos teóricos. Na área tecnológica criamos ou melhoramos várias vitrocerâmicas, algumas em estágio comercial”, diz Zanotto. “O fato mais significativo é que alguns dos principais fabricantes de vidro que produzem vitrocerâmicas comerciais têm utilizado vários dos nossos artigos para embasar o desenvolvimento de seus produtos”, relata o pesquisador no livro. Além de dirigir o LaMaV, Zanotto é chairman do Comitê de Nucleação, Cristalização e Vitrocerâmicas da International Commission on Glass, principal en-
2
Estudos resultam em produto já licenciado para tratamento dentário tidade mundial de pesquisa em vidros, e foi eleito em novembro passado membro da Academia de Ciências para o Mundo em Desenvolvimento (TWAS). Um apanhado das atividades do LaMaV mostra que, ao longo de sua história, ele respondeu pela formação de vários mestres, doutores e pós-doutores e pelo desenvolvimento de diversos novos materiais vítreos. São vitrocerâmicas que imitam pedras caras, como mármore e granito, biovidros para fabricação de ossos e dentes artificiais, ou vitrocerâmicas derivadas da escória de alto-forno e de siderurgia – um resíduo industrial importante – , além de materiais bioativos, como o Biosilicato, para tratamento dentário, patenteado e já licenciado para uma empresa brasileira, a Vitrovita (ver em Pesquisa FAPESP n° 158). “Algumas de nossas inovações foram criadas em conjunto com parceiros, como o biovidro para ossos e dentes, desenvolvido com a Universidade da Flórida. O material já é comercializado pela American Biomaterials”, afirma Zanotto. O LaMaV atua numa rede composta por 30 instituições, sendo 20
internacionais e 10 brasileiras. Já depositou 12 patentes, sendo as duas últimas, de 2010 e 2011, relativas a vitrocerâmicas para produção de placas de fogão, que já conta com duas empresas interessadas em sua fabricação no país, e vitrocerâmicas bioativas scaffolds. “Trata-se de um material bioativo, com a aparência de uma esponja, que pode ser usada como suporte para o crescimento de células ósseas”, explica o coordenador do LaMaV. As pesquisas desenvolvidas por Zanotto, com os professores Ana Cândida Rodrigues, Oscar Peitl e seu grupo tiveram ao longo dos anos o apoio de várias agências de fomento, como FAPESP, Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes). O pesquisador coordenou dois grandes projetos da Fundação – “Problemas correntes sobre cristalização de vidros”, já encerrado, e “Processos cinéticos em vidros e vitrocerâmicas”, em andamento – realizados em seu laboratório em São Carlos, que possui 800 metros quadrados de área. n PESQUISA FAPESP 191
_ 71
_ s oftwares {
Indicação certeira Federal de Minas se associa a empresa para produzir sistemas de tecnologia da informação
N
ão é por mera coincidência que quando alguém clica para comprar uma televisão numa loja virtual, por exemplo, o site lhe sugere a aquisição de um aparelho tocador de blu-ray. Por trás desse aparente acaso está uma tecnologia sofisticada, chamada sistema de recomendação, dominada por poucas empresas no mundo. Uma delas é a Zunnit Technologies, criada em 2009, em Belo Horizonte, para transformar em produto comercial um conhecimento gerado nos laboratórios da Universidade Federal de Minas Gerais (UFMG). Por meio dessa tecnologia, é possível monitorar a navegação dos internautas e, com isso, identificar automaticamente perfis e interesses. A partir dessas informações, são oferecidos conteúdos personalizados, como notícias, serviços e produtos. Para isso, a Zunnit instala um código no site de seu cliente, que pode ser uma loja virtual ou um portal de conteúdo. Além disso, o sistema conta com robôs (programas de computador especializados), no caso da Zunnit chamados Web Focused Crawlers, que varrem os sites em busca de conteúdos relacionados aos interesses do usuário. “Esses robôs são capazes de separar com precisão conteúdos digitais relevantes de outros não tão importantes”, garante Nívio Ziviani, professor emérito do Departamento de Ciência da Computação (DCC), da UFMG, onde foi desenvolvido o conhecimento que gerou a tecnologia. “Os nossos são muito mais 72 janeiro DE 2012
seletivos e contribuem para o fornecimento de recomendações de qualidade aos internautas.” Em outras palavras, a tecnologia torna possível saber o que o usuário está fazendo, onde clica, quais os assuntos e produtos que mais interessam ao internauta. “Baseado nessas informações, o sistema usa técnicas computacionais como recuperação de informações, mineração de dados, entre outros, para conhecer o perfil desse usuário, se é homem ou mulher, verificar sua localização e identificar qual seria o melhor produto para indicar a ele”, explica Lesley Scarioli Júnior, diretor executivo da Zunnit. “Se ele está interessado em televisão, por exemplo, o que deveria ser recomendado junto?” Mas a tecnologia desenvolvida pela empresa mineira vai além disso. Ela consegue interpretar o contexto da navegação. “Se o internauta estiver num site de Fórmula 1, por exemplo, e nele houver uma reportagem sobre Paris em
ilustração Estevan Pelli
participação em duas outras empresas de tecnologia. A primeira foi a Miner, fundada em 1998 e vendida ao portal UOL, do Grupo Abril/Folha de S. Paulo, em 1999. A outra foi a Akwan Information Technologies, fundada em 2000 e comprada pelo Google, em 2005, que se transformou em centro de pesquisa e desenvolvimento (P&D) da empresa norte-americana no Brasil. Ziviani teve a ideia, em meados de 2008, de fundar a terceira, dessa vez para explorar comercialmente os conhecimentos de recomendação de sistemas gerados no Latin. “A propriedade intelectual disso pertence integralmente à UFMG, mas é importante transformar os conhecimentos gerados pelas pesquisas em riqueza para a sociedade”, diz. Ações da empresa
que aparece a expressão Paris Hilton, o sistema consegue entender que ela se refere ao hotel, e não à socialite Paris Hilton”, explica Scarioli. “Esse é um problema semântico complicado de ser resolvido, mas nossa tecnologia consegue solucionar isso com uma eficácia de 90%, o que é muito alto.” Isso é diferente do que fazem os serviços de busca, como o Google. Nesses, o internauta procura algo específico e digita as palavras do que quer saber. “Em vez disso, um sistema de recomendação de última geração procura surpreender o usuário com alguma coisa que ele não conhece ou não está esperando, mas que seja do seu agrado”, explica Ziviani. As primeiras pesquisas na UFMG sobre o assunto começaram em 2008, no Laboratório para Tratamento da Informação (Latin) do DCC. Esse trabalho gerou dissertações de mestrado de alunos de Ziviani. E a Zunnit não é a primeira empresa que ele ajuda a criar. Ele também é um empreendedor de sucesso com a
Em novembro de 2011, a UFMG e a Zunnit assinaram um convênio de transferência de tecnologia de formato pioneiro na universidade. Por meio do acordo, a UFMG repassou para a empresa o conhecimento gerado no Latin, e, em contrapartida, tornou-se sócia dela, com participação de 5% das ações. A UFMG será remunerada com usufruto delas. Ou seja, receberá sua parcela nos lucros como qualquer outro acionista, mas não terá ingerência nas decisões da companhia. Além disso, se a Zunnit for vendida, a universidade receberá o equivalente às ações que possui. A concretização da ideia de fundar a empresa só foi possível, no entanto, graças a um business angel ou investidor anjo (pessoas que possuem capital para investir em companhias iniciantes, também conhecidas como startups), no caso Scarioli. Por meio de amigos comuns, Ziviani conheceu o investidor, que tinha os recursos e a disposição de apostar num conhecimento, que poderia gerar uma tecnologia rentável. Assim nasceu a Zunnit, com objetivos diferentes dos que tem hoje. “A ideia inicial era indicar livros para os internautas de acordo com os assuntos que eles estavam procurando nos sites pelos quais navegavam”, conta
Scarioli. “Assim, se alguém estava pesquisando informações sobre Fórmula 1, o sistema poderia recomendar a essa pessoa livros sobre o tema.” Com o tempo, os dirigentes da empresa foram percebendo as demandas do mercado e mudaram o foco, redirecionando sua atuação. “Hoje, o nosso negócio é o e-commerce, é fazer recomendações dentro das lojas virtuais”, diz Scarioli. “Quem começou a fazer isso no mundo foi a Amazon (loja virtual americana), em 1998. Ela faz isso com muita competência, por isso é referência mundial nessa tecnologia. Tanto que 35% das suas vendas vêm de recomendação.” Ainda de acordo com Scarioli, a Netflix, uma locadora de filmes e videogames on-line, é outra companhia que usa muito essa tecnologia. Setenta por cento de suas vendas são oriundas de recomendação. Mas nem a Amazon nem a Netflix vendem sua tecnologia para terceiros. A Zunnit, por sua vez, começou a comercializar seu produto em dezembro do ano passado. Hoje ela tem entre seus clientes grandes empresas, principalmente portais de conteúdo, como UOL, Sky e Busk, uma rede social de notícias ligada ao grupo Globo. “Também estamos negociando com vários sites de e-commerce, um dos focos no nosso negócio”, conta Scarioli. “Esse é o grande mercado para nossa tecnologia. Ele movimenta cerca de R$ 20 bilhões por ano, enquanto o mercado de publicidade, por exemplo, não passa de R$ 2 bilhões.” n Evanildo da Silveira pESQUISA FAPESP 191 73
humanidades _ d iplomacia
Quando o externo está cada vez mais interno Globalização aproximou opinião pública das decisões internacionais, mas a sua representação no Legislativo ainda é polêmica texto Carlos
Haag
ilustração Catarina
Bessell
‘O
Itamaraty só tira (ou dá) voto no Burundi, na África”, ensinava Ulysses Guimarães sobre a influência da política externa no comportamento do eleitorado. A máxima do Doutor Ulysses, infelizmente, ainda não perdeu a sua validade, mas pesquisas recentes (ver adiante) e o espaço inédito aberto na mídia às discussões sobre política internacional revelam uma tendência crescente em certa parcela mais elitizada da população brasileira de agir como um “eleitor de Burundi”. Para alguns, o fenômeno se liga, em certa medida, à controversa e personalíssima diplomacia presidencial do presidente Lula, capaz de atrair críticos e simpatizantes com igual intensidade, sem meios-termos, mas a realidade é que desde os anos 1990, com a globalização e a democratização nacional, parcelas do país passaram a perceber que os atos do Itamaraty no âmbito externo influenciam em muito a realidade interna. “Quando as questões externas passaram a ter impacto de ordem distributiva, gerando ganhos e perdas diferenciados, houve uma politização da política externa e a necessidade de controles
ciência política
típicos de uma ordem democrática”, observa a cientista política Simone Diniz, professora da Universidade Federal de São Carlos (Ufscar) e coordenadora da pesquisa Poder Legislativo, processo decisório e política externa no Brasil, apoiada pela FAPESP, que mapeou o papel do Poder Legislativo na deliberação da política externa brasileira (PEB), para identificar como são as relações entre os poderes Executivo e Legislativo sobre a política externa. “Afinal, numa democracia, o Parlamento funciona como caixa de ressonância da sociedade, apesar das imperfeições do modelo atual e real. Esse debate ganha força desde o governo FHC, com opiniões divergentes sobre a capacidade e o interesse do Congresso nas questões externas que carecem de estudos empíricos”, observa Simone. A questão, em verdade, foi estabelecida na Constituição de 1988, em que o presidente da República tem a prerrogativa privativa de celebrar tratados, convenções e atos internacionais sujeitos a referendo do Congresso, e confere ao Legislativo a competência exclusiva de resolver sobre tratados, acordos ou atos internacionais pESQUISA FAPESP 191 75
que acarretem encargos ou compromissos gravosos ao patrimônio nacional. Mas na deliberação dos atos internacionais a ação do Legislativo é ex post: os parlamentares manifestam-se sobre um ato após negociação pelo Executivo com agentes externos, por meio dos projetos de decretos legislativos (PDLs), expressando anuência ou discordância com termos e conteúdo do ato internacional. “Em bom português, o Legislativo não está de mãos atadas, pois pode fazer ressalvas às ações já encaminhadas pelo Executivo, mas é um mecanismo modesto de manifestação. O espaço existe, mas é muito limitado”, avalia Simone. “Isso quer dizer que as posições do presidente, de iniciador da PEB, e a do Congresso, de mero ratificador ex post facto, geram um equilíbrio em que o legislador mediano é obrigado a acatar as políticas negociadas pelo Executivo em fóruns internacionais, a despeito de estarem para além de sua curva de indiferença. Essa é uma situação que está mais próxima da abdicação do que da delegação da autoridade”, analisa a cientista política Maria Regina Soares de Lima, da Universidade do Estado do Rio de Janeiro, autora da pesquisa O Congresso e a política de comércio exterior (2001). Ainda assim, a pesquisadora defende que a política externa é objeto de delegação dos parlamentares por três razões principais: é um assunto muito suscetível a pressões distributivas, com setores diversos com interesses conflitantes; pela complexidade do tema que exige um domínio teórico e técnico que os parlamentares não possuem; porque garante a estabilidade das decisões, já que o Congresso, que representa interesses, tem menor chance de modificar políticas externas que possam prejudicar interesses de suas bases eleitorais. Assim, ponto para a Constituição. “Mas delegação não significa abdicação, como acontece muito no Legislativo, o que tende a isolar os parlamentares e favorecer grupos e setores específicos à revelia de qualquer controle da sociedade”, observa a pesquisadora, que defende uma forma mais eficiente de delegação de poderes ao Legislativo e a redução do poder do Executivo. “Na forma em que está temos graves prejuízos não apenas para os setores empresariais atingidos no curto prazo, como para a sociedade brasileira em seu todo”, avisa. 76 Janeiro DE 2012
Houve por décadas um consenso de que o lugar por excelência da diplomacia era o Itamaraty
O
estado atual da diplomacia brasileira e sua ligação com a sociedade civil foi fruto de um longo consenso de que o Itamaraty era o lugar por excelência para a condução da política externa. A grande maioria dos presidentes deixou a cargo do Ministério das Relações Exteriores (MRE) a condução da PEB, salvo exceções surpreendentes como o presidente Geisel durante o regime militar. “A implicação mais importante dessas mudanças ao longo dos anos é que a antiga delegação congressual para que o Executivo promovesse uma política industrial baseada na substituição de importações deixou de definir os objetivos da ação governamental no âmbito da política de comércio exterior. Elites, massa, governantes e parlamentares con-
cordavam com o rumo adotado pelo país na substituição de importações como forma de promoção do desenvolvimento”, conta Maria Regina. Por outro lado, isso gerou uma centralização das decisões no Executivo que teve como efeito mais visível a falta de controle democrático da política de comércio exterior. A partir dos anos 1990, surge outro modelo mundial econômico que alterou totalmente o significado do antigo padrão de crescimento baseado na substituição de importações, alteração que afetou, mais uma vez, a natureza do jogo político entre Congresso e presidente. “Era a globalização e seus efeitos em termos de autonomia perdida pelos governos das nações modernas. Cada vez mais, a ordem internacional está sendo estruturada por decisões de organizações econômicas internacionais sobre as quais os cidadãos nacionais não têm nenhum controle, muito menos qualquer possibilidade de oposição”, analisa a pesquisadora.
M
as a diminuição das atribuições do Congresso teve início com o golpe de 64. “Curiosamente, a política externa dos militares não traiu o espírito da delegação congressual promovida nos anos 1950 e que se encontrava no modelo de substituição de importações. A pedagogia política do governo autoritário, porém, permaneceu após a redemocratização, no sentido de que as
gislativo na condução da PEB, dentro do espírito democrático da época. Mas estava em pauta a questão do endividamento internacional e o Senado queria atribuir a si a prerrogativa de lidar com esse tópico. Ao final, outros temas nacionais tomaram conta e a discussão ficou fora da pauta. A Constituição acabou mantendo a relação das anteriores”, nota Simone. “Se entendemos a democracia como a maior participação de atores anteriormente não envolvidos, é preciso democratizar essa forma de condução da PEB, na contramão da centralização histórica no Itamaraty. O Ministério das Relações Exteriores tem que consultar a sociedade antes das negociações, demandar a colaboração de especialistas, porque os termos de negociação externa estão cada vez mais técnicos e os diplomatas nem sempre dão conta dessa nova realidade”, avalia a cientista política Janina Onuki, do Instituto de Relações Internacionais da Universidade de São Paulo, Diminuição das atribuições que, sob a coordenação do Congresso teve início da professora Maria Hermínia Tavares de com o golpe de 64, mas PEB Almeida, realiza o estudo O Brasil, as Améfoi mantida ricas e o mundo: opinião pública e política externa (2010), apoiado pela decisões de comércio exterior passaram FAPESP. “O Legislativo tem que ser o a modificar sistematicamente o status instrumento onde os atores sociais posquo representado pelo antigo modelo sam ter acesso às discussões internaeconômico sem que o Congresso pudesse cionais. Os empresários, por exemplo, emitir qualquer opinião a respeito”, lem- reclamam muito da dificuldade em ter bra Maria Regina. “O mundo que o Brasil acesso ao Executivo para a formulação administrava como uma externalidade de políticas comerciais internacionais”, internalizou-se, encerrando a eficácia diz. Segundo resultados preliminares da do repertório de soluções construídas pesquisa, nos últimos anos, a política exa partir do primeiro governo de Getúlio terna, embora não seja um tema central, Vargas que configurou o país no século ganhou muito espaço na opinião pública. XX. Daí o reordenamento das agendas “Antes ela mal aparecia”, fala. interna e externa que caracterizou a vida Os assuntos mais próximos a essa faixa política e econômica do país na década da opinião pública são a integração regiode 1990”, analisa o professor de direito nal e o Mercosul, com um conhecimento da USP Celso Lafer, atual presidente da de causa muito maior do que o esperado FAPESP e chanceler por duas ocasiões (e verificado no passado) sobre a PEB. As (1992 e de 2001 a 2002). Em tempos li- pessoas já se referem à Organização Mungeiramente diferentes, essa renovação dial do Comércio (OMC), meio ambiente e mundial foi acompanhada, no Brasil, pe- sabem que temas internos, como violência, lo processo de redemocratização e pela comércio, tráfico etc., ecoam discussões Constituição de 1988. “Na época, houve internacionais. “Um detalhe interessante vários debates sobre a possibilidade de é que, ao contrário do observado nos surse estabelecer no texto constitucional veys americanos, as opiniões da elite e da um espaço de atuação maior para o Le- população são muito próximas, o que inpESQUISA FAPESP 191 77
dica uma maior politização do público, ao contrário da literatura tradicional”, conta. Não há mais o antigo consenso de que o presidente e o Itamaraty são os condutores naturais da política externa e há um questionamento do papel da instituição por outros ministérios, o que gera uma demanda por uma maior abertura do MRE. Já os empresários reclamam que foram deixados de lado nas discussões sobre o Mercosul. No geral há uma percepção generalizada de que o país tem condições de ser um global player, embora isso nem sempre acarrete o apoio dos países vizinhos, mas surge da própria inserção do Brasil no mundo globalizado.
O
estudo recente pode ser comparado com a pesquisa A agenda internacional do Brasil: a política externa brasileira de FHC a Lula, feita em 2009 pelo cientista político Amaury de Souza, pesquisador sênior do Instituto de Estudos Econômicos, Sociais e Políticos de São Paulo (Idesp). Nela, quando perguntado sobre o balanço de forças entre Legislativo e Executivo na PEB, 46% dos entrevistados responderam que a política seja decidida pelo Executivo e depois ratificada pelo Congresso, enquanto 54% argumentam que as posições
78 Janeiro DE 2012
implica conferir ao Congresso o poder de se sobrepor ao Executivo como árbitro de última instância do interesse nacional”, observa. Segundo ele, o ideal seria intensificar a diplomacia aberta, estimulando a participação de grupos organizados da opinião pública no debate abrindo espaço para que possam exercer sua influência no processo de formação da política externa. “O Congresso ecoa, como cabe numa democracia, as preocupações que existem na sociedade e estas adquirem, com a participação dos meios de comunicação dos interesses organizados e das ONGs, uma configuração que venho qualificando como uma agenda da opinião pública em matéria de política externa. A agenda da opinião pública brasileira possui abrangência que se intensifica com a globalização que internaliza o mundo na Pesquisa mostra que elites vida do país. Por isso e população têm visões iguais é bom antecipar caminhos, verificar sensisobre a política externa bilidades e identificar resistências junto ao Parlamento quando se vai dar início a negociações complexas. Daí a importância de o MRE desenvolver ainda mais mecanismos de interlocução sobre assuntos relacionados às relações comerciais, aos direitos humanos, ao meio ambiente que são exemplos inequívocos de itens da agenda da opinião pública”, analisa Lafer. “A Constituição de 1988, que valoriza a participação, permite amplos espaços para uma articulação entre Executivo, Legislativo e sociedade sobre temas diplomáticos, cabendo lembrar o papel das audiências públicas e o pluralismo de informações que ensejam no âmbito das comissões especializadas do Parlamento e recordar as competências que o Congresso possui para o exercício de um poder de controle sobre a PEB conduzida pelo Executivo (por exemplo: o poder de convocar o ministro de Estado e de requerer informações).” Em nosso país, lembra o professor, “cabe ao presidente da República a gestão da política externa, que a exerce de acordo com a sua personalidade, visão e sensibilidade. A gestão do presidente Lula não foi uma gestão consensual e isto transpareceu no debate público e no Congresso”.
da diplomacia devam ser previamente negociadas com o Congresso. “São forças que se contrabalançam, revelando, de um lado, a visão da PEB como política de Estado e a relutância em impor limites à sua condução por um círculo fechado de especialistas. Por outro, essa política é vista como uma política de governo e que, por isso, deve ser mais permeável às influências de segmentos da sociedade diretamente atingidos pelas decisões do poder público”, afirma Amaury. “Estreitar, desde o início, a colaboração entre o Itamaraty e o Congresso daria maior credibilidade e capacidade de negociação ao governo, além de legitimar suas decisões de política externa com a opinião pública. Mas o aumento do ativismo parlamentar não
F
oram, continua Lafer, “ingredientes da discórdia a percepção de que foi impulsionada por componentes da exacerbada personalização e de partidarização da política externa que dela fez uma política de governo que não levou apropriadamente em conta os desejáveis ingredientes da continuidade de uma política pública, que tem, é claro, com os ajustes derivados da pauta interna e da conjuntura internacional, características de uma política de Estado. O primeiro ano da presidente Dilma, com a colaboração do chanceler Patriota”, pondera Lafer, “trouxe uma redução da discórdia, aumentou a margem de consenso em torno da PEB no Legislativo e no debate público extraparlamentar, em função da maneira de atuar da presidente no ajuste que vem empreendendo no trato dos assuntos diplomáticos”. Conclui o professor Lafer que “os temas da política externa estão hoje mais próximos da opinião pública do que estavam no passado, pois a mudança dos paradigmas de funcionamento do mundo e a globalização, para o bem e para o mal, reduziram
O Projeto Poder Legislativo, processo decisório e política externa no Brasil – nº 2008/57793 modalidade Auxílio Regular a Projeto de Pesquisa Coordenador Simone Diniz – Ufscar investimento R$ 21.610,08
Há uma maior compreensão de que o que acontece lá fora afeta a vida do cidadão comum
as distâncias que nos permitiam o hacia adentro da exclusiva preocupação com o desenvolvimento nacional dentro das fronteiras do país”. O sociólogo e embaixador Luiz Felipe Lampreia, chanceler entre 1995 e 2001, concorda com Lafer. “Há uma compreensão maior das pessoas de que o Brasil tem uma maior inserção internacional e que o que acontece lá fora atinge diretamente o brasileiro internamente. Sou a favor da participação maior da sociedade na PEB, pois monopólios não são compatíveis com o nosso tempo. Eu mesmo, quando ministro, realizei várias reuniões com diversos setores da sociedade civil, de empresários a sindicatos, passando por ONGs. É algo mandatório. O Itamaraty não é mais uma torre de marfim e está se abrindo à sociedade. Infelizmente, na gestão de Celso Amorim isso se fez de forma desigual e antidemocrática, um equívoco que o ministro Patriota está corrigindo”, avalia. “Mas a PEB é uma política do Estado e não de governo. Se o governo Lula tivesse seguido essa diretriz, não teríamos passado o vexame
em Teerã, um dos maiores da nossa política externa, uma ação feita por razões de puro marketing pessoal, sem levar em consideração que representava o país. As pessoas mais informadas entenderam isso imediatamente”, diz Lampreia. “A ação do Legislativo é fundamental e reflete a renovação do interesse da sociedade pelas relações externas, podendo contar, cada vez mais, com quadros especializados, como demonstra o incremento dos cursos de relações internacionais, hoje a terceira nota de corte dos processos seletivos universitários do país, logo abaixo de medicina. Disso surgirá um pessoal mais interessado e especializado, bem como revela que os jovens estão se interessando pelos rumos da PEB, já que nesses últimos 15 anos os cursos de política externa, antes restritos a dois ou três, se multiplicaram. É um bom caminho”, analisa o embaixador Gelson Fonseca Jr., que foi representante permanente do Brasil junto às Nações Unidas entre 1999 e 2003. “Creio que os mecanismos existentes possam dar conta das demandas do Parlamento, mas o nosso presidencialismo de coalizão coloca esse funcionamento em xeque”, analisa Simone Diniz. “O controle do Legislativo perde força em função desse sistema, já que boa parte das comissões têm pessoas ligadas ao governo de alguma forma, consequência de uma articulação eficiente entre governo e os partidos da base governista. A pouca capacidade para o exercício do controle legislativo está diretamente relacionada ao formato organizacional do nosso processo decisório”, diz. n pESQUISA FAPESP 191 79
_especiarias
Você tem fome de quê? Alimentação permite relações no Brasil colonial
P
egar a história “pelo estômago”. Essa é a estratégia da historiadora Leila Algranti, professora da Universidade Estadual de Campinas (Unicamp), para ter mais uma chave de leitura do Império Português. “Meu interesse é a história colonial. A comida foi mais uma forma que encontrei de entender a dinâmica desse Império”, explica. “Afinal, se entender a colonização da América é captar as formas de comunicação entre conquistadores e conquistados, de integração e modificação entre o Velho e o Novo Mundo, a alimentação permite ao historiador entender não só os resultados desse intercâmbio cultural, mas o seu processo”, afirma. Foi esse interesse que a levou a desenvolver a pesquisa As especiarias na cozinha e na botica – Um estudo de história da alimentação na América portuguesa, que analisa a alimentação no mundo lusitano entre os séculos XVI e XVIII, para refletir sobre as trocas culturais, apropriações e ressignificações de elementos entre os habitantes de diferentes regiões do Império, um fantástico intercâmbio cultural. “Alimentação não é um tema supérfluo: a fome ainda está no centro das políticas governamentais. Comida não é só sustento, mas é estruturante na organização social de um grupo 80
_ janeiro DE 2012
A exuberância das frutas foi retratada por Albert Eckhout no século XVII
Natureza-morta com bananas e goiabas, albert eckhout. Óleo sobre tela, 103 x 89 cm, c. 1640. reprodução do livro albert eckhout / visões do paraíso selvagem – obra completa, ed. capivara, 2010
entender a dinâmica das
história
pESQUISA FAPESP 191
_ 81
a todos e ninguém cuidava das culturas alimentares. “Assim, a ideia de uma cozinha mestiça, híbrida e sincrética não satisfaz mais, porque só mostra o resultado final, sem revelar o processo de mediação cultural, de superposição de diferentes formas de alimentação. Se houve substituição, também houve resistência de identidades”, afirma Leila, na contramão, por
A ideia de uma cozinha mestiça, sincrética e híbrida não satisfaz mais a historiografia moderna
exemplo, da flexibilidade alimentar do português, preconizada por Freyre. “É preciso pensar a alimentação na sua dimensão imperial, pois a colonização da América é só uma parte de um empreendimento maior: a expansão marítima portuguesa”, diz a pesquisadora. Após dominarem o comércio de especiarias, garantindo o sabor nas mesas europeias, os portugueses, no século XVII, viram holandeses e ingleses roubarem seu monopólio. A crise levou a um intercâmbio de produtos e saberes pelas colônias: Portugal trouxe para o Brasil sementes de especiarias do Oriente e levou plantas para outras partes do Império, a ponto de embaçar a origem da flora. “O coqueiro, por exemplo, chegou aqui por volta de 1553, a bordo de embarcações vindas de Cabo Verde. Hoje é um dos símbolos do Brasil. O mesmo se deu com a manga, a jaca, a canela, o açúcar, o algodão. Incentiva-se essa troca para diversificar as culturas e salvar a balança comercial”, observa a historiadora Márcia Moisés Ribeiro, pesquisadora do Instituto de Estudos Brasileiros da Universidade de São Paulo (IEB/USP) e coordenadora de Jornada no ultramar: a circulação do conhecimento científico no império colonial português, apoiado pela FAPESP como Jovem Pesquisador. “A Metrópole tentava compensar a perda das especiarias do Oriente, mas graças a isso o cultivo de drogas da Índia no Brasil ajudou a promover a circulação de uma cultura científica pelos domínios lusitanos, a ‘aventura das plantas’.” Era, porém, um movimento contraditório: havia avidez por novidades e diversidade, mas a empreitada era dominada pela tradição de enquadrar o desconhecido em padrões familiares, como se verá. humores
Café chega ao Brasil num processo de intercâmbio de espécies 82
_ janeiro DE 2012
As célebres especiarias tinham origem na palavra latina “drogas” e, apesar do senso comum, não eram desejáveis apenas como forma de conservar alimentos ou disfarçar sabores de carnes apodrecidas. “Elas representavam a associação entre culinária e cura baseada na farmacologia galênica dos ‘humores’, cujas alterações se ligavam ao que se comia. Para corrigir desequilíbrios comiam-se pratos que teriam qualidades contrárias ao ‘humor’ fora de balanço. Receitas culinárias e medicinais eram iguais e a comida, além de um gosto, era uma questão de saú-
café, debret. aquarela e lápis, 24 x 18,9 cm, c. 1818. reprodução do livro debret e o brasil – obra completa, ed. capivara, 2009
humano, abordando todos os aspectos da vida social, da espiritualidade ao poder, passando pela sexualidade e pelas diferenças de gênero. Em sua pesquisa, Leila debate com clássicos como Sérgio Buarque de Holanda, Gilberto Freyre, Caio Prado Jr. e Câmara Cascudo, que, de diferentes formas, usaram a comida para explicar a formação nacional pela miscigenação das “três raças”. “A nova historiografia mostra que a tese da mistura de elementos é diferente de fazer nascer algo novo, é ultrapassada, como se pensar a comida brasileira sendo um pouquinho da culinária indígena com uma pitada da cultura africana e muito da comida portuguesa”, avisa. Conceitos tradicionais, como a importância indígena e africana na dieta cotidiana, a adaptação dos portugueses a novo regime alimentar de produtos locais ou imagens de fome por causa da monocultura precisam passar por uma sintonia fina. Afinal, eram tempos em que intelectuais brasileiros se voltavam para o passado colonial a fim de pensar o futuro do Brasil. Já no caso de Caio Prado Jr. a abordagem da colonização estava focada na monocultura para o mercado externo, que absorvia
reprodução do livro debret e o brasil – obra completa, ed. capivara, 2009
um jantar brasileiro, debret. aquarela sobre papel, 15,9 x 21,9 cm, 1827.
Comidas do senhor e do escravo eram igualmente pobres em valor nutricional
de”, observa Leila. Isso transparece no primeiro livro português de culinária, Arte de cozinha (1680), de Domingos Rodrigues, com receitas de uma comida condimentada ao gosto da época e que também seria boa para a saúde. A exuberância do Novo Mundo, onde indígenas usavam a fartura da terra em caça, peixes, raízes e tubérculos como a mandioca, que o nativo aprendeu a dominar, e o milho, deveria ter feito, como preconizava a antiga geração historiográfica, com que os portugueses abrissem mão da dieta natal pelo novo. “Mas o colonizador se manteve fiel a sua dieta de trigo, vinho e azeite até quando foi possível. A incorporação de práticas alimentares na América foi mais rápida do que o processo inverso, já que os europeus opuseram resistência a produtos americanos, com o custo da impor-
tação, em vez de adotar o trivial da terra: feijão, farinha e carne-seca”, nota Leila. “Prover colonizadores com alimentos de seus países de origem levou à reprodução no Novo Mundo da alimentação: tudo o que fosse transportável em termos de comida foi introduzido na América.” Quando os europeus chegaram aqui, a população autóctone tinha o milho e a mandioca como alimentos de base. Mais tarde, os dois também seriam a base da alimentação na América portuguesa. Mas cada um procurou manter seu modo de vida: os nativos usaram técnicas de preparo estrangeiras, embora em alimentos já conhecidos. “Os europeus só aceitavam a alimentação vinda do reino, só quando não se pôde manter esse cardápio é que se optou por substitutos, como a mandioca no lugar do trigo”, explica o historiador Rubens Panegassi, da Universidade Federal de Viçosa. É a tese de Evaldo Cabral de Mello em Olinda res-
taurada (Topbooks, 1998): a aceitação dos gêneros nativos pela elite açucareira da Colônia só ocorreu com a instabilidade do abastecimento de importados nas guerras holandesas. Só quando a única opção possível contra a fome era usar a farinha de mandioca, que tinha status inferior ao trigo, a elite se submeteu. A “eterna culpa” da monocultura é outro ponto a ser refinado. “Se a colonização do Brasil foi marcada pelo cultivo de produtos para a demanda europeia, em detrimento do abastecimento interno, no dia a dia, a alimentação foi motivo de atenção e cuidado permanentes”, avisa Rubens. Afinal, a ideia de uma Colônia monocultora não representa a América portuguesa em sua totalidade. “Regiões no sul dos grandes centros produtores de cana-de-açúcar, e no norte, não estavam tão ligadas ao comércio externo e se dedicavam à agricultura. No Maranhão, a produção local permitia o consumo pESQUISA FAPESP 191
_ 83
DOces
Venda de produtos para alimentação: desenho de Debret mostra pouca diversidade da cozinha da época
de gêneros ainda frescos”, afirma a historiadora Paula Pinto e Silva, autora de Farinha, feijão e carne-seca: um tripé culinário no Brasil colonial (Senac, 2005). “Também a distância entre São Paulo e as regiões centrais estimulou a autossuficiência: a independência aos importados, somada ao contato com os indígenas e à opção pelo milho como alimento de base, foi repertório alimentar particular da região”, nota Rubens. É conhecido o empenho paulista em ser fornecedor de alimentos para as Minas, cuja obsessão pela mineração, reza a historiografia, levou a um desinteresse pela agricultura de subsistência, com crises de fome. “Hoje sabemos de cinturões verdes em torno da mineração e a produção de alimentos. Mesmo no Nordeste houve, sim, produção de subsistência, sem negar a falta crônica de alimentação”, observa Leila. Ficaram esquecidas por estudos generalizantes as hortas que cercavam os engenhos, feitas para a aclimatação de espécies europeias e o cultivo de outras nacionais. “As espécies aclimatadas cresciam, mas logo verduras e legumes da terra invadiram as hortas ‘europeias’ e se iniciou, na cozinha das casas-grandes, um processo de substituição dos ingredientes originais da receita por equivalentes locais”, nota Paula. 84
_ janeiro DE 2012
Havia também as hortas feitas, às escondidas, pelos escravos negros. “A contribuição africana deu-se em vários aspectos, mas é preciso uma biografia mais detalhada dos pratos que se acredita africanos. A sua influência se deu mais pelo gosto e pela forma de preparar alimentos do que pela feitura de comidas nativas”, avisa Leila. “Eles não trouxeram elementos de seus sistemas alimentares, mas esses elementos foram introduzidos no Brasil e marcaram nossa comida por meio dos comerciantes, ou seja, fazendo parte do comércio atlântico Portugal-BrasilÁfrica, que incluía o tráfico de escravos”, afirma a antropóloga Maria Eunice Maciel, da Universidade Federal do Rio Grande do Sul (UFRGS) e autora do estudo Uma cozinha à brasileira. “A permanência de receitas africanas não é só a persistência de hábitos alimentares, assim como as mudanças que ocorreram nestas receitas não resultaram só da falta de ingredientes. Ambas são parte de uma dinâmica cultural de constante recriação da maneira de viver.” Mesmo a origem da feijoada revela uma luta simbólica. “Se a versão do surgimento nas senzalas é um mito, vale lembrar que o mito fala. Assim, haver essa narrativa revela as relações de classe e raça no Brasil. O mesmo vale para as versões que a negam.” Nisso entra também a cachaça, originalmente a escuma formada pelas impurezas que subiam dos tachos em que se fervia o sumo da cana,
Foi outro o caso das frutas, evitadas pelos europeus, que temiam seus efeitos, e destinadas aos escravos. “Os senhores só comiam frutas cozidas com açúcar, em compotas, geleias, doces secos e cristalizados. A doçaria revela a adaptação de frutas tropicais ao cotidiano europeu, exemplo notável do ajuste cultural nas cozinhas dos engenhos”, afirma Paula. Nos doces via-se também a preocupação com a saúde. “Registros de época mostram a presença de doces à mesa dos colonos e na cabeceira dos doentes”, diz Leila. “A doçaria é a tradição mais original da cozinha portuguesa, um paradigma da mediação cultural. Não é um segmento secundário da alimentação na América portuguesa, mas a mais importante produção colonial, que alterou hábitos alimentares e de nutrição na idade moderna”, analisa. Se nas comidas salgadas a refeição do senhor e a do escravo eram algo semelhantes em “pobreza”, os doces são de outra esfera. Especiaria rara e preciosa, o açúcar de início era usado nas farmácias e só no século XV provocou o renascimento na era das guloseimas. “Antigamente só tinha açúcar nas boticas para os doentes. Hoje o devoram por gulodice. O que era remédio agora é gula”, observou o geógrafo Ortelius em 1572.
A monocultura da cana (ao lado) enriqueceu a Metrópole; em conjunto com frutas (acima), deu origem aos doces, marca cultural da Colônia
reprodução do livro debret e o brasil – obra completa, ed. capivara, 2009
loja di carne secca, jean-baptiste debret. aquarela sobre papel, 15,2 x 20,4 cm, 1825.
dada aos animais, negros e índios, que a fermentavam. O destilado era novidade para os europeus, acostumados ao vinho. Reprimida por não pagar impostos e roubar mercado das bebidas do Reino, seu consumo foi perseguido pelos jesuítas. A aguardente foi usada para conquistar corações e mentes de índios, moeda de troca pelos conhecimentos da terra que os nativos possuíam. Os negros eram “acalmados” com a bebida. “Mas não se pode ignorar o valor calórico das aguardentes e a importância na dieta pobre e insatisfatória dos escravos”, nota Leila.
reprodução do livro albert eckhout / visões do paraíso selvagem – obra completa, ed. capivara, 2010
Natureza-morta com melancia, abacaxi e outras frutas, albert eckhout. Óleo sobre tela, 91 x 91 cm, c. 1640.
cana-de-açúcar, debret. aquarela, 7,8 x 23 cm, c. 1818. reprodução do livro debret e o brasil – obra completa, ed. capivara, 2009
Com a abundância de frutos tropicais, além dos trazidos pelos colonizadores, faziam-se doces que lembravam os da Metrópole. “Mas a combinação de produtos novos com técnicas tradicionais portuguesas deu origem a doces diferentes, que até mantinham o nome original, como o pão de ló, embora diferenciados dos europeus. É sintomático que a continuidade do nome marcava uma mudança importante de conteúdo, ou seja, uma palavra antiga designava um produto novo”, nota Leila. “Entre os séculos XVI e XIX, a culinária na América portuguesa foi sendo construída e transformada, uma vez que se trata de uma arte combinatória e de inter-relações, mais do que de invenções, com processos baseados mais na variação do que na criação pura. Por isso não há apenas uma doçaria ou cozinha colonial, híbrida ou mestiça, indicativa do final de um percurso, mas sim uma convivência de cozinhas ‘no plural’ e de práticas alimentares, com continuidades da cozinha da Metrópole, mas também alteradas e relidas na América”, analisa
Não há apenas uma cozinha colonial, mas uma convivência de cozinhas no plural, fruto das mediações
Leila. Um salto desde o relato do padre Cardim, no século XVI, que descreve como foram servidos a um bispo lusitano vinhos reinóis e pratos medievais em pleno sertão da Bahia. Ainda assim não era uma “cozinha brasileira”, mas a justaposição de “cozinhas”. “Tivemos uma interculturalidade materializada em redes de relações perceptíveis no espaço das refeições, no uso dos artefatos, nas técnicas de processamento dos alimentos, nas receitas, no ‘fazer a cozinha’ na América portuguesa”, avalia a historiadora. Mais: a própria construção da nação será acompanhada pela transformação da alimentação. Uma prova disso é a publicação, no século XIX, do Cozinheiro imperial, em que não há um doce sequer que leve frutas nacionais. “A sociedade brasileira se pretendia avançada, lendo manuais de bons modos à mesa. Isso mostra como a comida foi eleita como um dos motes centrais para a distinção entre civilizados e ‘não civilizados’”, observa Leila. Tudo o que lembrasse a animalidade seria punido, e a refeição, para além da satisfação do corpo, servia para expor a nova sociabilidade. Na República, a publicação do Cozinheiro nacional reforça esse princípio pela inclusão de receitas que uniam o nacional e o europeu. Antes, em 1780, outro livro de receitas já revelava as relações políticas da comida na nova dinâmica colonial: O cozinheiro moderno ou a nova arte de cozinhar (1780), de Lucas Rigaud. “São receitas de comida mais simples, com temperos e ervas aromáticas leves para ressaltar o sabor, e não escondê-los com o gosto forte das especiarias. São indicações significativas sobre o comércio de determinados produtos, além de intercâmbios culturais mais amplos que ocorrem no espaço do Atlântico Sul. A comida é política pura”, avisa Leila. Não só no Brasil. A ciência na cozinha e a arte de comer bem (1891), do italiano Pellegrino Artusi, compilava receitas de todas as regiões italianas, uma unificação pelo estômago apenas duas décadas após a unificação política italiana. “Há agora um desejo de recuperar a alimentação do passado, um saudosismo de comer melhor como nas receitas antigas. Posso comer fast food ou ‘a quilo’, mas o ideal é a ‘comida da vovó’, uma busca inconsciente de uma identidade que está na nossa cozinha”, observa Leila. Pronta a nos pegar pelo estômago. n Carlos Haag pESQUISA FAPESP 191
_ 85
_ medicina popular {
Culturas da saúde Especialista cataloga usos terapêuticos de plantas e animais no Brasil Maria Guimarães
T
oda pessoa tem um calango que mora no meio do peito. Quando ele sai passeando pelo corpo, causa o quebranto. A cura vem de ervas que façam esse lagarto interior voltar para seu lugar. Entender as propriedades das plantas medicinais usadas em cada cultura não é uma tarefa simples, mas o trabalho do etnofarmacólogo vai muito mais longe: ele precisa entender doenças que não se encaixam naquelas tratadas pela medicina convencional, por isso denominadas “síndromes culturais” no sistema oficial de saúde. É essa a missão da bióloga especializada em etnofarmacologia Eliana Rodrigues, da Universidade Federal de São Paulo (Unifesp) de Diadema, que há 15 anos investiga o conhecimento medicinal de diferentes culturas brasileiras. “O índio trata a doença e usa uma planta para cada enfermidade”, exemplifica a pesquisadora, coordenadora do Centro de Estudos Etnobotânicos e Etnofarmacológicos (CEE). “O negro, ao contrário, usa misturas e pode tratar de formas diferentes as dores de cabeça de uma pessoa e de outra – o que conta são as particularidades de cada um.” Outra distinção entre culturas é que cada xamã indígena tem o seu conhecimento particular, a sua coleção de plantas na farmácia da floresta. Já os caboclos, segundo a pesquisadora, cultivam um conhecimento difuso que recolhem de diferentes culturas e diferentes origens geográficas.
86 janeiro DE 2012
1
Essa farmacopeia variada é o tema do estudo de Eliana em sete comunidades ribeirinhas ao longo do rio Unini, no norte do Amazonas. Para chegar às cidades mais próximas, Barcelos e Novo Airão, é preciso navegar no mínimo 250 quilômetros pelo rio Negro. Os habitantes da região, uma reserva extrativista, têm ascendência indígena, africana e europeia. No século XIX uma onda migratória do Ceará se instalou por ali em busca de trabalho nos grandes seringais, contribuindo para a cultura local com um forte componente desse estado nordestino. Já faz parte da lista levantada por Juliana Santos, uma das integrantes da equipe do CEE, um total de 122 espécies de plantas e 57 de animais, indicadas para 67 usos terapêuticos. As pesquisas mostram, até agora, uma grande diversidade de produtos psicoativos de vários tipos: estimulantes, ansiolíticos, afrodisíacos, calmantes etc. Até agora, Eliana catalogou 31 espécies de plantas e animais usadas para esses fins. As plantas podem fornecer uma variedade de partes, como caule, folhas, casca, sementes e frutos. Já dos animais se usa a carne, o cérebro, o pênis, ossos ou até o corpo inteiro. O chá de saúva, por exemplo, é usado para eliminar a preguiça, numa referência à reputação de trabalhadeiras que essas formigas têm. “Mas hoje poucos ribeirinhos usam a medicina tradicional, a maioria deles vão ao posto de saúde da comunidade e buscam remédios
1. O jenipapo ralado vira um corante que escurece em algumas horas 2. Mistura de ervas para fazer o tira-capeta 3. Fruto do babaçu, antes da extração de óleo
antropologia
nononono
2
farmacologia
fotos Eliana Rodrigues / unifesp
medicina
3
pESQUISA FAPESP 191 87
1
Sapo-canuaru, fonte de produto contra dor de cabeça, e garrafadas (direita) nas ruas de Manaus
que usam de maneira indiscriminada”, lamenta. O problema surge porque esse tipo de atendimento é instalado sem o acompanhamento de um profissional qualificado. “São agentes de saúde com pouco treinamento.”
cicatrizantes das plantas
Também são muitas as substâncias usadas para as chamadas síndromes culturais, que o médico Eduardo Pagani, ao participar do estudo em trabalho de campo na Amazônia, verificou não terem tradução direta na medicina convencional. É o caso do quebranto, do derrame, do espante e da mãe do corpo, entre outras doenças. Alguns dos preparados medicamentosos para esse tipo de enfermidade não vêm das partes tradicionais das plantas, mas de substâncias que elas vertem, os exsudados. Exemplos são o breu-branco e o breu-preto, além do lacre, que libera um líquido laranja. E os exsudados não se restringem às plantas. A baba do sapo-canuaru, uma perereca malhada de marrom e bege, é usada contra dor de cabeça. O produto forma uma pedra escura, que os ribeirinhos maceram e envolvem num pedaço de pano, que em seguida queimam e inalam. “O uso dos exsudados é geralmente inalatório”, observa Eliana. Mas ela não está convencida de que se trate mesmo da saliva solidificada do anfíbio. Neste mês, a etnofarmacóloga está nas comunidades para aprender a encontrar 88 janeiro DE 2012
a substância e verificar a sugestão feita no século XIX pelo naturalista João Barbosa Rodrigues: o sapo-canuaru recolhe breu-branco de troncos podres de árvores do gênero Protium e usa essa resina para revestir seu ninho. Assim, a tal baba de sapo seria o breu-branco enriquecido com secreções da pele do animal. Entender o que são esses exsudados é no momento uma das prioridades de Eliana, que para isso conta com a colaboração do químico João Henrique Ghilardi Lago, também da Unifesp, ainda em processo de caracterizar cada um deles como resina, goma, látex ou seiva. “Essa informação já nos dará uma pista de sua composição química”, prevê a pesquisadora. As resinas, por exemplo, são ricas em terpenoides e óleos essenciais. Detalhar os componentes químicos e possíveis princípios ativos de cada uma dessas substâncias será uma segunda etapa. Enquanto isso, Eliana cataloga os medicamentos de origem natural e forma parceria com farmacólogos, que analisam seus efeitos em animais de laboratório. Foi o caso de duas plantas usadas nas comunidades do Parque Nacional do Jaú como analgésicas: a sucuuba (Himatanthus sucuuba) e a cumandá (Campsiandra comosa). A segunda é, de acordo com os caboclos, a única eficaz contra dor de dente. Os pesquisadores trataram camundongos com extratos das duas plantas e corroboraram, em alguns aspectos, o uso popular dessas plantas, segundo artigo publicado em 2010 na Revista Brasileira de Farmacognosia. Nos animais que receberam doses mais elevadas do
2
extrato de sucuuba, os pesquisadores detectaram efeitos no sistema nervoso central, como sedação e uma diminuição de atividade motora. Já a cumandá não afetou a coordenação motora nem produziu relaxamento muscular. Mas o resultado não apareceu nos camundongos tratados com extrato da casca da árvore, apenas das folhas – justamente apontadas pelos caboclos como sendo um remédio mais forte, mas raramente usadas como medicamento por estarem nas copas altas, fora do alcance cotidiano. Eliana já fez, durante o doutorado, um estudo semelhante com tribos de índios Krahô, no Tocantins (ver Pesquisa FAPESP nº 70), um trabalho depois dificultado e embargado pela legislação que limita o acesso à informação detida por essas populações. Além dos caboclos, a pesquisadora também fez levantamentos etnofarmacológicos em comunidades quilombolas, que têm uma cultura de medicina tradicional muito distinta.
O Projeto Levantamento etnofarmacológico entre os caboclos da reserva extrativista do rio Unini, AM – nº 2009/53382-2 modalidade Auxílio Regular a Projeto de Pesquisa – Programa Biota Coordenador Eliana Rodrigues – Unifesp investimento R$ 86.130,40
fotos 1. Crusier (Own work) / via Wikimedia Commons 2. e 3. Eliana Rodrigues / unifesp
3
Foi na sesmaria Mata-Cavalos, no município mato-grossense de Nossa Senhora do Livramento, que ela descobriu por acaso o cigarro tira-capeta. “Para fazer uma boa etnografia é preciso viver na área de estudo”, explica. Foi assim que ela descobriu que à noite, depois de ter respondido às perguntas da pesquisadora, o pai de santo seu Cezário acendia um cigarro muito aromático e que, quando fumado, causa relaxamento e altera a percepção. “É um fumo celebroso”, descreveu o curandeiro, que aprendeu a receita com sua avó índia e prescreve o remédio para melhorar o desempenho escolar de crianças e adolescentes. É um “fortificante” para o cérebro. A etnofarmacóloga descobriu também que os habitantes da região viajam quilômetros para buscar a mistura de nove plantas que ajuda a curar, por substituição, a dependência de maconha. O tira-capeta cria dependência, mas sem o estigma social da erva ilegal. O tira-capeta inclui plantas nativas, como a erva-guiné (Pettiveria alliacea)
até chegar na Grande São Paulo”, conta a pesquisadora. Mas esse saber vai perdendo a precisão ao longo do caminho. “É preciso resgatar a história do conhecimento popular que de resto vai desaparecer”, ressalta o psicofarmacólogo Elisaldo Carlini, diretor do Centro Brasileiro de Informações sobre Drogas Psicotrópicas (Cebrid), da Unifesp. Ele foi o orientador de Eliana no doutorado e afirma ser impossível que a mesma pessoa recolha as informações etnológicas nas “Para fazer uma comunidades tradicionais boa etnografia é e faça os estudos químicos e farmacológicos. Para ele, preciso viver na é necessário reunir equiárea de estudo”, pes multidisciplinares em centros bem equipados. Um luxo raro no Brasil, em sua diz Eliana experiência. “O jeito é fazer os levantamentos etnofarmacológicos e guardar os dados para quando o país acordar e investir no desenvolvimento de medicamentos.” Sem o primeiro degrau, Pai de santo, Cezário macera que Eliana vem construindo, o preparado de não há como avançar. cigarro aromático Uma forma de mudar espara “tratar” crianças se quadro está na iniciatie adolescentes va de fundar um curso de e o capitiú (Siparuna guianensis), e in- pós-graduação em plantas medicinais troduzidas, a exemplo do eucalipto (Eu- em Diadema, onde Eliana é professora. calyptus globulus) e do alho. Um primeiro Carlini é o mentor e coordenador do pronível de análises pela química Giuseppi- jeto, que está em processo de aprovação na Negri, publicado em 2010 na Revista pela reitoria com apoio da Coordenação Brasileira de Farmacognosia, mostrou de Aperfeiçoamento de Pessoal de Níque a fumaça desse cigarro é rica em vel Superior (Capes), e espera que suas cineol, cânfora e alfa-pineno, substân- características interdisciplinares façam cias conhecidas na literatura científica uma ligação entre os campi da Unifesp: por aguçar a memória, tratar sinusite e o curso de farmácia em Diadema, a medicina na capital paulista e a sociologia aliviar insônia. em Guarulhos. n conhecimento deturpado
Mas se não for mantida com cuidado, essa cultura se perderá. Num levantamento em Diadema, Eliana e seu aluno Julino Soares verificaram justamente que muitas das ervas medicinais vendidas na cidade não são o que deveriam ser. Ao comprar uma planta por outra, os clientes correm o risco de agravar os problemas de saúde. Ainda mais grave, os pesquisadores encontraram altos teores de contaminação por fungos e bactérias. “São migrantes que reuniram conhecimento pelos estados por que passaram
Artigos científicos RODRIGUES, E. et al. Perfil farmacológico e fitoquímico de plantas indicadas pelos caboclos do Parque Nacional do Jaú (AM) como potenciais analgésicas. Parte I. Revista Brasileira de Farmacognosia. v. 20, n. 6, p. 981-91. dez. 2010. NEGRI, G & RODRIGUES, E. Essential oils found in the smoke of “tira-capeta”, a cigarette used by some quilombolas living in Pantanal wetlands of Brazil. Revista Brasileira de Farmacognosia. v. 20, n. 3, p. 310-16. jun./jul. 2010. SOARES NETO, J. et al. A rede de comércio popular de drogas psicoativas na cidade de Diadema e o seu interesse para a saúde pública. Saúde e Sociedade. v. 19, p. 310-19. 2010. pESQUISA FAPESP 191 89
resenhas
Uma intelectual inquieta e ativa
R
uth Cardoso: obra reunida, livro organizado por Teresa Pires do Rio Caldeira, vem suprir uma lacuna nos muitos tributos já prestados à professora Ruth desde o seu falecimento em 2008. Todos nós – colegas, alunos, orientandos e parceiros em muitas pesquisas – sentíamos a ausência, até então, de um livro que reunisse os trabalhos acadêmicos de Ruth Cardoso escritos ao longo de sua carreira de professora e pesquisadora na Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo, em universidades estrangeiras, dos Estados Unidos e do Chile, onde também lecionou, em centros de pesquisa, com destaque para o Cebrap (Centro Brasileiro de Análise e Planejamento), em São Paulo. Nesse livro encontramos textos, alguns inéditos, outros em publicações esgotadas, escritos por Ruth, artigos em parceria com Eunice Ribeiro Durham e outros com a coautoria das orientandas Céline Sachs-Jeantet, Esther Império Hamburguer, Helena Sampaio e Teresa Caldeira. Ruth Cardoso escreveu e publicou relativamente pouco; os mais próximos atribuem o fato ao seu excessivo rigor em relação à própria produção. Gostava de ensinar, orientar, pesquisar, discutir ideias e, especialmente, partilhar com colegas, alunos e orientandos suas sempre inovadoras (e algumas vezes inusitadas) descobertas intelectuais, acrescentando ao debate autores e obras, nacionais e estrangeiras, que quase invariavelmente se situavam na contramão dos modismos e do pensamento hegemônico da academia. Os 41 textos reunidos nesse livro procuram dar conta dessa inquietação intelectual de Ruth Cardoso diante dos modelos de interpretação e da realidade social. Em alguns textos reconhe-
90 | janeiro DE 2012
cemos as suas reflexões críticas sobre o marxismo, o funcionalismo, o estruturalismo como explicações por vezes esquemáticas (ou ainda simplistas) dos processos sociais; em outros trabalhos, identificamos Ruth Cardoso antropóloga preocupada com a pesRuth Cardoso: obra reunida quisa de campo e com as análises Teresa Pires do das narrativas, sensível ao que já Rio Caldeira (org.) identificava como uma dissemiEditora Mameluco nação equivocada – porque ali568 páginas, R$ 78,00 geirada – do método qualitativo e da análise de discurso. Precedem os textos selecionados nessa coletânea uma delicada e cuidadosa apresentação de Teresa Caldeira e um emocionante depoimento de Eunice Ribeiro Durham, colega e amiga de toda a vida de Ruth. O texto de Teresa Caldeira nos serve de guia para a leitura dos artigos: mostra o percurso de Ruth Cardoso e as influências que recebeu como uma intelectual de seu tempo, o diálogo que estabeleceu com as diversas correntes de pensamento então em voga e suas indagações diante das mudanças sociais; reconhece também as contribuições de Ruth Cardoso para a pesquisa de campo na antropologia, em particular, e para o pensamento social, de modo amplo, sempre reiterando a atitude moderna da professora por criar, nas mais diferentes situações, “espaço de reflexão e interrogação do presente, um espaço para forçar limites, procurar alternativas”. O livro traz os textos em ordem cronológica e temática a partir das questões que Ruth Cardoso priorizou ao longo de sua trajetória acadêmica e de cidadã de seu tempo; essas questões, no livro, recebem, com muita propriedade, os
eduardo cesar
Helena Sampaio
Arquivo Ruth Cardoso / Fund. iFHC.
seguintes subtítulos: Migrantes japoneses: integração e mudança; A aventura antropológica I – buscas; Favelas: através dos fragmentos; A aventura antropológica II – críticas; Movimentos sociais, Estado e democracia; Mulheres, direito e democracia; Mídia e juventude; Pobreza, políticas sociais e terceiro setor. Por fim, o volume traz o currículo acadêmico e a lista de orientandos da professora Ruth Cardoso. Para os que tiveram o privilégio de conviver e aprender com ela, o livro é, com certeza, um presente de prolongamento dos saudosos encontros para discussão de pesquisas de campo (e seus achados e interpretações e reinterpretações) e dos diálogos necessariamente intermináveis, porque para Ruth Cardoso nunca deviam ser interpretações definitivas, sobre as mudanças e os rumos da sociedade brasileira, preocupação que a acompanhou durante toda a vida.
Ruth Cardoso: atitude moderna sempre dando espaço para a reflexão e a interrogação do presente
Helena Sampaio é pesquisadora do NUPPs (Núcleo de Pesquisa de Políticas Públicas) da USP (Universidade de São Paulo).
PESQUISA FAPESP 191 | 91
resenhas
Da fábrica à academia João Baptista Borges Pereira
92 | janeiro DE 2012
fotos eduardo cesar
E
screver sobre o “outro”, ainda cura amealhar os seus primeiros que amparado pelo distanciae parcos rendimentos destinados mento e pela aparente e às veprioritariamente à família. De inízes enganosa neutralidade, é difícil. cio, seu campo de trabalho é a rua; Imagine-se falar sobre o próprio “eu”. depois, a fábrica onde o já adolesSituar-se em universo onde a reprecente capta o clima político que sentação de si mesmo é, em larga meVargas tece no centro do poder e dida, construída pelo sujeito que fala que ecoa, lá embaixo, onde estão e pelos pares que compartilham, de os operários. forma permanente ou ocasional, o Depois a busca pela escolarizamesmo cenário de convivência social. ção que o levou à obtenção do diCada qual com suas experiências que ploma de professor primário, título transitam entre o real e o aparente, com o qual ingressou no curso de quase sempre experiências de vida Uma arqueologia da memória ciências sociais da Universidade de intransferíveis. Falar sobre si mesmo social – Autobiografia São Paulo (USP). A autobiografia um moleque de fábrica é rastrear o próprio passado, debru- de tem aí seu ponto final. É preciso José de Souza Martins çar-se sobre lembranças da infância Ateliê Editorial que se diga, porém, que José de e da juventude, a partir de uma visão 464 páginas, R$ 60 Souza Martins oculta aos leitores amadurecida pelos anos já vividos. o perfil de uma trajetória intelecÉ este desafio que José de Souza Martins en- tual brilhante: sociólogo que percorreu todos os frenta ao escrever Uma arqueologia da memória degraus da vida acadêmica na USP, onde, ao se social – Autobiografia de um moleque de fábrica. O aposentar, recebeu o título de professor emérito. leitor ficará sabendo o que é ser filho de imigran- No exterior foi professor visitante da Universites pobres (portugueses e espanhóis) que chegam dade da Flórida, nos Estados Unidos, e da Uniao país sem qualquer apoio e passam a viver, por versidade de Cambridge, na Inglaterra, além de assim dizer, à margem do que há de mais expres- professor, na mesma universidade, da Cátedra sivo na cena brasileira. Ficará sabendo também o Simón Bolívar. que é ser neto de um homem estigmatizado em É imperioso grifar a elegância da linguagem, Portugal por ser filho espúrio de um impiedoso que descarta as palavras e os enunciados mágicos padre de aldeia. Familiarizar-se-á com o cotidiano caros aos cientistas sociais mas de difícil deglutição de uma família que, ao transitar por áreas rurais pelo leitor. Engana-se, todavia, quem considere o e urbanas do estado, acaba por dividir a vida de autor descomprometido com essa visão acadêmium menino ainda em crescimento. ca. Seu olhar é o rigoroso olhar de um acadêmico Nas memórias do autor, o rural ganha duas fa- talentoso, sem grandes preocupações com as fronces bem delineadas: há o rural acolhedor, repleto teiras que separam e empobrecem as reflexões da de “bom” caipirismo. É o rural dos arredores de sociologia, da antropologia, da história. Pinhalzinho, onde passa dias de encantamento A autobiografia de Martins pode ser lida cona casa rústica dos avós maternos espanhóis. E mo uma crônica deliciosa das peripécias de um há o rural que é lembrado para ser esquecido, moleque de fábrica que se torna um respeitável distante oito quilômetros de Guaianases, onde acadêmico; ou como um modelo teórico que dá vive, em companhia da mãe e de um padrasto conta dos múltiplos aspectos que compõem uma hostil, “longe da civilidade e das vênias profun- trajetória de vida; ou, então, como uma crítica didas do respeito pelo outro, no sentido profundo reta, pontual, nem sempre sutil, de uma sociedade e ritual do decoro”. Já o urbano que Martins tão desigual como a brasileira. A escolha caberá, nos revela é o da periferia da metrópole, o do naturalmente, ao leitor. operariado, com seus encantos e desencantos. Baptista Borges Pereira é antropólogo, professor emérito da Nesse cenário em que pobrezas financeira e João Universidade de São Paulo (USP) e professor pleno de pós-graduação intelectual estão associadas é que o autor pro- da Universidade Presbiteriana Mackenzie.
A vida como obra
A segurança dos transgênicos
U
ma figura de apreensão com plexa como Pierre Verger merecia uma “biograf ia” igualmente abrangente como a escrita por Jérôme Souty, em verdade, a transformação em livro de seu doutorado (2005). As aspas apostas na biografia dão conta da intenção do autor: apresentar o trabalho etnológico de Verger como sendo indissociável de sua obra de fotógrafo e de sua experiência de vida. Vindo do mundo da imagem, Verger desconfiava da escrita como forma de dar conta da riqueza e da singularidade do mundo que encontrou no Brasil. A perda da família o fez viajar pelo mundo e desejar ser outro, ser negro. Nessa proximidade excessiva com o seu “objeto de estudo” estão a grandeza e os “pecados” de Verger, como seu zelo neotradicionalista de sempre escrever tendo em mente o interesse dos produtores do saber que analisava. Mas esse engajamento humano é que dá brilho e modernidade à sua obra. O fotógrafo nunca quis se “intrometer” na vida dos seus retratados (ao contrário de Cartier-Bresson, para ele um “ladrão de imagens”), a custo decidiu escrever e quando o fez levou para o texto o mesmo olhar caloroso, que não classifica a priori, mas imerge, lentamente, na cultura do outro, em seu cotidiano, em seus segredos, que ele respeitou sempre, sentindo-se o “outro”. Daí a sua iniciação, necessária e desejada, resultado natural de uma familiaridade com a cultura ioruba, mais do que a busca por uma verdade secreta. O resultado foi uma quebra com o etnocentrismo que deu a ele a chance de um conhecimento centrado. Verger escreveu com o olho do fotógrafo e o ouvido do parceiro: a oralidade é seu modo de trabalho, sem construções intelectuais que “mumifiquem” o que se quer registrar. Sua escrita se liga diretamente ao real, uma “transcrição” dinâmica que faz ecoar até hoje a voz da cultura. Um belo livro que deve ser lido com Carybé, Verger e Caymmi, estudo amoroso sobre Verger, lançado em 2009, pela Fundação Pierre Verger. Um prazer duplo e irresistível. Como a obra de Verger. Carlos Haag
A
Pierre Fatumbi Verger: do olhar livre ao conhecimento iniciático Jérôme Souty Terceiro Nome, 448 páginas, R$ 60,00
Transgênicos: bases científicas de sua segurança Franco Maria Lajolo e Marília Regini Nutti Edusp, 200 páginas R$ 45,00
s plantações de alimentos geneticamente modificados (AGM) aumentaram 87 vezes entre 1996 e 2010 e estão presentes em 29 países. No Brasil espera-se um aumento de 20% na safra de 2011/2012. Assim, poderíamos dizer que as culturas transgênicas são um sucesso entre os agricultores. Mas muitas pessoas ainda têm dúvidas ou mesmo rejeitam os alimentos transgênicos porque temem que eles possam ser danosos à saúde humana ou animal. Fazem isso com base em evidências ou faltam informações? A possibilidade de elucidação do problema para os temerosos e também para quem quer conhecer melhor esse ramo das engenharias genética e de alimentos pode ser encontrada no livro Transgênicos: bases científicas de sua segurança, que tem como autores o professor Franco Maria Lajolo, do Departamento de Alimentos e Nutrição Experimental da Faculdade de Ciências Farmacêuticas da Universidade de São Paulo (USP), e da engenheira de alimentos Marília Regini Nutti, pesquisadora da Embrapa e especialista em segurança de AGM da Organização das Nações Unidas para Agricultura e Alimentação (FAO) e da Organização Mundial da Saúde (OMS). Eles fazem nessa 2ª edição atualizada (a primeira foi lançada em 2003) um levantamento de centenas de estudos, incluindo documentos de organismos mundiais, e descrevem a metodologia científica, baseada na análise de riscos, usada nos ensaios antes da aprovação dos alimentos transgênicos. “Recentemente vários estudos têm sido realizados para avaliar a influência dos AGM na alimentação de animais durante várias gerações. Entretanto, em nenhum deles foram observados efeitos adversos.” Os autores mostram resultados como esse ao longo dos 10 capítulos que se iniciam com explicações, em forma didática e de fácil compreeensão, de como é a gênese dos organismos geneticamente modificados. Mostram também que dificilmente, com as metodologias aplicadas, um produto AGM possa apresentar riscos para a população. Muitos quadros explicativos, tabelas e infográficos ajudam a completar as informações e a elucidar o tema transgênicos. Marcos de Oliveira PESQUISA FAPESP 191 | 93
Arte
Corpo, jogo e teoria Erudito e popular, Antônio Nóbrega tornou-se brincante de múltiplas especialidades Helena Katz
A
relação com a universidade é uma costura de pontos largos na sua carreira. Não à toa, Antônio Nóbrega, que nasceu em 1952, em Recife, chama sua mais recente criação artística de “tese”. Naturalmente, teoria e jogo de uma dança brasileira começou a ser defendida em 2009. Foram quase 40 anos para consolidar a pesquisa, necessários para transformar aquele menino sem nenhuma relação com a cultura popular em um brincante de múltiplas especialidades. Nesse percurso, a universidade entra e sai várias vezes. Antônio Nóbrega começou pelo violino e, aos 16 anos (1968), enquanto se preparava para o vestibular, já participava, alternadamente, da Orquestra de Câmara da Paraíba e da Orquestra Sinfônica do Recife. Foi como violinista que realizou o primeiro espetáculo, em 1963, na Escola de Belas Artes, em Recife, ainda aluno de nível médio de Luis Soler. Cursou direito por dois anos, desistiu; tentou letras, e parou; foi para a música, acabou largando, mas a passagem pelo Conservatório da Universidade Federal de Pernambuco mudaria a sua vida: encontrou lá os parceiros do Quinteto Armorial, onde permaneceu de 1971 a 1980. Foi quando trocou o violino pela rabeca. Não se tratou somente de uma mudança de instrumento, tão comum na vida dos músicos. Começava aí a relação do erudito com o popular que se tornaria o seu objeto de pesquisa, marcado pela proposta armorial de Ariano Suassuna. Descobriu as micagens dos presepeiros ou folgazões dos reisados, o canto áspero e épico dos cantadores e repentistas, encontrou o capitão Antônio Pereira, com quem conviveria por 10 94 | janeiro DE 2012
anos e que lhe ensinaria desde o passo da “tesoura rebatida” até a saber escolher o melhor cipó-de-embira para confeccionar a “esmolembenta” Burra Calu (personagem que, anos mais tarde, estaria em uma canção sua, Boi castanho). Estudou também com Mateus Guariba, Nascimento do Passo, mestre Aldenir e Olímpio Boneca, mestre de reisado e guerreiro de Juazeiro, no Ceará, que lhe mostrou as toadas e as histrionices dos Mateus. E com mestre Zé Alfaiate, do morro da Bomba do Hemetério, com quem conheceu o caboclinho Sete Flechas e as manobras e posturas do que já chamava de “um bailado brasileiro”. Como todo bom pesquisador, faz tempo que cultiva a
fotos Silvia Machado
Naturalmente, espetáculo de 2009, reapresentado em dezembro de 2011 no Centro Cultural Fiesp-Sesi, é uma espécie de tese do artista
sua obsessão. “Sempre quis saber por que um país com um universo tão exuberante de danças, cujos vocabulários de passos impressionam, não tem essa riqueza incorporada à sua dança de palco. No campo da música, essa assimilação aconteceu.” As lantejoulas e canutilhos que o capturaram foram bordando o seu caminho artístico. A vivência armorial se entranhara de tal forma, que fez dele a versão em música e dança de Ariano Suassuna. Quando chegou em São Paulo, em 1982, com A arte da cantoria, já havia montado e dedicado ao capitão Antônio Pereira, em 1978, A bandeira do divino. Mas foi somente em 1983, com O maracatu misterioso, que iniciou a sua carreira de solista na dança. À universidade volta em 1986, quando assume a criação da disciplina de danças populares brasileiras na Unicamp, no curso de graduação que ajudou a fundar. Três anos depois apresenta a sua dissertação de mestrado: O reino do meio-dia, com uma primeira síntese do que considerava, na ocasião, serem os componentes índios, negros e ibéricos da nossa cidadania gestual. Fez da querela do popular com o erudito o seu campo de pesquisa e agora pretende pro-
duzir mais um dos que Peter Brook chama de “Os grandes teatros diferentes do mundo”. Vai sistematizar um léxico que ensina a dançar a partir das danças populares. Em Naturalmente mostra como passos de maracatu se organizam ao som de Erick Satie, como se joga capoeira com Bach, ou se junta o Tchaikovski da suíte do balé O quebra-nozes, com a Gaiata, um personagem popular. Realiza a proposta de princípios universais, formas locais, de Eugênio Barba. Os estudos de caso estão registrados na série de 10 programas que compõem o Danças brasileiras, projeto idealizado e dirigido por Belisário França, em 2004, para o Canal Futura. E o laboratório foi criado com sua parceira, Rosane Almeida: o Instituto Brincante, no qual suas hipóteses podem ser testadas. Se o que valida a pesquisa é a sua continuidade, a de Nóbrega encontrou em Maria Eugênia Almeida e Marina Adib, duas jovens e talentosas dançarinas, a realização mais plena dos pressupostos armoriais que o guiaram até aqui: uma vem do treinamento popular (Maria Eugênia) e a outra, do erudito (Marina). Vê-las em cena talvez aponte para o início de um pós-doutoramento. n PESQUISA FAPESP 191 | 95
conto
Sobre homens e vermes Jair Bonf im
—‘Seu verme imundo, você não passa mesmo de um verme!’ E tome socos, cadeiradas e muita gritaria, com prostitutas de meia-liga e coletes que terminam em curtíssimas saias cheias de babados, subindo correndo as escadas que levam para os quartos do bordel, que agora mais parecia um campo de batalha.” Ele apertou rápido a tecla pause do controle remoto: uma ideia surgira em sua cabeça diante da frase que dava início ao filme de faroeste que pegara apenas para relembrar quando, ainda menino, seu pai o levava aos domingos nas sessões da tarde do cinema da cidade. “... Verme, você não passa de um verme...”, como ainda não havia pensado nisso? Apertou a tecla power e achou melhor passar para o papel o turbilhão de ideias, possibilidades, devaneios e hipóteses que fervia dentro de sua cabeça. O filme já não era mais tão importante agora, poderia ser visto mais tarde, ou outro dia qualquer. Verme, isso mesmo! E se o homem não fosse mais do que um simples verme – uma bactéria, uma ameba –, o planeta Terra, não mais do que uma célula, o sistema solar ou até a Via Láctea, um órgão qualquer de um ser que jamais seria conhecido por inteiro – assim como o parasita Balatidium coli nunca terá consciência do corpo que escolheu para se desenvolver. Apelar para o fato da existência da inteligência humana, e toda a civilização resultante dela, ou até mesmo invocar a consciência divina que 96 | janeiro DE 2012
parece ser atributo exclusivo do animal chamado homem, não parecia constituir argumentos de peso. Afinal – as ideias misturavam-se, atropelavam-se, exigindo da mente um esforço imenso para tentar alguma ordem no caos de prós e contras que surgiam desordenadamente –, quem pode ter certeza que os vermes, os ácaros, as bactérias, enfim, todos os parasitários, vírus e micro-organismos que fazem do corpo humano seu universo não possuam também a sua “civilização”, sua história e suas crenças? A “lógica” de algumas coisas pareciam agora ganhar uma evidência clara em sua cabeça. Lembrou-se do fato de que quando o corpo fica ameaçado por algum tipo de parasita, ou vírus, é comum que o próprio corpo ponha em ação seus mecanismos de defesa natural, sendo que quando isso não acontece ou sua reação se mostre insuficiente torna-se indispensável o uso de drogas que eliminem, ou pelo menos reduzam ao máximo, a ação nefasta destes micro-organismos. Chegou a esboçar um leve sorriso no canto dos lábios, ao imaginar que os terremotos, furacões, enchentes, ou mesmo as epidemias, as doenças que ceifam milhares de vida ao longo da história humana, poderiam não passar de reações “naturais” desencadeadas pelo sistema imunológico desse corpo desconhecido que o “verme homem” escolheu como hospedeiro para se desenvolver. Quem poderia garantir que nosso belo planeta talvez nada mais seja do que uma célula infectada por hospedeiros – ou seja, nós! – que além de
Os Seres IV Sheila Goloborotko 2008, cologravura, gravura em metal e Chine-collé sobre papel arches, 28 x 38 cm
colocar em risco sua sobrevivência ainda ameaça destruir a própria célula? Estava excitado com sua “descoberta”, que agora já nem lhe parecia ser tão absurda assim. Um pequeno esforço mental, para deixar de lado vários tipos de preconceitos, conceitos, noções de tempo, espaço, e até mesmo abolir, nem que fosse por um breve período de tempo, a crença em tudo que pudesse relacionar-se com religiosidade, fé ou espiritualidade: era tudo o quanto se fazia necessário para admitir, pelo menos, a coerência de sua “teoria”. No entanto, sabia que essa postura, por momentânea que fosse, não era tarefa fácil para a maioria das pessoas; sem levar em conta, ainda, que para muitos seria mesmo uma atitude de heresia, de pecado. Mais uma vez, um pequeno sorriso iluminou sua face ao permitir que sua mente – viajando no tempo e no espaço – o levasse para uma rua qualquer, de uma cidade qualquer do mundo, cheia de homens que andavam apressados por entre cavalos, vendedores ambulantes e senhoras com sombrinhas em uma das mãos e um leque aberto na outra. Ele, com uma enorme foto digital de um ácaro de sujeira, ampliada alguns milhares de vezes, tentava chamar a atenção de alguém – em um dia qualquer do século xvii – para a prova da existência daquele “monstro” em seu cotidiano. — Senhor, senhor, olha para isto: sabia que centenas deles estão grudados em seu corpo, vivendo sob suas unhas ou agarrados nos seus pelos?
— Senhora, sabia que tem milhares deste bicho em suas cortinas de seda, em suas poltronas de veludo? De volta à realidade, imaginava que até um ácaro, ou uma bactéria, podia servir de hospedeiro a outros seres, milhares de vezes menores, que poderiam ainda abrigar outras espécies menores ainda, sendo que estes últimos, por sua vez, poderiam ainda... — Pai, vem deitar comigo, eu não estou conseguindo dormir. A voz da menina quase o derruba da cadeira. Olhou para o relógio no canto da tela e percebeu que já passava das três horas da manhã. Ergueu a menina nos braços, desligou o computador e perguntou-lhe por que não conseguia dormir. A pequena disse que parecia estar vendo monstros horríveis que queriam se agarrar a ela. Ele se ajeitou ao lado da filha em sua cama e começou a contar para ela a história de como Deus criara o mundo: primeiro os animais, depois o primeiro homem e, de uma costela dele, a primeira mulher. A menina sempre lhe pedia para que contasse essa história na hora de deitar. Antes mesmo que a serpente surgisse com o fruto do pecado que levava ao conhecimento, os dois já haviam entrado na escuridão silenciosa do sono profundo que só os puros e os ingênuos conseguem alcançar. Jair Bonfim nasceu em 1961, escreve poemas e contos desde a adolescência. Formado em jornalismo, trabalha no ramo de confecções.
PESQUISA FAPESP 191 | 97
Classificados
Ciência em tempo real O conteúdo de Pesquisa FAPESP não termina aqui. Na edição on-line você encontrará vídeos, galerias de fotos e mais notícias. Afinal, o conhecimento não espera o começo do mês para avançar.
Acompanhe também: @ PesquisaFapesp no twitter e a nossa página no facebook. Visite www.revistapesquisa.fapesp.br e se cadastre para receber o boletim.
Concurso de Professor Doutor - Computação O Departamento de Ciência da Computação do IME-USP abriu um concurso para a contratação de um professor doutor em RDIDP. O Departamento é responsável pelo Bacharelado em Ciência da Computação, pela Pós-Graduação em Computação e pelo Centro de Competência em Software Livre – CCSL, em São Paulo. O Departamento está interessado em pesquisadores que serão responsáveis por disciplinas de Bancos de Dados e Estruturas de Dados. Mais informações sobre a inscrição (prazos e documentação) podem ser obtidas em http://www.ime.usp.br/dcc E-mail: dcc@ime.usp.br
98 | janeiro DE 2012
Fone: 0XX11 3091-6135
Alguns talentos brasileiros acabam indo para o exterior.
Mas com o Ciência sem Fronteiras, eles voltam ainda melhores. Ciência sem Fronteiras é o programa do governo brasileiro que, até 2014, vai destinar a alunos de graduação e pós-graduação mais de 100 mil bolsas para intercâmbio no exterior, além de trazer cientistas de renome e jovens pesquisadores que se destacam lá fora. São os melhores alunos brasileiros nas melhores universidades do mundo.
Ministério da Educação
As chamadas já estão abertas. Informe-se no site www.cienciasemfronteiras.gov.br PESQUISA FAPESP 189 | 99
Biolab 2012 Parceria para inovação Um novo ano começa e com ele, a Biolab renova suas parcerias e o compromisso com a inovação. Para nós, 2012 será impulsionado por novas parcerias para o desenvolvimento de projetos, tecnologias e produtos. Afinal, acreditamos que parceria e inovação são a fórmula certa na busca por qualidade de vida. Em 2012, a Biolab abre suas portas para novas ideias. Aguardem novidades!