Nº 185 ■
Julho 2011
Julho 2011 Nº 185 R$ 9,50 ■
■
Arqueologia magnética Geofísica revê datas de construções pesquisa fapesp
históricas brasileiras
Número de falantes decide destino das palavras na web
Empresas de SP contratam mais pesquisadores
Vacinas da gripe podem ser multiplicadas
paolo nespoli / esa / nasa
imagem do mês
Vista do
espaço Durante os cinco meses que passou na Estação Espacial Internacional, este ano, o astronauta italiano Paolo Nespoli explorou a Terra. Apontando a câmera digital pelas janelas da base em órbita, ele capturou em centenas de imagens a beleza deste planeta, como a região do interior paulista cortada pelo rio Tietê já livre da poluição da metrópole.
PESQUISA FAPESP 185
n
julho DE 2011
n
3
185 |
julho 2011
seções 3 imagem do mês 6 CARTAS 7 CARTA Da EDITORa 8 MEMÓRIA 22 ESTRATÉGIAS 42 LABORATÓRIO 64 LINHA DE PRODUÇÃO 95 Scielo 96 RESENHA 97 livros 98 CLASSIFICADOS
16
44
WWW.REVISTAPESQUISA.FAPESP.BR
política científica e tecnológica
ciência
26 Indicadores
38 Orçamento
44 Estatística
Análise mostra que São Paulo tem mais pesquisadores em empresas e taxa de conclusão no ensino superior maior que a da Espanha
Sociedades científicas vão a Brasília para tentar reverter perda de recursos do pré-sal
capa 16 Análise de fragmentos de tijolos de construções antigas registra enfraquecimento do campo magnético sobre a América do Sul
ENTREVISTA 10 Flavio Alterthum relembra sua contribuição para a pesquisa do etanol e fala da experiência de escrever um livro para crianças
Capa laura daviña foto Christine Balderas/ Getty Images
40 Gênero 34 História II O Programa Bioq-FAPESP impulsionou a bioquímica nos anos 1970 e inspirou políticas de fomento à pesquisa
Alunas da Unicamp se articulam para ampliar presença feminina na engenharia
Físicos e linguista examinam a evolução do vocabulário de comunidades on-line
48 Paleontologia Oeste da Amazônia pode ter abrigado espécie extinta de anta há 40 mil anos
51 Especial ano da química
Componentes químicos estão por trás de doenças, diagnósticos e tratamentos
60
64
70
tecnologia 55 Bioenergia
64 Imunização
Pesquisador extrai o combustível butanol usando vácuo e contraria paradigma estabelecido
Butantan desenvolve tecnologia para ampliar a produção e baixar o custo de vacinas
56 Nutrição
Ribeirinhos trocam o peixe com farinha pelo frango congelado
60 Evolução
Cruzamentos improváveis podem gerar novas espécies de plantas e animais
humanidades 76 Agricultura Novo kit diagnostica precocemente bactéria que devasta pomares
78 Aviação 70 Cardiologia
Coração auxiliar desenvolvido no Instituto Dante Pazzanese deverá ser implantado no primeiro paciente ainda este ano
74 Ação de crianças reduz riscos cardiovasculares dos pais
84
Pequenas aeronaves sem tripulação ganham espaço no Brasil
78 Computação Sistema de animação facial pode tornar mais intuitiva interação com o computador
84 Melancolia As raízes coloniais do entendimento da alma nacional
90 Jesuítas
Biografia mostra Padre Vieira como um hábil articulador político
cartas cartas@fapesp.br
Laura de Mello e Souza Parabéns ao jornalista Carlos Haag pela entrevista com a historiadora Laura de Mello e Souza (“Um país chamado passado”, edição 183).
empresa que apoia a ciência brasileira
Luiz Henrique Dias Tavares UFBA Salvador, BA
Amélia Hamburger Parabéns pelo artigo a respeito da vida profissional de Amélia Império Hamburger, “Os caminhos de Amélia” (edição 183). Amélia era esse tipo de pessoa que faz tanta falta quanto a obra que deixa. Todos os que tivemos o privilégio do seu convívio deploramos sua ausência. Alfredo Marques Centro Brasileiro de Pesquisas Físicas Rio de Janeiro, RJ
Ouriço-do-mar Agradecemos os comentários do doutor Vidal Haddad Jr. (carta publicada na edição 183), que muito nos lisonjeia com o interesse despertado pela reportagem “Venenos mutantes” (edição 182) que aborda partes de nossa pesquisa. No entanto, por ter sido publicada em revista de divulgação científica, esta não se prendeu a detalhes técnico-científicos. Em sua carta à Pesquisa FAPESP, o médico tece alguns comentários que julgamos ser dignos de nota, sendo o primeiro deles referente à ausência de literatura científica sobre o ouriço em questão. Além das publicações de autoria do próprio Haddad Jr. (trabalhos, livros e manuais, incluindo sua tese de doutorado, reportam que Echinometra lucunter é responsável por cerca de 50% dos acidentes atendidos em prontos-socorros nas cidades litorâneas), nosso grupo recentemente publicou um artigo científico sobre a toxicidade do veneno contido nos espinhos de E. lucunter em uma revista conceituada e especializada, no qual citamos o artigo de Haddad Jr., 6
n
julho DE 2011
n
PESQUISA FAPESP 185
em que ele descreve a inflamação decorrente do acidente com o ouriço. Em outro comentário, Haddad corrige a revista quando esta equipara inchaço (ou edema) a granuloma, provavelmente uma simplificação de texto adotado quando da edição da matéria. Por fim, o médico questiona a sugestão dos autores em se realizar um estudo com anti-inflamatórios, associados à assepsia e remoção mecânica dos espinhos, como fonte primária do tratamento dos acidentados com o ouriço; justamente quando o trabalho em curso necessita de um parceiro para avaliar uma alternativa complementar ao tratamento clínico do caso e reduzir a morbidade dos acidentados. Nesse ponto, parece haver resistência por parte de quem pode opinar sobre assuntos como a dermatologia, toxinologia clínica e medicina tropical. Daniel Carvalho Pimenta, Ph.D. Instituto Butantan São Paulo, SP
Do twitter Minha revista @PesquisaFapesp chegou ontem e as matérias sobre autismo e ficção científica na literatura brasileira ficaram ótimas! @thadia (Thádia )
Parabéns à revista @PesquisaFapesp que consegue um canal de comunicação intermediário entre a ciência e a mídia escrita compreensível para leigos. @tiagoooliveira Tiago Oliveira
Correções Há duas incorreções na reportagem “O cérebro no autismo” (edição 184). Primeira: o grupo de Marcos Mercadante, da Universidade Federal de São Paulo, e de Cristiane Silvestre de Paula, da Universidade Presbiteriana Mackenzie, pretende fazer um estudo populacional sobre autismo com amostra representativa de um município, e não de cidades das cinco regiões brasileiras. Segunda: não há centros de atenção psicossocial infantil (CAPSi) voltados só para autismo. Na cidade de São Paulo existem 13 CAPSi ativos, e não 16. Um nanômetro equivale a 1 milímetro dividido por 1 milhão, e não por mil como foi publicado na nota “Em três dimensões”, da seção Linha de Produção (edição 184). Cartas para esta revista devem ser enviadas para o e-mail cartas@fapesp.br ou para a rua Joaquim Antunes, 727 - 10º andar - CEP 05415-012 - Pinheiros São Paulo, SP. As cartas poderão ser resumidas por motivo de espaço e clareza.
carta da editora
fundação de amparo à pesquisa do estado de são Paulo
Celso Lafer
Presidente eduardo moacyr krieger
vice-Presidente
Conselho Superior Celso Lafer, eduardo moacyr krieger, Horácio Lafer Piva, herman jacobus cornelis voorwald, Maria josé soares mendes giannini, josé de souza martins, JOSÉ TADEU JORGE, Luiz gonzaga belluzzo, sedi hirano, Suely Vilela Sampaio, Vahan Agopyan, Yoshiaki Nakano
Viagem transdisciplinar pelo Brasil
Conselho Técnico-Administrativo
Mariluce Moura - Diretora de Redação
Ricardo Renzo Brentani
Diretor Presidente
CARLOS HENRIQUE DE BRITO CRUZ
Diretor Científico
Joaquim J. de Camargo Engler
Diretor Administrativo
issn 1519-8774
Conselho editorial Carlos henrique de brito cruz (presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Arana Varela, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Marcelo Leite, Maria Hermínia Tavares de Almeida, Mariza Corrêa, Maurício Tuffani, Monica Teixeira comitê científico LUIZ HENRIQUE LOPES DOS SANTOS (presidente), cylon gonçalves da silva, FRANCISCO ANTôNIO BEZERRA COUTINHO, joão furtado, Joaquim J. de Camargo Engler, josé roberto parra, luís augusto barbosa cortez, luis fernandeZ lopez, marie-anne van sluys, mário josé abdalla saad, PAULA MONTERO, Ricardo Renzo Brentani, sérgio queiroz, wagner do amaral, Walter Colli Coordenador científico luiz henrique lopes dos santos Diretora de redação mariluce moura editor chefe neldson marcolin Editores executivos Carlos Haag (humanidades), fabrício marques (POLÍTICA), Marcos de Oliveira (Tecnologia), maria guimarães (edição on-line), Ricardo Zorzetto (Ciência) editores especiais Carlos Fioravanti, Marcos Pivetta Editoras assistentes Dinorah Ereno, Isis Nóbile Diniz (edição on-line) revisão Márcio Guimarães de Araújo, Margô Negro editora de arte Laura daviña e Mayumi okuyama (coordenação) ARTE ana paula campos, maria cecilia felli fotógrafo eduardo cesar Colaboradores Ana Lima, André Serradas (Banco de Dados), Daniel das Neves, Igor Zolnerkevic, Larissa Ribeiro, Nelson Provazi, Yuri Vasconcelos
É proibida a reprodução total ou parcial de textos e fotos sem prévia autorização
Para falar com a redação (11) 3087-4210 cartas@fapesp.br Para anunciar (11) 3087-4212 mpiliadis@fapesp.br Para assinar (11) 3038-1434 fapesp@acsolucoes.com.br (11) 3087-4213 rute@fapesp.br Tiragem: 39.450 exemplares IMPRESSão ibep Gráfica distribuição Dinap GESTÃO ADMINISTRATIVA INSTITUTO UNIEMP PESQUISA FAPESP RUA JOAQUIM ANTUNES, Nº 727 - 10º ANDAR, CEP 05415-012 PINHEIROS - São Paulo – SP FAPESP Rua Pio XI, nº 1.500, CEP 05468-901 Alto da Lapa – São Paulo – SP Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia Governo do Estado de São Paulo
instituto verificador de circulação
E
m uma síntese objetiva, a reportagem de capa desta edição de Pesquisa FAPESP trata do registro, por um físico, de uma inesperada queda na intensidade do campo magnético terrestre nas regiões Nordeste e Sudeste do Brasil, enquanto ele se empenhava em conhecer sua variação no país nos últimos 500 anos. Ainda dentro do mesmo espírito objetivo, valeria acrescentar que o evento motivou o estabelecimento de um método de análise de materiais arqueológicos brasileiros que, por sua vez, confirmou ou mesmo definiu as prováveis datas de antigas construções em cidades brasileiras, algumas delas sem qualquer documentação histórica. Mas dando-me a liberdade de adotar um tom mais entusiasmado e com foco ampliado para o contexto da narrativa, o que eu gostaria de dizer aos leitores é que nesta reportagem, elaborada pelo editor especial Carlos Fioravanti, física, geologia, arqueologia e arquitetura cruzam-se num enredo fascinante para contar uma história magnética do Brasil. Pelo texto do jornalista, quase podemos ver um físico, mais arquitetos, arqueólogos e geólogos, munidos de martelos e talhadeiras, às vezes empunhando uma furadeira resfriada a água, a tirar pequenas lascas de tijolos de igrejas e casas coloniais no velho centro de Salvador, Bahia, para enviá-las a centros de pesquisa em São Paulo e em Paris e, assim, nos falar com precisão, mais adiante, de magnetismo e da data de construção da Catedral Basílica no Terreiro de Jesus. Ou das reformas da casa do irreverente poeta seiscen-
tista Gregório de Matos e Guerra, no conjunto do Pelourinho. Vale a pena constatar o desdobramento desse projeto exemplarmente transdisciplinar a partir da página 16. Destaque importante desta edição é a reportagem elaborada pelo editor de política científica e tecnológica, Fabrício Marques, a respeito dos Indicadores de ciência, tecnologia e inovação em São Paulo, com lançamento previsto pela FAPESP para este mês de julho. O volume resulta de um notável trabalho de investigação, levado a cabo por algumas dezenas de especialistas, sobre uma série de tópicos indispensáveis para traçar um retrato fiel e multifacetado da área de CT&I neste estado. Nas mais de 800 páginas do livro, chama a atenção, por exemplo, a força que o setor privado conquistou nos últimos anos no campo de pesquisa: está hoje em empresas a maioria dos pesquisadores paulistas, mais precisamente 53% segundo os números de 2008. Para compreender a dinâmica desse processo e de tantos outros que estão na base do aumento da contribuição paulista para a produção mundial de ciência e tecnologia o leitor deve buscar a página 26. De Fabrício Marques recomendo uma segunda reportagem, posicionada na seção de tecnologia da revista, a partir da página 66. Ela trata da fábrica de vacinas contra gripe do Instituto Butantan, já em funcionamento, e que deve garantir ao Brasil autossuficiência na prevenção contra o vírus influenza para pessoas idosas já em 2012. Boa leitura! PESQUISA FAPESP 185
n
julho DE 2011
n
7
memória
Cartografia no Novo Mundo Neldson Marcolin
Ao lado, rama e flor de mandioca, desenhadas por Pohl no século XIX
Q
uando a América do Sul era ainda um amontoado de colônias hispânicas e portuguesas, dom Fernando VI, da Espanha, e dom João V, de Portugal, firmaram o Tratado de Madri para definir limites territoriais e pôr fim às disputas corriqueiras, em 1750. Para tanto era necessário demarcar as terras com base na ocupação real dos colonos de ambas as nações na América do Sul, que haviam transformado em letra morta o velho Tratado de Tordesilhas assinado em 1494. Para fazer mapas e definir as fronteiras naturais das possessões ibéricas, o governo português criou a primeira Comissão Demarcadora de Limites com engenheiros, cartógrafos, astrônomos e um “riscador” (desenhista). Os astrônomos eram dois “padres matemáticos”, como eram chamados: o jesuíta croata Ignác Szentmártonyi e o presbítero secular italiano Giovanni Angelo Brunelli. Ambos trabalharam na comissão que percorreu a Amazônia brasileira e contribuíram não apenas com medições, mas também com relatos em que tentavam separar a fantasia da razão e explicar usos e costumes da terra. Giovanni Brunelli (1722-1804) era oriundo do Observatório Astronômico da Academia de Ciência do Instituto de Bolonha e chegou a Belém em agosto de 1753 com os demais integrantes da comissão. Em 1754 a expedição partiu de Belém para fazer a demarcação em três tropas para voltar a se encontrar em Mariuá (atual Barcelos), no rio Negro. Eram liderados pelo governador do estado do Grão-Pará e Maranhão Francisco Xavier de Mendonça Furtado, meio-irmão de Sebastião José de Carvalho e Melo, o marquês de Pombal, então secretário de Estado de dom José I. A viagem demorou 88 dias. Em Mariuá a comissão esperou em vão pela chegada dos espanhóis até 1758, quando retornou
Plantarum brasiliae, de Emanuel Pohl
Astrônomos do século XVIII determinaram latitudes na Amazônia e escreveram sobre a região
Desenho de Alexandre Rodrigues Ferreira
biblioteca nacional
Mapa das cortes, de 1749, feito para o Tratado de Madri. A linha vermelha mostra como era a divisão sob o Tratado de Tordesilhas
a Belém. O encontro havia sido combinado para acertar a demarcação do território das colônias dos dois reinos. Brunelli ficou na Amazônia até 1761. Nos oito anos na região escreveu três relatos na forma epistolar. Em 2010, Nelson Papavero, do Museu de Zoologia da Universidade de São Paulo, Nelson Sanjad e William Leslie Overal, do Museu Paraense Emílio Goeldi (MPEG), Abner Chiquieri, da Universidade Federal Rural do Rio de Janeiro, e Riccardo Mugnai, da Fundação Oswaldo Cruz, traduziram pela primeira vez essas memórias para o português e as publicaram no Boletim de Ciências Humanas do MPEG (maio-agosto). “É de Brunelli a mais antiga citação conhecida sobre o candiru, um peixinho muito pequeno e temido na Amazônia porque, às vezes, acredita-se, penetra na uretra de quem se banha nos rios”, conta o zoólogo Papavero. O relato está em Sobre o rio Amazonas, publicado na Itália em 1791. Os dois outros textos de Brunelli chamam a atenção pelo cuidado na descrição e tentativa de explicar algo que parecia misterioso. No primeiro caso, Sobre a mandioca, publicado em 1767,
O esforço em separar a certeza do provável e do improvável aparece em vários relatos de naturalistas até o século XIX
O temido candiru: referência mais antiga conhecida é de Brunelli
ele detalha como se dá o plantio, a manufatura e o consumo da mandioca pelos índios e pela população amazônica. “Ele tem o olhar da etnografia. O relato sobre o uso dessa raiz é inovador e muito preciso”, diz Nelson Sanjad, pesquisador de história da ciência do Museu Goeldi. “Ele não demonstra desdém nem preconceito e escreve várias vezes que a farinha de mandioca, por exemplo, é muito saborosa.” No segundo caso, Sobre a pororoca, que saiu também em 1767, o italiano mostra-se impressionado com o fenômeno que ocorre nas áreas da foz do Amazonas e do Tocantins algumas vezes por ano e não se conforma com as explicações fantasiosas da época. Por meio da observação, tenta interpretar o que acontece, mas também erra: para ele, a pororoca teria origem em canais subterrâneos por onde fluiria e refluiria a água em quantidade e com grande força.
Foi uma das primeiras tentativas de explicar o fenômeno à luz da razão, quando ainda não se conhecia a complexa hidrografia da região. O astrônomo e cartógrafo Szentmártonyi (1718-1793) teve uma vida muito mais acidentada do que o italiano por questões políticas. Quando Pombal decretou a expulsão dos jesuítas de todo o reino, em 1759, ele foi preso ainda em Belém e permaneceu encarcerado em Portugal por 18 anos. Em seu período na Amazônia determinou a longitude de Belém, fez as observações astronômicas para o mapa hidrográfico de parte dos rios Amazonas e Negro, trabalhou nas latitudes e longitudes para uma série de cartas tiradas das cidades e vilas ribeirinhas e escreveu um relato sobre as tribos do rio Negro e Orinoco. O esforço em discernir a certeza do provável e do improvável desses astrônomos – que aparece em especial nos textos de Brunelli – é visto nos diversos relatos de naturalistas que descreveram a Amazônia até o século XIX. “Essa é uma das características da história da ciência e de história da literatura relacionada à região”, diz Nelson Sanjad.
PESQUISA FAPESP 185
n
julho DE 2011
n
9
entrevista
Flavio Alterthum
Lições sobre o etanol do Brasil Mariluce Moura
10
n
julho DE 2011
n
PESQUISA FAPESP 185
ele se recompôs. E na USP, apesar de aposentado. Logo estava inventando novos projetos, coisa que, inquieto sempre, continua a fazer. É sobre esse trajeto de pesquisador e professor, que às vezes traz um curioso paralelismo com as passadas idas e vindas da área de ciência e tecnologia no Brasil, que ele fala nesta entrevista a Pesquisa FAPESP. ■■Depois de fazer o mais indicado livro-texto de microbiologia do país, depois de quatro décadas de um trabalho de pesquisa sério, você resolveu fazer um livro de microbiologia para crianças. Por que esse livro a essa altura da vida? —— “A essa altura da vida” me joga lá pra longe... Eu me formei em 1964. Em 1965 fui contratado na USP e nela estou até agora, embora tenha me aposentado. Tenho dois cursos de pós-graduação. Também tenho atividades na graduação da Faculdade de Medicina de Jundiaí. Estou lá há 15 anos. Mas deixe eu responder à sua pergunta. A pergunta-título do livro, “o que é microrganismo?”, ficou latente desde que as minhas filhas tinham 5, 6 anos de idade. Havia uma musiquinha que falava em bacilos e, sempre que ouviam, elas riam e perguntavam “pai, o que é bacilo?” Claro que elas não sabiam nada de microbiologia. Aquilo ficou na minha cabeça e, como tenho um grande sonho, que é o de ser um contador de histórias – cheguei a fazer cursos, consegui até um certificado –, achei que fazendo um livro para crianças eu teria talvez a oportunidade de começar a contar histórias para pequenos grupos e colocar meu conhecimento à disposição das pessoas. ■■Qual era a música que falava de bacilo naqueles anos? ——Não sou capaz de lembrar. Minhas filhas se lembram da situação, mas não da música ou do cantor. ■■Como e onde você fez o curso de contador de histórias? ——Na USP, uns 20 anos atrás. Era um curso de extensão dado por uma professora de Minas Gerais, especialista em Guimarães Rosa, não lembro o nome dela. Foi interessante porque o curso tirou um pouquinho da minha cabeça a ideia de contar história como eu imaginava. Sempre gostei muito de contar histórias para minhas filhas, do meu jeito. E ela contava as histórias do Guimarães Rosa seguindo o livro. Falei para ela que não queria ser um contador de
fotos eduardo cesar
H
á alguns meses, o professor Flavio Alterthum, 70 anos, coautor do mais conhecido livro básico de microbiologia adotado nas universidades brasileiras, lançou pela editora Atheneu Pai, o que é micróbio?, livro ilustrado de divulgação científica, voltado para crianças a partir dos 7 anos. A primeira edição de 750 exemplares se esgotou rapidamente. A essa altura, sem deixar de dar cursos na pós-graduação do Instituto de Ciências Biomédicas da Universidade de São Paulo (USP) e na graduação da Faculdade de Medicina de Jundiaí, ele planeja cheio de animação outros trabalhos para esse novo público que agora insufla sua velha fascinação pela prática de contar histórias. A divulgação da ciência para crianças é apenas mais um front na vida desse pesquisador acostumado a fazer inflexões significativas na carreira para correr atrás de seus sonhos – que sem dúvida lhe valeram sucessos significativos, mas também alguns reveses bastante duros. No começo dos anos 1990, por exemplo, orgulhoso e entusiasmado, ele exibia, ao explicar o seu então avançado trabalho com bactérias geneticamente modificadas para otimizar a fermentação na produção de etanol, a patente de número 5 milhões que obtivera junto com dois colegas norte-americanos, nos Estados Unidos, para esse processo. O trabalho repercutiu em grandes jornais internacionais, como The New York Times, e brasileiros, como O Estado de S. Paulo e a Gazeta Mercantil. Chegou à televisão. Mas, alguns anos depois, seria possível encontrá-lo decepcionado, talvez mesmo um tanto amargurado, porque seu plano de trabalhar no setor privado usando novos processos em produção de etanol, a convite de uma empresa que viera se instalar no mercado brasileiro, tinha dado com os burros n’água. A empresa simplesmente fechou a filial brasileira, sob argumentos um tanto nebulosos, logo depois de ele ter solicitado sua aposentadoria na USP para embarcar no novo projeto. Alterthum viu-se um tanto perdido naquele momento, com os sonhos esfacelados. Mas professor por excelência, desses capazes de se absorver inteiramente no prazer de estar diante de uma turma de estudantes, falando e também ouvindo, escutando perguntas para com elas construir o fluxo de uma história fascinante, como ele diz, foi nessa atividade mesmo que
histórias com roteiro fixo, e sim ter habilidade para desenvolver, inventar na hora alguma história. Isso está um pouco relacionado à forma como dou meus cursos, principalmente os de pós-graduação. ■■Há então uma relação entre contar histórias e ser um professor de pós-graduação? Qual é o encontro possível entre essas coisas? ——É você conseguir olhar nos olhos dos seus alunos ou dos seus ouvintes e ver que eles estão brilhando. Talvez muitas pessoas tenham esse saber, mas o professor e o ator que se dirige a seu público, ambos percebem quando estão cativando. Se eu conseguir fascinar as pessoas para a microbiologia, fico muito satisfeito. ■■Qual foi a mágica, o pulo do gato que o curso de contador de histórias lhe transmitiu? ——A clara noção de que é preciso ouvir as pessoas e saber trabalhar com as perguntas e o conhecimento que elas têm. Quando você dá uma resposta que traz junto algum elemento que a pessoa já conhece, você a estimula a seguir junto com o que você está propondo. Falo de interação, minhas aulas aqui [na USP] são interativas. E quando não há perguntas, eu formulo as perguntas. ■■Então, na aula, o fio condutor da “contação” de história é a pergunta direta do estudante ou seu repertório de perguntas já ouvidas. ——Perfeito. E no caso do livro infantil foi, primeiro, a pergunta das minhas filhas. Depois fui fazendo as perguntas para as quais eu queria lançar respostas e a Telma Alves Monezi fez as ilustrações. ■■Mas como foi a experiência de traduzir o que você normalmente apresenta a alunos jovens para uma gente muito mais nova e com menor repertório de conhecimento? ——Exigiu muito um movimento de fazer, ouvir, pensar, voltar a fazer, até chegar a um ponto satisfatório. Eu ainda não tinha o retorno que tenho agora, daí fiquei bastante satisfeito quando a minha neta de 4 anos um dia me perguntou: “Ô vô, cê trouxe o livro dos patogênicos?”. Para ela, uma criança de 4 anos que não sabia ler, o patogênico era o desenho de uma bactéria com cara de pato que aparece no livro. ■■Afinal quanto tempo você gastou para chegar ao texto como de fato está no livro? ——Dois anos e meio. A primeira coisa que tive vontade de fazer para o público PESQUISA FAPESP 185
n
julho DE 2011
n
11
aproveitando meu razoável conhecimento de microbiologia – uma das ciências com aplicações mais fáceis de entender –, foi um programa de rádio em que contaria toda semana alguma peculiaridade dessa área. Cheguei a relacionar alguns temas. Por exemplo: a lagartixa, andando no teto não cai. Sabe por quê? ■■Por quê? ——É que a lagartixa tem nas patas uma substância com alta capacidade de aderência, e muitos trabalhos científicos já exploraram isso de algum modo. Por exemplo, clonaram os genes da lagartixa responsáveis pela produção dessa substância, introduziram numa bactéria muito simples, a Escherichia coli, que vira uma máquina e começa a produzir a substância em larga escala. E você tem assim uma cola natural. Não está no mercado porque na etapa de produção ela vira uma goma tão forte que até agora ninguém conseguiu separar essa maçaroca. É um exemplo entre tantos. Outro é o da teia de aranha, uma das substâncias naturais com a maior capacidade de resistir ao impacto. De novo, genes da aranha que codificam para a produção da proteína responsável por essa característica de resistência foram postos na E. coli. A Nasa estava interessada porque queria criar um tecido pra amortecer impacto, interesse semelhante havia na Fórmula 1, e hoje tem um material que é feito dessa forma. Eu quis fazer um livro, algum trabalho ilustrado com essas coisas, propus ao Laerte [Coutinho, cartunista], mas ele disse que estava com muitos compromissos e, enfim, não deu. Aí veio essa história do livro de microbiologia. Gosto de especular sobre os limites do uso desse conhecimento, de experimentar as possibilidades de interatividade das coisas. Isso me fascina! ■■Se há um potencial de fascínio do conhecimento científico para todas as idades, por que parece ser tão parca a cultura científica entre, por exemplo, alunos brasileiros do ensino médio ou fundamental? ——Não existem tantos livros disponíveis ou não se conseguiu ainda fazer divulgação de uma forma simples, agradável, desde o começo da formação das pessoas. Eu não sabia que existia microbiologia antes de entrar na universidade. ■■O seu livro termina com a pergunta “Mas pai, o que é sustentabilidade?”. Então resuma para nosso leitor qual é o percurso que o livro faz pra explicar às crianças o que é micróbio. Aliás, resuma um pouco a ideia do livro. 12
n
julho DE 2011
n
PESQUISA FAPESP 185
——É a coisa mais simples a partir de perguntas. Então, quem são os micróbios? Bactérias, fungos, protozoários, algas, vírus... Onde eles vivem? O que fazem? Só coisas ruins? Ou eles fazem coisas boas também? E aí eu vou pegando cada grupo e falo um pouco. Digo o que eles fazem na natureza, de bom e de ruim. Porque, além de falar sobre as doenças, falo também sobre as aplicações positivas dos microrganismos: produção de alimento, de bebidas alcoólicas, de antibióticos, combustíveis, como é o caso do etanol. Explicamos qual é a importância de um ruminante ter uma microbiota no seu rúmen (parte do aparelho digestivo) e por aí seguimos. ■■Não se tem muito a noção de que nós, seres complexos, e todos os outros macrorganismos somos, de certo modo, uma imensa colônia de microrganismos. É engraçado que isso assuste parte das pessoas, não? ——É porque esse fato é pouco conhecido: nós temos muito mais microrganismos no nosso organismo do que células. Uma pessoa adulta, normal, tem 1014 microrganismos diferentes no intestino. Ou seja, são 100 trilhões de microrganismos no intestino. E isso só falando de bactérias. Os vírus nem contamos porque não há uma estimativa possível. Enquanto células temos 1012, por aí. Somos muito mais microrganismos do que nós mesmos. É uma coisa inacreditável! Aí dá para entender por que é que um vírus derruba uma pessoa de pneumonia. São trilhões de indivíduos produzindo algo tóxico.
■■Tomei conhecimento de seu trabalho no começo da década de 1990, graças a suas pesquisas com etanol. Uma delas, ligada à aplicação de microrganismos para produção de álcool, tinha rendido uma patente de número mágico nos Estados Unidos, 5 milhões, que foi, aliás, para a primeira página da Gazeta Mercantil naquele momento. ——Vou tentar resumir essa história. Dois meses depois que terminei o doutoramento em 1971, na USP, fui para a Universidade de Bath, na Inglaterra, fazer um pós-doc. Fui trabalhar com fisiologia de levedura e a escolhida era a Saccharomyces cerevisiae. Na universidade, é interessante como a gente acaba sendo especialista. Na realidade, fui estudar a membrana da S. cerevisiae, ou melhor, os ácidos graxos dos fosfolipídeos da membrana – os insaturados. Com esse conhecimento, mais tarde trabalhei com o mecanismo de ação de antibióticos que atuavam na membrana de leveduras. Em 1975 começou aqui no Brasil o Proálcool, que é produção de álcool usando S. cerevisiae. Me interessei, achei que era uma ótima oportunidade para usar meu conhecimento sólido dessa levedura. Passei a visitar usinas de álcool para ver como era feita a fermentação, porque uma coisa é a universidade, onde a gente trabalha num volume de 50, 100, 200 mililitros, e outra é a usina, com tanques de fermentação com 300 mil, 400 mil litros. É uma escala bem diferente e os problemas são outros também. Adquiri um ótimo conhecimento, me envolvi com professores da Esalq [Escola Superior de Agricultura Luiz de Queiroz], aí fui consultor durante algum tempo do IPT [Instituto de Pesquisas Tecnológicas de São Paulo], nessa área de fermentação alcoólica, e estava trabalhando nisso quando achei que devia ir para um centro mais avançado. Encontrei o professor Lonnie Ingram, da Universidade da Flórida, pensei: “Poxa, esse camarada faz um trabalho muito legal em fermentação alcoólica”. Pedi uma bolsa no CNPq [Conselho Nacional de Desenvolvimento Científico e Tecnológico], fui agraciado. Cheguei no laboratório dele, comecei a trabalhar com álcool. Aí vi que ele estava começando um novo projeto: utilização de uma bactéria para produção de álcool empregando os genes de outra bactéria, a Zymomonas mobilis. Me interessei e escrevi uma cartinha para o CNPq dizendo: “Gostaria de mudar o meu projeto porque estão começando um novo projeto também na área de álcool”. Na verdade, ali já se estava trabalhando com organismo geneticamente modificado. E eu tive sorte,
digamos assim... porque essa patente... A minha vida toda é muito cheia de sorte. ■■A sorte não é o resultado de um trabalho intenso, em certa medida? ——Eu tenho muita sorte. Pegar o gene de um microrganismo e transferir para outro é fácil de fazer. Mas esse gene precisa se expressar. Além disso, precisa ficar estabilizado dentro desse microrganismo e continuar tendo uma longa produtividade. E era justamente isso que os americanos sabiam fazer. O grupo era muito forte do ponto de vista de biologia molecular, de genética, de transferência de material genético, só que na parte de fisiologia do microrganismo estava patinando. Quando começaram os ensaios, produziram uma quantidade muito pequena de álcool. Aí é que foi a minha sorte conhecer a fermentação alcoólica e essa bactéria que normalmente não é uma bactéria que fermenta, que produz álcool. Com as adaptações que eu fui fazendo no processo, o microrganismo começou a produzir uma quantidade suficiente de álcool, que passou a ser interessante do ponto de vista tecnológico. ■■Qual foi exatamente o conhecimento que você agregou a essa linha de pesquisa da Flórida? ——Um processo fisiológico de um microrganismo é sempre dependente de muitas variáveis. Aí você precisa sintonizar, harmonizar as informações e o comportamento do microrganismo. Você acerta o pH, mexe com a temperatura, adiciona alguma substância que interfere ou retarda o crescimento. Acerta a concentração de um determinado sal, ou de um cátion, ou de um ânion. São esses os ajustes. E, nesse caso, para um microrganismo que nunca foi um produtor de álcool. E queríamos simplesmente que ele passasse a produzir a maior quantidade – o que você desse de açúcar para ele, ele seria capaz de produzir álcool. Foi isso que conseguimos e foi um grande resultado. O que teve ainda de mais interessante é que usamos algumas propriedades da Escherichia coli, que é a capacidade de utilizar muitos açúcares diferentes. Quando eu digo utilizar, significa crescer e se multiplicar. Normalmente, a Saccharomyces cerevisiae não consegue fermentar esses açúcares que existem na natureza. Com os genes que a gente introduziu a nossa bactéria começou a utilizar os açúcares, começou a produzir álcool a partir de xilose.
Transformar o bagaço da cana em etanol é o sonho de todo mundo. É a busca de tecnologias de produção do etanol em novas bases ■■E a “nossa bactéria” é a própria E. coli? ——É E. coli geneticamente modificada. ■■Em que medida esse conhecimento foi agregado à produção no Brasil e nos Estados Unidos? ——Zero. ■■Por quê? ——A patente saiu em 1991. Há que se pensar que os países estavam, e ainda estão hoje em dia, muito dependentes do petróleo. Dependentes não só do combustível, mas também do ponto de vista de toda uma cadeia industrial. E o álcool poderia competir com a gasolina. Naquela época as indústrias de petróleo eram muito poderosas, como são até hoje, e não queriam saber de álcool em nenhum país. Mesmo aqui no Brasil, naquela época, houve uma ocasião em que o preço do álcool não era competitivo com o da gasolina, então todo mundo achava que o álcool não precisava ser feito. Tanto é que, no final dos anos 1990, o Brasil quase extinguiu o Proálcool. ■■Mas depois o preço do petróleo aumentou... ——Voltou a subir, aí passava a ser interessante o álcool. Mas nem se falava de poluição, sustentabilidade. ■■De qualquer sorte, a questão do etanol começou a virar algo desejado e aumentou o interesse em obter álcool de celulose, a nova geração de etanol, essa corrida já tem uns cinco anos...
——É a busca de tecnologias de produção de etanol em novas bases. Para produzir álcool, você corta a cana, leva pra usina, tira o caldo, fermenta esse caldo e produz o etanol. O que sobra é o bagaço. E esse bagaço tem ainda celulose, hemicelulose e lignina. Essa celulose e essa hemicelulose são polímeros de açúcares, potencialmente transformáveis em álcool por algum tipo de organismo, se conseguirmos fazer isso. Você teria que quebrar a celulose. Para essa hemicelulose, o nosso processo serve. E quando eu voltei dos Estados Unidos, corri em inúmeras usinas no interior de São Paulo, dizendo: “Olha, há um processo que permite fazer a hidrólise do bagaço da cana. Desse hidrolisado pode-se fazer álcool. Isso vai dar em torno de 10% a 15% a mais de álcool se desenvolvermos os processos tecnologicamente”. Lá nos Estados Unidos fizemos numa escala pequena. Essas duas matérias-primas já estão dentro de uma usina. Conseguir transformar tudo isso em etanol é o sonho de todo mundo. Só que ninguém conseguiu ainda. ■■E por quê? ——Porque a quebra da celulose é uma quebra quimicamente difícil de fazer. Não se consegue do ponto de vista industrial. Você pode quebrar, existem enzimas pra isso, só que isso ainda não é economicamente viável. O que eu acho interessante nessa história toda é que no final do ano passado eu fui lá pra Campinas, no CTBE [Laboratório Nacional de Ciência e Tecnologia do Bioetanol]. Fui conhecer o que se propõe a fazer, etanol de segunda, terceira geração, e assim por diante. E qual não foi a minha surpresa quando os pesquisadores de lá me disseram o seguinte: “Nós estamos chamando você aqui porque queremos falar um pouquinho sobre a E. coli”. Me mostraram um trabalho que saiu no final do ano passado demonstrando que o melhor microrganismo pra se produzir álcool até agora é a E. coli. Eles estavam querendo ressuscitá-lo. O meu processo foi feito há 17 anos. É um processo antigo... ■■Qual é a sua expectativa em relação às tecnologias que nesse momento estão sendo trabalhadas? ——Quando eu estava trabalhando como pesquisador ainda nesse assunto achava que era uma questão muito rápida pra ser resolvida do ponto de vista tecnológico. Porque ou você vai fazer algo que se chama hidrólise enzimática, ou vai fazer hidrólise química. A minha experiência é com hidrólise química. E isso eu cheguei a PESQUISA FAPESP 185
n
julho DE 2011
n
13
fazer, tem vários alunos de pós-graduação que fizeram trabalhos com hidrólise química, seguido de fermentação. A gente tinha resultados que são os mais promissores, iguais aos dos americanos. É uma questão de se ter dinheiro suficiente para fazer em escala maior e ver se se consegue obter os mesmos resultados. Em microbiologia não tem segredo. Se vai entrar em escala, tem que testar. Não é uma reação química, que tanto faz colocar 1 quilo ou 10 quilos ou 100 quilos, que ela será sempre a mesma. Em microbiologia não é assim. Tem que gastar em pesquisa e é isso que os usineiros aqui no Brasil não gostam de fazer. Quando eu estava fazendo as minhas visitas, eu ia vender o meu peixe para eles e a pergunta era “quanto vamos ganhar a mais?”. Nunca “quanto nós vamos investir?”. ■■Qual é o trabalho mais avançado em relação a essa questão do etanol hoje? ——Eu acho que a vertente mais limpa para fazer isso será quando tivermos enzimas suficientes pra quebrar todas essas macromoléculas. E aí você não vai precisar nem de microrganismo geneticamente modificado. Vai usar a velha e clássica levedura pra produzir álcool a partir da glicose. ■■Os resultados ainda estão longe nesse sentido? ——Do ponto de vista industrial, estão longe. ■■Qual é a o maior desafio do ponto de vista industrial e do ponto de vista de conhecimento para a se conseguir essa transformação total da biomassa em açúcar... em glicose? ——Creio que são conhecimentos de metabolismo de célula. Os microrganismos têm controle da sua atividade metabólica. Nós e os microrganismos, porque, bioquimicamente, você é igual a uma bactéria. Se as células do nosso organismo estiverem na presença de um açúcar que, por exemplo, é a glicose e na presença de outro açúcar que é a xilose, primeiro ele vai utilizar a glicose, depois vai para outro açúcar, depois para um terceiro açúcar, depois para um quarto açúcar. O organismo tem um mecanismo de economia. Tem uma via metabólica já organizada. Quando você pega uma biomassa como essa, na qual há muitos açúcares juntos, o microrganismo vai ter que primeiro utilizar um desses açúcares para depois utilizar o outro açúcar. Essa biomassa ainda está muito grande, complexamente misturada, e não vai ser possível ainda conseguir isso. 14
n
julho DE 2011
n
PESQUISA FAPESP 185
A universidade privilegia quem faz pesquisa. Quem é bom professor passa despercebido. A universidade tem que formar gente
■■Em que horizonte de tempo isso deve acontecer? ——Pesquisa depende de gente e de dinheiro. E o álcool é muito interessante porque nós somos altamente dependentes do preço do petróleo. Não estou falando só no Brasil, mas no mundo todo. Econômica e culturalmente também. Eu sou um pouco cético em relação a isso que se diz “não, mas o álcool é menos poluente que a gasolina”. Seguramente é! Mas nessa conta não entra esse preço. Isso está vindo lentamente, está muito devagar. Por isso que eu ainda acho que se o preço do petróleo for lá em cima, ótimo. Ótimo porque o álcool vai ser importante. Se o preço do petróleo ficar lá embaixo (e o Brasil tem perspectivas de deixar o preço de o petróleo lá embaixo em função do pré-sal), isso vai afetar o álcool. ■■Você considera que o trabalho com a Escherichia coli constitui o eixo fundamental de toda a sua vida de pesquisa? Ou agrega outros estudos? ——Eu sempre dividi muito a minha atividade de professor e a minha atividade de pesquisa. Sempre fui muito dedicado ao ensino, sempre fui um professor. E acho difícil a gente ser as duas coisas. ■■Como assim? A cultura da universidade exige que se conjuguem a pesquisa, o ensino e a extensão. ——Pois é. Acontece que a universidade privilegia quem faz pesquisa. Quem é
um bom professor passa despercebido. Eu consegui sobreviver sendo um professor. E gosto. Faço isso por achar que na universidade a principal função é passar o conhecimento para os estudantes. A universidade tem que formar gente. ■■Mas não é desejável formar gente e ao mesmo tempo fazer pesquisa? ——Tem cursos em que você não tem pesquisa e tem excelente qualidade de formação de pessoal. Tudo bem, a pesquisa ajuda bastante o indivíduo a ter essa experiência associada ao conhecimento. Mas, como eu disse, acho que é importante a gente ser bom professor. Isso leva tempo. Cada vez que você vai repetir uma aula, tem que pensar nela, o que deu certo, o que não deu certo, o que você pode modificar. ■■Como nesse seu trabalho de ensino e pesquisa entrou a produção do livro Microbiologia? ——Acho que também faz um pouco parte da ideia da divulgação da microbiologia, do acesso à microbiologia. Esse é um livro essencialmente para estudantes das áreas médicas, principalmente graduação e pós-graduação. Estou sempre tentando divulgar a microbiologia. ■■De onde vem seu fascínio pela microbiologia? ——A partir das pessoas que eu conheci na USP. O meu professor de microbiologia na Faculdade de Farmácia e Bioquímica no primeiro dia de aula me chamou e disse: “Eu já conheço você”. Eu tomei um susto. Ele tirou uma fotografia e mostrou a minha mãe com um bebezinho no colo. “A sua mãe foi minha professora de alemão.” Esse professor, que se chamava Lúcio de Carvalho Lima, foi uma pessoa magnífica na minha vida. Já faleceu há muito tempo. Foi quem me deu a motivação. Eu fiz a disciplina dele e, quando terminei, ele me convidou pra ser monitor nos dois anos seguintes. Ele estava fazendo a tese de titular dele. E eu ajudei nesse trabalho. ■■Qual era o tema da tese? ——A produção de piocianina, que é um pigmento de Pseudomonas aeruginosa. Assim que eu terminei a faculdade, em 1964, ele me convidou pra ser assistente. Naquela época não tinha concurso, era indicação, ele era o catedrático. Com ele eu aprendi muito mais a ser um professor. Ele era um excelente professor.
■■Voltando ao seu livro, algumas edições foram feitas em parceria com o microbiologista Luiz Rachid Trabulsi. Ele, aliás, começou sozinho, não? ——O Trabulsi tinha duas edições já feitas. Ele começou na Faculdade de Medicina da USP, depois foi pra Escola Paulista de Medicina. Posteriormente, quando eu era chefe de departamento na USP, ele veio para o nosso departamento. Eu já tinha muita ligação com ele porque fiquei muito envolvido com a Sociedade Brasileira de Microbiologia. Fui tesoureiro, secretário, presidente, vice-presidente. Depois fui muitos anos editor da Revista de Microbiologia e ele foi presidente da sociedade. Depois da segunda edição ele me convidou pra ser editor junto com ele. A terceira e a quarta edição fizemos juntos. Mas nessa quinta edição ele tinha falecido e eu fiz sozinho. ■■Você foi de um manual técnico a uma história para crianças. Como antevê os seus próximos anos de produção? ——Estou trabalhando num outro livro para fazer esse meio-campo. Eu cheguei do extremo da pós-graduação até a fase inicial da educação. Aqui tem uma interface que eu quero fazer. Mas esse livro ficou de stand by, digamos assim. A repercussão do livro para crianças pra mim foi surpreendente. Em um mês de lançamento, ele praticamente já está esgotado. Foram 750 exemplares. Eu fiquei responsável, junto com a Telma, por essa série, Você Sabia?. A gente vai fazer o livro da sustentabilidade e tem gente me cobrando um sobre doenças sexualmente transmissíveis. São ideias que estão aparecendo. Não quero fazer sozinho. Quero é ver se eu consigo pessoas que tenham essa característica, de poder colocar histórias no papel de uma forma agradável, fácil, e com conhecimento correto. ■■Se tivesse que resumir a sua carreira, diria que há uma fase em que você se concentra mais em pesquisa e que depois se volta mais para ensinar? ——A minha saída da universidade se deu pelo seguinte motivo. Em 2003 existia a possibilidade de uma firma americana que tinha direitos adquiridos da patente número 5 milhões se instalar aqui no Brasil. Eles tinham feito tratativas com uma usina de álcool em Goiás e queriam instalar o processo naquela usina usando a nossa bactéria. Eu estava superanimado com essa perspectiva. E para fazer isso tinha que deixar a universidade. E eu já
tinha tempo de serviço, em outubro pedi a aposentadoria porque em janeiro ia começar a trabalhar. Em dezembro chegou ao Brasil o presidente da empresa que tinha comprado essa firma que ia fazer o trabalho aqui no país, me chamou e disse: “Olha, o Brasil não é mais a nossa prioridade, nós não vamos fazer mais nenhum negócio aqui. Nada disso vai ser mais feito”. E aí eu estava aposentado. E eu parei de fazer pesquisa na universidade, saí da universidade naquele instante, porque eu ia fazer pra mim a melhor pesquisa, que era instalar uma usina de produção de álcool. ■■A empresa americana não teve nenhuma visão estratégica. ——Mas sabe quem era o dono dessa nova firma? Era um ex-prefeito da cidade de Saint Louis que era o testa de ferro da indústria de petróleo. Ele queria matar a empresa que desenvolveu o nosso processo lá na Universidade da Flórida. ■■E qual que era a empresa? ——Chama-se Quadrex. Nem chegou a se instalar. Estava tudo acertado quando, lá nos Estados Unidos, a Bio Energy, que era a inicial, foi comprada por essa Quadrex. ■■Quer dizer, então, que a sua experiência difícil não foi com a universidade? ——Não. Nessa fase quem me frustrou foi a indústria, uma empresa americana que ia fazer um projeto aqui no Brasil que pra mim seria o ápice do ponto de vista de um
trabalho começado desde o laboratório até uma escala industrial. Fui cortado nesse instante e perdi o bonde da história. ■■Mas você recebeu depois alguns recursos pelo licenciamento dessa patente número 5 milhões? ——Não, porque ela não foi licenciada ainda, já que a empresa desistiu. Essa empresa que desistiu tinha comprado uma licença de utilização da patente. Mas a patente ainda existia na Universidade da Flórida, foi comprada por uma usina japonesa que estava produzindo álcool a partir de serragem usando a nossa bactéria. A serragem também é a mesma coisa, celulose e hemicelulose. Quando estava para expirar a patente, eu recebi uma carta da Universidade da Flórida dizendo: nós vamos pagar os royalties pra você. E mandaram US$ 340 pra mim. Eu fiquei felicíssimo porque ganhei esses US$ 340. O que eu acho interessante é que tudo isso traz satisfação. Isso aí é o lado cômico da história. Porque é óbvio que não fiz pensando em ganhar dinheiro. É interessante que tenha saído a notícia da patente no New York Times. Aí é que O Estado de S. Paulo, lendo o New York Times, viu que existia um Flavio Alterthum. Saiu a notícia aqui no Brasil e fui entrevistado no Jô Soares, no Fantástico, no Jornal Nacional, na CNN. A gente gosta de estar na crista da onda de uma coisa boa. Isso é um lado folclórico, um lado bom, um lado feliz da minha vida... Aliás, eu sou feliz. n PESQUISA FAPESP 185
n
julho DE 2011
n
15
capa
A história magnética
do Brasil
D
urante quatro anos, o físico Gelvam Hartmann coletou e examinou quase 600 fragmentos de tijolos de igrejas e casas antigas da Bahia, de São Paulo, do Rio de Janeiro e do Espírito Santo para conhecer a variação do campo magnético terrestre sobre o Brasil nos últimos 500 anos, um período sobre o qual praticamente não havia informação do ponto de vista geofísico. Seu trabalho registrou uma inesperada queda na intensidade do campo magnético nas regiões Nordeste e Sudeste e, a partir daí, estabeleceu um método de análise de materiais arqueológicos brasileiros que confirmou ou definiu as prováveis datas de construções antigas, algumas delas sem nenhuma documentação histórica. Ao lado de arqueólogos, arquitetos e geólogos, Hartmann tirou pequenas lascas de tijolos de igrejas e casas coloniais do Pelourinho, no centro histórico de Salvador, com martelo e talhadeira quando era possível ou, quando não, com uma furadeira resfriada a água. Aos poucos, enquanto examinava esse material no Instituto de Física do Globo de Paris (IPGP) e no Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da Universidade de São Paulo (USP), ele construiu a história magnética do Brasil, ao confirmar as datas das construções e associá-las com as respectivas intensidades magnéticas. Assim é que emergiu uma informação nova – a intensidade do campo magnético, de 36,2 microteslas (tesla é a unidade de medida da densidade de fluxo magnético) – de uma das mais antigas construções do Brasil,
Análise de fragmentos de tijolos de construções antigas registra enfraquecimento do campo magnético sobre a América do Sul |
Carlos Fioravanti
a Catedral de São Salvador, erguida pelos jesuítas entre 1561 e 1591 com dinheiro do terceiro governador-geral do Brasil, Mem de Sá, e um sino trazido de Portugal. Quase não houve problemas com a maioria das amostras das fundações e das paredes das igrejas de Salvador, mas, estranhamente, a análise de uma amostra da casa do poeta Gregório de Matos, conhecido como Boca do Inferno por causa do sarcasmo com que tratava as autoridades de Salvador, indicou que a construção teria sido erguida em 1830, não entre 1695 e 1700, como os documentos indicavam. Hartmann verificou depois que essa era a data apenas do terceiro piso – construído mais tarde –, de onde ele havia coletado amostras de tijolos quando aquela parte da casa passava por uma restauração. “Os geofísicos estão nos ajudando a contar a história da ocupação do Brasil”, reconhece Marisa Afonso, professora de arqueologia e vice-diretora do Museu de Arqueologia e Etnologia (MAE) da USP. Em abril de 2004, ela atravessava um longo dia chuvoso no centro regional do MAE em Piraju, interior paulista, quando recebeu um e-mail de Ricardo Trindade, professor do IAG e orientador de Hartmann no doutorado. De Paris, Trindade a convidava para ajudar a construir a curva de datação de materiais arqueológicos, como ainda não havia sido feita no Brasil, usando registros do campo magnético, nos moldes do que ele já tinha visto por lá. “Quanto mais métodos de datação, melhor, porque as técnicas mais usadas, como carbono 14 e termoluminescência, nem sempre funcionam
A energia do passado
Gelvam Hartmann / IAG-USP
A intensidade do campo magnético nas regiões Nordeste e Sudeste tem diminuído desde o século XVI
Salvador, BA Solar Conde dos Arcos (hoje Colégio 2 de Julho), construído de 1780 a 1781, tem campo magnético de 32,1 microteslas
Anchieta, ES
Rio de Janeiro, RJ
Niterói, RJ
Igreja da Venerável Ordem Terceira de São Francisco da Penitência, de 1622 a 1654, com 39 microteslas
Igreja de São Lourenço dos Índios, de 1622 a 1633, com 41,3 microteslas
Angelica Monnerat/ flickr
Igreja Nossa Senhora da Assunção, de 1584 a 1598, com 40,8 microteslas
Piracicaba, SP Museu Prudente de Moraes, de 1870, com 27,7 microteslas
Botucatu, SP
Iperó, SP
Fazenda Lageado, de 1895 a 1901, com 26,2 microteslas
Real Fábrica de Ferro, de 1790 a 1800, com 31,4 microteslas
em todos os casos”, diz ela. “Por sorte tanto Gelvam quanto Ricardo gostam de arqueologia e sabem falar do que fazem de maneira simples.” Ao mesmo tempo, Hartmann e outros pesquisadores do IAG estão detalhando as variações do campo magnético terrestre, principalmente nas regiões onde é menos intenso. O campo é gerado pelo movimento do ferro líquido no núcleo da Terra, expressa-se na superfície do planeta, orientando as bússolas, e forma uma barreira invisível a 30 mil quilômetros acima da superfície do planeta que dificulta a entrada de partículas vindas do Sol. Agora está claro que a região onde o campo é mais fraco em toda a superfície terrestre, a Anomalia Magnética do Atlântico Sul, está se deslocando e se expandindo. Antes restrita ao sul da África, essa área atualmente cobre parte do sul da América do Sul e quase todo o Atlântico Sul. 18
n
julho DE 2011
n
PESQUISA FAPESP 185
O
ponto de menor intensidade dessa mancha está se deslocando para oeste: já esteve no sul da África, e depois no meio do Atlântico Sul, a meio caminho entre o Brasil e a África do Sul. Por volta de 1930 estava perto da cidade do Rio de Janeiro, migrou para o sul e estacionou sobre o estado de Santa Catarina e atualmente se encontra no Paraguai, com uma intensidade de cerca de 22 microteslas (ver mapa). Algumas consequências são conhecidas: justamente nas áreas onde o campo é mais fraco os satélites de telecomunicações e os ônibus espaciais podem sofrer mais interferências magnéticas, que podem danificar seus equipamentos, tanto quanto, em uma escala menor, um ímã pode desmagnetizar um computador e o fazer perder as informações. Os resultados surgiram após uma série de surpresas, nem todas agradáveis.
Hartmann conta que se sentiu desarvorado em maio de 2008, logo no início de um estágio de seis meses no laboratório de paleomagnetismo do Instituto de Física do Globo de Paris. Seu propósito era caracterizar o campo magnético do material que tinha levado – fragmentos cerâmicos brasileiros dos últimos 2 mil anos –, mas as coisas começaram a dar errado. “Yves Gallet, o chefe do laboratório, disse que eu não conseguiria analisar aquelas peças, por não estarem bem cozidas por dentro. Cerâmicas, tijolos, telhas ou qualquer outro material que passou por um aquecimento intenso podem guardar o registro do campo magnético da Terra no momento do cozimento, mas, para isso, têm de ter sido assados de modo uniforme. Yves me fez uma proposta: ‘Vá para o Brasil, fique lá 20 dias, colete material histórico, de no máximo 500 anos, e volte; te pago a passagem’”, conta Hartmann.
Rosana Najjar/ iphan Gelvam Hartmann / IAG-USP
Ele desembarcou em Salvador, a primeira capital do Brasil. De imediato procurou Carlos Etchevarne, professor de arqueologia da Universidade Federal da Bahia (UFBA) que conhecera em um congresso três anos antes, e Rosana Najjar, arqueóloga do Instituto do Patrimônio Histórico e Artístico Nacional (Iphan) e coordenadora do Projeto Pelourinho de Arqueologia (Monumenta/ Iphan). Etchevarne e Rosana o apresentaram a outros arqueólogos, que o ajudaram a coletar fragmentos de tijolos de fundações, paredes ou tetos de 20 construções antigas do Pelourinho. “Nunca tínhamos trabalhado antes com físicos”, conta Etchevarne, “mas conseguimos um diálogo muito bom, rapidamente, com objetivos comuns”. Eles selecionaram prédios cuja data de construção já era conhecida por meio de registros históricos ou de pesquisas arqueológicas. A razão é simples:
Hartmann precisava de uma referência inicial para estabelecer a data de construção por seus próprios métodos, medindo a intensidade dos resquícios do campo magnético registrado em minerais ferrosos como a magnetita e a hematita, que compõem a argila usada para fazer os tijolos dessas construções. Tanto quanto a data, lhe interessava a intensidade do campo magnético no momento do cozimento. “O campo magnético da Terra oscila incessantemente, em diferentes escalas de tempo, de milissegundos a bilhões de anos, de modo que fragmentos de construções com idades distintas registram valores do campo também distintos”, diz ele. De volta a Paris, Hartmann conta que trabalhou “16 horas por dia, incluindo sábados e domingos”, durante dois meses para determinar a idade e a intensidade do campo magnético do material que havia levado. Com essas e outras amostras colhidas em outra viagem a Salvador, ele confirmou por seus próprios métodos as datas de construções históricas, afinando as técnicas de trabalho. “Esses dados servem de ferramenta de datação de construções históricas”, atesta Trindade, que acompanhou a segunda expedição a Salvador, em dezembro de 2008. Servem mesmo. À medida que dominava a técnica e criava uma associação entre as datas e as intensidades do campo magnético, Hartmann pôde definir a data de construção – entre 1675 e 1725 – de uma casa do Pelourinho, a de número 27, da qual os arqueólogos não tinham nenhuma documentação.
N
o instituto em Paris e no IAG, Hartmann preparou 295 amostras de 14 igrejas e casas de Salvador. Depois, na Região Sudeste, percorreu casas de fazenda, igrejas e outras construções de São Paulo, ao lado do arqueólogo Paulo Zanettini, e do Espírito Santo e do Rio de Janeiro, com a arqueóloga Rosana Najjar, e obteve mais 289 amostras de 11 lugares. Hartmann deixou as amostras no formato de cubos com um centímetro de lado. Depois submeteu as amostras ao forno paleomagnético, que, após sucessivos aquecimentos e resfriamentos, resgata a intensidade e a orientação do campo magnético no momento em que a argila foi queimada pela pri-
meira vez. É um método demorado e, por enquanto, de baixa eficiência: Hartmann obteve boas informações de apenas 56% das amostras do Nordeste e de 38% das do Sudeste.
D
epois de assar, resfriar e medir no magnetômetro as amostras de cada lugar que visitou, Hartmann construiu as curvas de variação da intensidade do campo magnético para cada região. A do Nordeste exibiu valores decrescentes – em torno de 40 microteslas em 1560 para 25 em 1920 – com uma queda de aproximadamente cinco microteslas a cada século. “É bastante”, diz ele. Os valores das amostras da Região Sudeste apresentaram uma queda mais acentuada, como detalhado em um artigo publicado este ano na revista Earth and Planetary Science Letters, onde em 2010 saíram os dados sobre o Nordeste. “Os dois artigos representam uma contribuição fundamental para a compreensão da evolução do campo magnético terrestre nos últimos 500 anos”, assegura Trindade. O geofísico Igor Pacca, professor do IAG e um dos pioneiros no Brasil no estudo do campo magnético terrestre, levantou as informações de milhões de anos atrás, registradas em rochas. As mais recentes, do início do século passado para cá, estão sendo coletadas por observatórios terrestres e satélites. Ao menos nas primeiras tentativas, essa técnica não serviu para datar pinturas rupestres, nem panelas de barro, que perderam o campo magnético original por terem ido muitas vezes ao fogo, nem as casas dos bandeirantes paulistas, feitas de barro amassado e prensado. Etchevarne acredita que talvez sirva para esclarecer as origens de potes de água, que só passam uma vez por temperaturas altas. “Um dos próximos desafios é encontrar como datar materiais com mais de 500 anos que não foram tão bem queimados”, diz Marisa. “Já pedi a Gelvam para não desistir. Temos peças de cerâmica de até 7 mil anos para datar.” Hartmann já começou a trabalhar com amostras colhidas em Missões e pretende examinar as igrejas de Minas Gerais o mais breve possível para ampliar as análises da variação do campo magnético entre as regiões do Brasil. Segundo Trindade, essas análises regionais mostraram que o campo PESQUISA FAPESP 185
n
julho DE 2011
n
19
magnético no Brasil está longe de apresentar um comportamento ideal, que pode ser comparado ao campo magnético de um ímã de barra. Nas duas regiões, o campo magnético é complexo e apresenta fortes influências de componentes multipolares – ou não dipolares, como os geofísicos dizem. “Nesses casos”, diz Hartmann, “a agulha da bússola apresenta uma forte deflexão com relação ao norte, que pode chegar a mais de 20°”. Já na França, segundo ele, predomina o campo dipolar, como se a Terra fosse um ímã quase perfeito, e as deflexões com relação ao norte não excedem os 5°.
Se não houvesse campo magnético, não haveria nem bússola nem as grandes navegações, diz Igor Pacca
Campo menos intenso – Para os geo-
diz Hartmann. “A anomalia representa uma área em que a blindagem do campo magnético contra raios cósmicos e partículas solares é mais frágil.” Pacca vê a Sama como “uma janela” para partículas de alta energia conhecidas como raios cósmicos, que podem entrar mais facilmente na Terra através de regiões menos intensas do campo magnético. Ele e Everton Frigo, também do IAG, acreditam que os raios,
Gelvam Hartmann / IAG-USP
físicos, a queda contínua nos valores do campo magnético e o fato de as amostras das regiões Nordeste e Sudeste apresentarem grandes diferenças em intensidade devem estar ligados à Anomalia Magnética do Atlântico Sul (Sama, na sigla em inglês). Regida por campos não dipolares, a Sama é uma ampla região com as intensidades mais baixas do campo magnético – em torno de 28 microteslas (o valor médio do campo magnético da Terra é de 40 microteslas e o máximo, de 60 microteslas). “Por causa da proximidade geográfica, a influência da anomalia é maior no Sudeste que no Nordeste brasileiro”,
por sua vez, poderiam facilitar a formação de nuvens, fazer chover mais e baixar a temperatura, principalmente sobre as terras cobertas por trechos menos intensos do campo magnético. Há muito tempo se sabe que as manchas solares interferem no clima, mas nunca soubemos direito como”, diz Pacca. Quanto mais manchas solares, maior a atividade do Sol – e maior seu campo magnético. Nesses momentos, o campo magnético do Sol age em conjunto com o campo magnético da Terra dificultando a entrada de raios cósmicos. Em períodos de menor intensidade da atividade solar, há menos manchas e o campo magnético do Sol é menos forte. “Quando os campos do Sol e da Terra estão com a intensidade mínima, os raios cósmicos entram mais facilmente na Terra, colidem com partículas da atmosfera e geram uma quantidade enorme de elétrons e de outras partículas”, diz Pacca. “Toda a energia criada com as colisões produz uma ionização, que pode favorecer a condensação de vapor de água. Os raios cósmicos podem ser os gatilhos que disparam as reações que levam à formação de nuvens de chuva”, teoriza. Pesquisadores do Reino Unido e da Dinamarca também defendem essa possibilidade, mas ainda há espaço para ou-
As amostras preparadas (abaixo) vão para o forno: resgate magnético
O Projeto Evolução do campo magnético terrestre na América do Sul para os últimos 500 anos nº 2000/10754-4 modalidade
Bolsa de Pós-doutorado Coordenador
Gelvam André Hartmann – IAG/USP investimento
R$ 145.801,14
20
n
julho DE 2011
n
PESQUISA FAPESP 185
Barreira vulnerável
LATITUDE (º)
Anomalia Magnética do Atlântico Sul se desloca para oeste e se expande
30
Limites da intensidade do campo magnético
0
28 microteslas 32 microteslas 40 microteslas -30
Ponto menos intenso do campo magnético Valor médio: 40 microteslas Valor máximo: 60 microteslas
-60
Fonte: Gelvam Hartmann, Ricardo Trindade e Igor Pacca / IAG-USP. Edição: Laura Daviña
-120
-60
tras visões. “Até o momento”, diz o físico Paulo Artaxo, da USP, com base em estudos do Painel Intergovernamental das Mudanças Climáticas (IPCC), de que ele faz parte, “não há evidências sólidas, nem a favor, nem contra, de que possa haver algum efeito de raios cósmicos sobre os processos de formação de nuvens”. Como essa região menos intensa do campo magnético se forma e como pode reduzir a intensidade do campo registrado em rochas ou tijolos? Ninguém sabe. O que mais pode acontecer em razão dessa queda na intensidade do campo, além das interferências em telecomunicações? Outro mistério. “Einstein já dizia em 1905 que a origem e a evolução do campo magnético terrestre são um dos problemas mais difíceis da física, já que não seguem nenhum padrão”, argumenta Hartmann. O comportamento do campo magnético terrestre é complexo a ponto de já ter apresentado até mesmo reversões dos polos – o polo norte tornando-se sul – a mais recente há 780 mil anos. E existe a possibilidade de mudar outra vez: “Apareceu uma anomalia na Sibéria, que está se ampliando e já é mais intensa que o polo norte magnético”, diz Pacca. “Por enquanto, é como se a Terra tivesse
0
dois polos norte, mas o atual polo norte está perdendo a vez e pode surgir outro, mais forte, em milhares de anos.” Pacca montou um dos primeiros laboratórios de paleomagnetismo no Brasil em 1971, no Instituto de Física da USP. Dois anos depois ele reinstalou os equipamentos no IAG, para onde se mudou, como professor convidado, para formar um grupo de pesquisas em geofísica. Como não havia outros materiais para estudar, por muitos anos só rochas entravam lá.
U
m dos trabalhos mais ambiciosos consistiu na análise da intensidade e da orientação do campo magnético de 10 mil amostras de rochas do Brasil e da África. Daí saíram detalhes sobre a posição dos continentes na Terra de 1 bilhão de anos atrás, bem diferente de agora: o que corresponde ao atual território brasileiro era uma série de grandes ilhas distantes umas das outras e o bloco de rochas que forma a atual Amazônia estava separado de Goiás e do Nordeste por mares e mais próximo do sul do país do que hoje (ver Pesquisa FAPESP no 75, de maio de 2002). Hoje, grupos de pesquisadores em 24 países – na Amé-
60
120
LONGITUDE (º)
rica do Sul, apenas Argentina e Brasil – trabalham com geomagnetismo e paleomagnetismo. Pacca encontrou recentemente o que acredita ser o mais antigo estudo em português sobre magnetismo nas rochas, o Roteiro do Goa a Diu, publicado em 1538 (Goa e Diu eram domínios portugueses no sudoeste da atual Índia). O autor é dom João de Castro, nobre português que terminou a vida, aos 48 anos, como vice-rei da Índia. Em seus roteiros, ele mostrava como os navegadores deveriam se orientar em alto-mar, valendo-se das estrelas e de instrumentos simples como a bússola, para chegar aos destinos desejados. “Se não houvesse campo magnético, não haveria bússola”, diz ele. “E sem a bússola não teria havido grandes navegações, que enriqueceram muitos comerciantes e permitiram a conquista n de novos espaços como o Brasil.” Artigo científico Hartmann, G.A. et al. New historical archeointensity data from Brazil: Evidence for a large regional non-dipole field contribution over the past few centuries. Earth and Planetary Science Letters. v. 306, p. 66-76. 2011 PESQUISA FAPESP 185
n
julho DE 2011
n
21
Régis Lachaume / Wikimedia Commons
Estratégias mundo
O impasse da ciência mexicana "O México compra 94% de sua tecnologia e só 6% resultam de nossas próprias invenções”, afirmou Arturo Menchaca-Rocha, presidente da Academia Mexicana de Ciências, em meio a um debate recente sobre a crescente importação de tecnologia, que quintuplicou os pagamentos de royalties na última década (SciDev, 30 de maio). A contínua saída de pesquisadores e a débil integração entre pesquisa básica e os interesses das empresas em parte explicam essa situação, para a qual agora se buscam saídas urgentes. O Conselho Nacional de Ciência e Tecnologia (Conacyt) criou um programa de incentivo à pesquisa tecnológica em 2002, mas o cancelou em 2007, após severas críticas de que as empresas estavam usando o programa não necessariamente para fazer pesquisa, mas principalmente para evitar o pagamento de impostos. O governo criou três outros programas, mas muitas empresas e universidades querem o restabelecimento da isenção de impostos para quem investir em inovação. Um estudo da Universidade Nacional Autônoma do México (Unam) indicou que a inovação ainda está concentrada em instituições públicas, como a própria Unam, e, proporcionalmente, o setor público desenvolve 10 projetos de inovação enquanto as empresas privadas geram apenas um. Nos últimos oito anos o governo do México tem investido entre 0,3 e 0,4% do produto interno bruto (PIB) em ciência e tecnologia.
África do Sul lidera ranking África do Sul, Uganda e Malauí investiram mais de 1% do produto interno bruto (PIB) em pesquisa e desenvolvimento (P&D) em 2007, superando a meta que os governos africanos esperavam atingir em 2010, de acordo com um levantamento intitulado African innovation outlook 2010, que avaliou os investimentos de 22
■
julho DE 2011
■
13 países do continente nessa área (Nature, 26 de maio). Para os outros países, a média de investimentos em P&D variou de 0,2 a 0,4% do PIB. Há outras diferenças. Mais da metade dos investimentos em P&D em Moçambique vêm do exterior, enquanto em Gana e na África do Sul essa participação é de apenas um décimo. O setor empresarial responde por 50% dos gastos nessa área em Gana, mas por menos
PESQUISA FAPESP 185
Unam, centro de inovação
de 5% em Uganda, Zâmbia e Senegal. A África do Sul, que lidera o ranking, gasta mais de oito vezes que a Nigéria, a segunda colocada, e quase 30 vezes mais que o Malauí. Muito desse dinheiro, porém, pode estar sendo usado para financiar testes clínicos de novos medicamentos, como em Uganda e Malauí, não necessariamente em melhorias dos sistemas locais de produção do conhecimento científico e tecnológico.
MAIS Atenção para a física Os Estados Unidos abrigam as principais instituições de pesquisa do mundo, mas não podem se descuidar sob o risco
de perderem a liderança, alertou o Departamento de Energia (DOE). Em um plano de ação estratégico de 60 páginas distribuído recentemente, o DOE ressalta a importância da ciência e da engenharia como base para a prosperidade econômica dos EUA e propõe uma série de metas com prazos específicos. Algumas delas: completar a construção de laboratórios de física até o fim da década em centros de pesquisa, como a Universidade do Estado de Michigan, de modo a permitir o avanço da pesquisa sobre forças atômicas e partículas nucleares; desenvolver e explorar novos materiais que possam contribuir
Wikimedia Commons
Áquila, em busca dos culpados
Militares voltam ao museu Onde guardar 200 múmias humanas do século XVII, ossos de dinossauros e 10 milhões de relíquias arqueológicas? Em um museu, claro. Mas o que fazer se o museu que armazena todo esse material está sendo desfeito? Esse é o mais pungente problema do Museu de História Natural da Hungria. O governo húngaro quer transformar o museu, que ocupa um prédio histórico em Budapeste, em uma universidade para treinar militares e policiais (Nature, 7 de junho). Dois argumentos embasam a decisão: a construção não tem sido bem cuidada e abrigou uma academia militar até 1945. Ainda não há um lugar alternativo para o museu, que possui um espaço de exibição de 5 mil metros quadrados e emprega 70 pesquisadores, hoje mais empenhados em fazer inventários do acervo do que em seus próprios trabalhos.
Rozsa Lajos / Wikimedia Commons
para o avanço das tecnologias de energia até 2020; determinar as principais fontes de incerteza sobre os sistemas climáticos até 2015; reforçar os estudos em biologia de sistemas para criar processos de biocombustíveis viáveis; e intensificar as colaborações entre as equipes do próprio DOE e com laboratórios externos. O DOE financia pesquisas em 540 instituições dos Estados Unidos, apoiando o trabalho de cerca de 5.800 pesquisadores e 3.600 estudantes de graduação (Boletim do Instituto de Física dos Estados Unidos, 10 de junho). Um dos argumentos apresentados no plano estratégico: “É imperativo reverter a perda de empregos na indústria, particularmente no setor de alta tecnologia, e manter um amplo espectro de oportunidades para nossos cidadãos reconstruindo as capacidades industriais” .
Um museu de destino incerto
terremoto na justiçA Seis sismólogos e um funcionário do governo devem ir a julgamento na Itália sob a acusação de serem os responsáveis pela morte de algumas das 309 pessoas que perderam a vida no terremoto da cidade de Áquila em 6 de abril de 2009. Se condenados, podem ter de cumprir uma pena de até 12 anos de prisão (Nature, 1o de junho). Os sete acusados eram os responsáveis por delimitar os riscos de uma crescente atividade sísmica na região de Áquila. Em uma entrevista coletiva uma semana antes do terremoto, alguns deles afirmaram que os moradores locais não estavam em perigo. Depois do terremoto, muitos dos parentes das vítimas disseram que eles não se precaveram contra os tremores, deixando suas casas, por causa das afirmações dos cientistas. O procurador de Áquila, Fabio Picuti, argumentou que os especialistas, mesmo que não pudessem prever exatamente quando o terremoto poderia ocorrer, deveriam ter apresentado as incertezas científicas mais abertamente. Picuti acredita que os outros membros do comitê de prevenção contra terremotos são igualmente culpados, por não terem desfeito a convicção de que não havia riscos de um intenso tremor devastar a cidade. PESQUISA FAPESP 185
■
julho DE 2011
■
23
Maira Soares / Folhapress
Estratégias brasil
Morre ex-ministro Paulo Renato O economista Paulo Renato Souza, ex-ministro da Educação e ex-secretário da Educação do estado de São Paulo, morreu no dia 25 de junho. Tinha 65 anos e foi vítima de um infarto em São Roque, no interior paulista, onde estava hospedado em um hotel. Gaúcho de Porto Alegre, Paulo Renato fez carreira acadêmica na Universidade Estadual de Campinas (Unicamp), onde foi professor títular e reitor, cargo que exerceu entre abril de 1986 e abril de 1990. "Paulo Renato valorizava o debate e como reitor da Unicamp teve papel fundamental ao conduzir a aprovação dos estatutos e formação do conselho universitário. Como ministro, teve uma atuação definidora para a educação no Brasil, criando o sistema de avaliação, os exames e o Fundef (Fundo de Manutenção e Desenvolvimento do Ensino Fundamental e de Valorização do Magistério)”, disse Carlos Henrique de Brito Cruz, diretor científico da FAPESP. Um dos fundadores do Partido da Social Democracia Brasileira (PSDB) em 1988, o economista foi ministro da Educação por oito anos, durante os dois mandatos do presidente Fernando Henrique Cardoso, entre 1995 e 2002. No ministério, foi o responsável pela criação do Exame Nacional do Ensino Médio (Enem) e do Sistema Nacional de Avaliação da Educação Básica (Saeb). Também implantou no âmbito federal o programa Bolsa Escola, embrião do atual Bolsa Família. Seu último cargo público foi o de secretário da Educação do estado de São Paulo, entre o início de 2009 e o fim de 2010, posto que já ocupara pela primeira vez entre 1984 e 1986. “Lamentamos o falecimento do bom amigo Paulo Renato, companheiro de ministério na Presidência de Fernando Henrique Cardoso, intelectual e homem público com o qual compartilhamos ideias e ideais em prol do nosso país”, disse Celso Lafer, presidente da FAPESP.
eduardo cesar
Homenagens e novos cafés
24
■
julho DE 2011
■
A FAPESP, por meio do seu diretor administrativo, Joaquim José de Camargo Engler, recebeu no dia 27 de junho a medalha Franz Wilhelm Dafert (ao lado), durante a cerimônia de
PESQUISA FAPESP 185
Paulo Renato: atuação a favor da educação no Brasil
comemoração dos 124 anos do Instituto Agronômico (IAC). O Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e a Fundação Agricultura Sustentável também receberam a medalha, que homenageia instituições ou pessoas que têm contribuído significativamente para a pesquisa agrícola. No mesmo dia, o IAC lançou o Programa de Cafés Especiais, que pretende oferecer aos produtores variedades de café com perfil diferenciado de sabor e aroma. Fundado em 1887 pelo imperador dom Pedro II, o IAC desenvolveu quase mil variedades de 66 espécies de plantas, além de técnicas que permitiram a melhoria da produtividade agrícola em São Paulo e em outros estados.
As cidades mais digitais do Brasil Belo Horizonte, Curitiba, Porto Alegre e Vitória ocuparam as quatro primeiras posições no Índice Brasil de Cidades Digitais. Criado pelo Centro de Pesquisa e Desenvolvimento em Telecomunicações (CPqD) e a Momento Editorial, o índice avaliou o nível de digitalização de 75 municípios que usam as tecnologias de informação e comunicação (TICs) como estratégia de fortalecimento da inclusão social. Pequenos municípios também se saíram bem no índice. Entre os 10 primeiros lugares estão Ibirapuitã, cidade gaúcha de 4 mil habitantes, Tarumã, em São Paulo, 13 mil moradores, e Tauá, no Ceará (55 mil pessoas). A capital paulista ficou na nona colocação.
Adeus a Otto Gottlieb Otto Richard Gottlieb, pioneiro da química de produtos naturais no Brasil que morreu em 20 de junho, no Rio de Janeiro, aos 90 anos, integrou a química, sua especialidade, à biologia, à ecologia e à geografia. Nascido na atual República Tcheca e naturalizado brasileiro, Gottlieb chegou ao país em 1939 e trabalhou como químico na fábrica do pai por 10 anos antes de ingressar na carreira acadêmica. Foi pesquisador e professor no Instituto de Química Agrícola, em universidades da Inglaterra e dos Estados Unidos, na Universidade de Brasília (UnB) e na Universidade de São Paulo (USP), onde se aposentou em 1990. Em 1999 trabalhava na Fiocruz quando foi indicado para o Prêmio Nobel, em reconhecimento à sua visão de ciência e a uma proposta de classificação das plantas a partir de suas características químicas. Gottlieb desenvolveu uma nova área de estudo na química de produtos naturais, a sistemática bioquímica das plantas, que consiste na identificação de grupos de substâncias químicas presentes nos vegetais. Esse campo de trabalho atraiu pesquisadores de várias universidades do país. Por muitos anos, Gottlieb manteve na parede da sala de seu apartamento em Copacabana um cartaz do indigenista Orlando Villas-Boas em que se lia: “No próximo milênio, os países que tiverem mais florestas e culturas preservadas serão beneficiados tanto na pesquisa científica quanto na alimentação”.
Daniel Patire / ACI / Unesp
A unidade na América do Sul do Centro Internacional de Física Teórica (ICTP, na sigla em inglês) deverá entrar em funcionamento no início de 2012 no Instituto de Física Teórica (IFT) da Universidade Estadual Paulista (Unesp), na cidade de São Paulo. As primeiras atividades do braço sul-americano do ICTP, órgão da Unesco com sede em Trieste, na Itália, vão incluir a promoção de cursos e workshops para estudantes
de pós-graduação e pesquisadores e visitas de pós-doutores e cientistas do continente. “A sede regional do ICTP deverá gerar um grande movimento de pessoas e ideias e um efeito multiplicador de talentos. Esperamos atrair ótimos estudantes e pesquisadores do Brasil e de outros países da América do Sul de modo a alavancar as pesquisas no nosso instituto e na região”, disse Rogério Rosenfeld, diretor do IFT da Unesp, à Agência FAPESP. O centro terá cinco pesquisadores permanentes.
IFT da Unesp: sede na América do Sul do ICTP
parceria Brasil e Reino Unido No dia 21 de junho, durante o Seminário Reino Unido e Brasil: Parceria para Desenvolver Negócios Verdes, realizado no Palácio dos Bandeirantes, sede do governo paulista, a FAPESP e o Biotechnology and Biological Sciences Research Council (BBSRC), um dos conselhos de pesquisa do Reino Unido, lançaram chamada de propostas para a modalidade Pump-Priming Award (Fappa). O objetivo da iniciativa é apoiar o desenvolvimento de parcerias entre grupos de pesquisa financiados pela
aguinaldo ramos
Novo centro de física abre em 2012
Gottlieb: pioneiro da química de produtos naturais
Fundação no estado de São Paulo e pelo BBSRC no Reino Unido. Propostas nas áreas de segurança alimentar e/ou bioenergia e biotecnologia industrial terão prioridade. Mais detalhes da chamada podem ser obtidos no endereço <www.fapesp.br/en/6373>. Participaram do encontro no palácio o governador Geraldo Alckmin, o vice-primeiro-ministro britânico, Nick Clegg, o presidente da FAPESP, Celso Lafer, e outras autoridades e empresários dos dois países. Também houve uma reunião de trabalho, organizada pela Fundação e pelo Conselho Britânico, para discutir as possibilidades de cooperação. O diretor científico da FAPESP, Carlos Henrique de Brito Cruz, o ministro britânico do Ensino Superior e Ciência, David Willetts, e o vice-reitor da Universidade de Exeter, Steve Smith, participaram da reunião. “O Brasil é um grande gerador de conhecimento científico e é cada vez mais importante para a produção global”, disse Willetts.
PESQUISA FAPESP 185
■
julho DE 2011
■
25
[ indicadores ]
análise mostra que são paulo tem mais pesquisadores em empresas e taxa de conclusão no ensino superior maior que a da Espanha Fabrício Marques
Avanços e desafios
26
n
julho DE 2011
n
PESQUISA FAPESP 185
empresas atraem pesquisadores Evolução do número de pesquisadores no estado de São Paulo em equivalente em jornada integral
total 50.000
40.000
empresas 30.000
instituições
de ensino
20.000
superior
10.000
institutos de pesquisa
0 1995
2000
2005
2010
Fontes: inep, CNPq, Capes, FAPESP e ibge
O
panorama da ciência, da tecnologia e da inovação no estado de São Paulo sofreu transformações nos anos recentes, com a ampliação, por exemplo, do esforço das empresas em pesquisa e desenvolvimento (P&D). Em 2008 o setor privado paulista empregava 53% dos pesquisadores em atividade no estado, ante 45% em 1995. A contribuição de São Paulo para a produção mundial de ciência também avançou, passando de 0,82% em 2002 para 0,94% em 2006, resultado de um crescimento de 41,4% do número de artigos científicos publicados em revistas indexadas no período. A taxa de analfabetismo caiu de 6,6% para 5% no estado entre 1998 e 2006, embora os índices que medem a qualidade do ensino básico tenham evoluído pouco. Nas universidades nunca houve tantas vagas oferecidas, sobretudo no setor privado, onde faltam candidatos para preenchê-las. O resultado é um elevado aproveitamento de egressos do ensino médio pelas universidades, maior que o de muitas nações desenvolvidas: de 81% em São Paulo e de 71% no Brasil, além de uma inesperada taxa de concluintes do ensino superior que, no Brasil, é maior que a de países como Argentina, México e Chile, e, em São Paulo, é maior que a da Espanha. Tais índices são alguns dos destaques da nova edição dos Indicadores de ciência, tecnolo-
política científica e tecnológica
o esforço de cada setor no estado Dispêndios em pesquisa e desenvolvimento (P&D) no estado de São Paulo - em R$ milhões de 2008
9.756
7.278
7.119
Fontes: CNPq, Capes, Finep, FAPESP, mct, ibge e outros
Indicadores de ciência, tecnologia e inovação em São Paulo - 2010
federal
3.378
3.733
Coordenação Executiva Wilson Suzigan, João Eduardo de Morais Pinto Furtado, Renato de Castro Garcia
2.540 2.035
1.972
privado
1.524
estadual
o investimento comparado Dispêndio total em P&D em relação ao PIB 2008 - em %
Fontes: OcDe e fapesp
Pessoal de apoio Milena Yumi Ramos, Marilda Solon Teixeira Bottesi, Flávia Gouveia
Israel Suécia Finlândia Japão Coreia do Sul Estados Unidos Islândia Taiwan Alemanha OCDE Total França Reino Unido Canadá Holanda Estado de São Paulo Portugal China Irlanda Espanha Itália Brasil Federação Russa África do Sul Índia Chile Romênia Grécia Argentina México
0
0,50
1,00
1,50
2,00
2,50
3,00
3,50
4,00
4,50
5,00
gia e inovação em São Paulo - 2010, que a FAPESP lança neste mês, uma radiografia detalhada do avanço de P&D no estado de São Paulo nos últimos anos. Composta por 12 capítulos, a obra tem quase 900 páginas. É a terceira vez que a FAPESP lança os Indicadores, um programa que responde a um dos objetivos da Fundação que é o de “promover periodicamente estudos sobre o estado geral da pesquisa em São Paulo e no Brasil, identificando os campos que devam receber prioridade de fomento”, como está descrito nos seus estatutos. “É nesse contexto que se insere a publicação destes Indicadores, que se constituem instrumento de grande valia para formular e avaliar as políticas públicas relativas à ciência e à pesquisa tecnológica”, escreveu o presidente da FAPESP, Celso Lafer, na apresentação da obra. “Uma equipe de 69 especialistas, entre coordenadores, pesquisadores e auxiliares de pesquisa, fez um trabalho excepcional, levantando e qualificando cuidadosamente os dados usados a partir de fontes frequentemente heterogêneas, e realizando um trabalho analítico detalhado e preciso”, diz o diretor científico da FAPESP, Carlos Henrique de Brito Cruz. “Cada capítulo foi lido e criticado pelos 36 assessores técnicos e debatido em sucessivas versões com a equipe de coordenação executiva, liderada pelo professor Wilson Suzigan”, completa. PESQUISA FAPESP 185
n
julho DE 2011
n
27
Indicador de mudança - O estado de
São Paulo contava com quase 63 mil pesquisadores em 2008, contingente 66% maior do que o estimado para 1995. Uma novidade é a ampliação das oportunidades de trabalho no setor privado. Embora as instituições de ensino superior abriguem grande parte desse contingente (42%), foi o número de pesquisadores empregados em empresas que mais cresceu no período (96%), 28
n
julho DE 2011
n
PESQUISA FAPESP 185
recursos para pesquisa e desenvolvimento em são paulo A contribuição de empresas, agências, universidades e institutos de pesquisa - 2008
Total
(Milhões de R$)
% do pib investido em P&D
15.523,6
1,52%
100%
Empresas
9.553,3
0,94%
62%
Inst. Ensino Superior estaduais
2.646,0
0,26%
17%
Agências Federais
819,9
0,08%
5%
Institutos de pesquisa Federais
789,2
0,08%
5%
Agência Estadual
637,9
0,06%
4%
Institutos de pesquisa Estaduais
449,3
0,04%
3%
Inst. Ensino Superior Federais
425,6
0,04%
3%
Inst. Ensino Superior Privadas
202,5
0,02%
1%
O dispêndio em P&D em são paulo atingiu em 2008 o equivalente a 1,52% do pib estadual, índice superior ao da china, da índia e da espanha
fazendo sua participação no total passar de 45% em 1995 (com 17.133 pesquisadores) para 53% em 2008 (com 33.528). “A constatação de que as próprias empresas estão ampliando seus contingentes de pesquisadores é, em si, indicador de mudança importante do comportamento empresarial, que, ao que tudo indica, começa a considerar inovação tecnológica como elemento importante de suas estratégias de concorrência e crescimento”, informa o texto. Considerando o número de pesquisadores por milhão de habitantes, a situação de São Paulo é ligeiramente superior à da China, Argentina, México
e do total do Brasil, mas é inferior à de nações com ss quais o país precisa competir, caso da Espanha, Rússia e Coreia do Sul. “É fundamental uma estratégia para que o número de pesquisadores no estado de São Paulo aumente substancialmente nos próximos anos. (...) Para o caso do Brasil, o desafio é maior ainda”, conclui. Em 2006, 28% dos 21,4 milhões de brasileiros com elevado nível de qualificação residiam em São Paulo. Os números, embora respeitáveis, perdem parte do brilho quando são relacionados à população economicamente ativa: 20,4% para o Brasil e 25,2% para São Paulo. Na Espanha, por exemplo, essa parcela chega a 37,6%. Curiosamente, tanto no Brasil quanto no estado de São Paulo o número de pessoas em ocupações com elevada qualificação era bem maior que o de pessoas com nível superior, o que indica um déficit educacional da força de trabalho mais qualificada. “Ao mesmo tempo, notou-se que parcela expressiva dos indivíduos com nível de escolaridade superior insere-se em ocupações com exigências de qualificação aparentemente inferiores à adquirida em sua formação escolar. Ou seja, está-se diante de um aparente paradoxo: há cada vez mais pessoas tituladas no ensino superior, mas, em simultâneo, há carência de profissionais qualificados”, observa o estudo.
Fontes: CNPq, Capes, Finep, FAPESP, mct, ibge e outros
Cálculos feitos pelos pesquisadores mostram, no capítulo 3, que o dispêndio total em P&D em São Paulo atingiu, em 2008, R$ 15,5 bilhões, o equivalente a 1,52% do PIB estadual. Esse percentual é superior ao de países como Espanha, Portugal, Itália, Irlanda, China e Índia, e de todos os países da América Latina, mas inferior ao de Canadá, Reino Unido, França, Taiwan, e à média dos países da Organização para Cooperação e Desenvolvimento Econômico (OCDE), que é de 2,3% do PIB regional (ver quadro na página 27). O dispêndio total do Brasil chegou a R$ 34,2 bilhões em 2008, com intensidade de 1,14% do PIB. A maior parte (63%) dos investimentos no estado de São Paulo foi realizada pelo setor privado. “Esse é mais um traço marcante da economia paulista, mais industrializada do que a de outras unidades da federação, tendo as empresas na liderança do esforço de investimento em P&D”, informa o capítulo 3, escrito sob a coordenação de Carlos Henrique de Brito Cruz e dos economistas José Roberto Rodrigues Afonso, do BNDES, e Sinésio Pires Ferreira, da Fundação Seade. A composição dos gastos em P&D em São Paulo se distingue da de outros estados e da média brasileira. Apenas 13% desses dispêndios em São Paulo têm origem federal, enquanto nos demais estados a parcela chega a 53%. Já o dispêndio do governo estadual em São Paulo chega a 24%, ante 8,4% no conjunto das demais unidades da federação. Por fim, o gasto privado equivale a 63% do total em São Paulo, ante 38% nos outros estados. A tendência vem se acentuando. O dispêndio empresarial paulista cresceu 37% em 2008 em comparação a 1995, em valor real (corrigido pelo IGP-DI). No mesmo período, o dispêndio do governo estadual cresceu 47%, enquanto o federal avançou apenas 3%.
sucesso na graduação Taxa de conclusão no ensino superior – Brasil, estado de São Paulo e países selecionados – 2006
Austrália Reino Unido França Estados Unidos Canadá Coreia do Sul São Paulo Espanha Brasil Fontes: IBGE, Pnad
México Chile Argentina 0
20
40
60
80%
grandes polos da pós-graduação
Fonte: Capes
As universidades que formaram 75% dos doutores titulados no Brasil em 2007 USP Unicamp Unesp UFRJ UFMG UFRGS PUC/SP UFSC
2 252 803 717 698 510 448 318
Unifesp UnB UFPE UFPR UERJ UFBA UFSCar
236 235
brasil: 9.919 doutores
221 193 176 176 174
75% » 7.442 doutores
285
Os destaques no capítulo sobre a educação básica, coordenado pela economista Vera Lúcia Cabral Costa, diretora da Escola de Formação de Professores da Secretaria da Educação do Estado de São Paulo (Seesp), foram a consolidação da inclusão da população mais pobre nos sistemas escolares do estado e do país e a persistência dos baixos resultados de aprendizagem. Na década passada, as matrículas do ensino fundamental se estabilizaram em torno de 6 milhões de alunos no estado de São Paulo. A escolarização de crianças com idade entre 7 e 14 anos alcançou índice de 98,8% em São Paulo e de 97,6% no
Brasil em 2006. Entre os que frequentam a pré-escola (5 e 6 anos) foi de 90,8% em São Paulo e de 84,6% no Brasil. A taxa de analfabetismo brasileira, que em 1998 era de 13,8%, passou a 10,4% em 2006. No estado de São Paulo reduziu-se de 6,6% para 5% no período. Os resultados de aprendizagem no ensino básico evoluíram pouco, com melhora nas primeiras séries do ensino fundamental. Na 4ª série do ensino fundamental, por exemplo, o estado de São Paulo apresentou o terceiro melhor valor do Índice de Desenvolvimento da Educação Básica (Ideb) na federação, ampliando-o de 4,7 em 2005 para 4,9
em 2007. Os progressos são atribuídos a uma combinação de resultados positivos nas taxas de aprovação e no desempenho dos alunos nas avaliações. Já no âmbito internacional esse movimento não é perceptível. Desde 2000, o Brasil participa de uma das mais importantes avaliações internacionais, o Pisa (Programme for International Students Assessment), conduzido pela OCDE. As provas são realizadas a cada três anos e abrangem os domínios de leitura, matemática e ciências. Nas avaliações de 2000, 2003 e 2006, o Brasil amargou as últimas colocações e, na maioria dos anos, abaixo até de outros países da América Latina, como Chile, México e Uruguai. O país se destaca em relação aos demais participantes do Pisa por apresentar as maiores diferenças de desempenho dos alunos da rede privada e os da rede pública, de cerca de 30% a favor da escola particular em todas as áreas avaliadas. No acesso à universidade, evidencia-se um grande gargalo. O número de vagas em universidades públicas e privadas é, hoje, maior do que o número de pessoas concluindo o ensino médio. Isso produz um paradoxo, registrado no capítulo sobre o ensino superior, coordenado pela antropóloga Eunice Durham, professora da USP. De um lado, a taxa bruta de matrículas no ensino superior ainda é inferior à do conjunto dos países da América Latina. Essa taxa, que expressa a relação entre o número total de matrículas e a população entre 18 e 24 anos, era em 2006 de 19,3% no Brasil e de 24,4% em São Paulo. Segundo dados da Unesco, a taxa bruta de matrículas no mesmo ano era de 92,6% na Coreia do Sul, 67,4% na Espanha, 63,8% na Argentina, 46,6% no Chile ou 26,1% no México. Mas o Brasil apresenta altíssimo percentual de absorção de concluintes do ensino médio no ensino superior, maior do que muitas nações desenvolvidas: 81% em São Paulo e 71% no Brasil. Quando se analisam as matrículas, parece haver muito menos gente no ensino superior no Brasil em comparação a outros países. Mas o panorama é diferente quando se analisam os dados dos concluintes do ensino superior, tomando como referência a população na faixa de 25 a 29 anos. O Brasil, com pouco mais de 20%, está à frente da Argentina, Chile e México. E São Paulo, com PESQUISA FAPESP 185
n
julho DE 2011
n
29
Publicações indexadas nas bases SCIE e SCI – 2002 a 2006
0
5.000
10.000
15.000
0
20
40
mais de 30%, supera a Espanha, com 28%, e está próximo à Coreia do Sul, com 39% (ver quadro na página 29). “Um elemento que afeta a quantidade de matrículas é o sistema de acesso ao ensino superior: certos países, como o Brasil, realizam uma seleção ao final do ensino médio. Outros admitem no ensino superior todos os concluintes do ensino médio e, em muitos casos, convivem com altas taxas de evasão e desistência”, informa o texto. Entre 1999 e 2006, a taxa bruta de matrículas no ensino superior no Brasil aumentou de 11,2% para 19,3%, o que representou crescimento de 72%. No estado de São Paulo, as taxas foram mais elevadas, passando de 15,4% em 1999 para 24,4% em 2006, mas o aumento foi menor (58%). No Brasil, o número de egressos do ensino médio em relação ao total de vagas oferecidas no ensino superior passou de 1,72 concluinte por vaga em 1999 para 0,8 em 2006, com o número de oportunidades passando a ser maior do que o de candidatos. O excesso de vagas se deve ao crescimento do setor privado, no qual a relação, que era de 2,27 em 1999, passou a 0,91 em 2006. São 30
n
20.000 Número de publicações
USP Unicamp UFRJ Unesp UFRGS UFMG Unifesp fiocruz UFSCar UFSC UFPR embrapa UFPE UnB UERJ
julho DE 2011
n
PESQUISA FAPESP 185
60
% de 80 crescimento
Paulo, no ensino superior público, oferecia uma vaga para cada grupo de 14,2 concluintes do ensino médio em 1999 e uma vaga para cada 8,54 em 2006. Chances - O apoio restrito do governo
federal ao ensino superior público no estado de São Paulo é destacado. Enquanto no Acre um jovem que concluiu o ensino médio tem 70% de chance de ser matriculado em uma instituição federal, alguém com a mesma escolaridade morando em São Paulo tem apenas 1% de chance de frequentar uma instituição federal de ensino superior. No conjunto do país, o governo federal respondia, em 2006, por 12,2% do total das matrículas e era o maior provedor do ensino superior público. Tomando-se São Paulo isoladamente, as instituições federais respondiam por apenas 0,7% do total das matrículas, enquanto o estado respondia por 7,8%, quase 12 vezes mais do que a União. “É perfeitamente legítimo que a União adote políticas visando à redução de desigualdades regionais”, afirma a obra. “Mais do que legítimas, tais políticas são necessárias para o desenvolvimento do Brasil. Ao mesmo
tempo, é preciso que a política educacional para a educação federal superior não abandone setores da população que obtiveram as credenciais acadêmicas necessárias e que pagam parcela expressiva dos impostos federais.” Na pós-graduação, um dos problemas é a saturação da capacidade de instituições estaduais, como a USP e a Unicamp, de ampliar o número de alunos. Em 2008, a USP formou 2.265 doutores. Como tem 5,4 mil professores, a relação entre doutorandos e docentes é de 0,42. Na Unicamp esse coeficiente é de 0,43, com 748 doutores titulados em 2008 e 1.743 professores. Em universidades norte-americanas, o índice é menor. Em Stanford e no Massachusetts Institute of Technology, chega a 0,34. Na Universidade da Califórnia, Berkeley, a 0,40. A expansão da formação de doutores em São Paulo, observa o capítulo, depende principalmente das instituições privadas e federais. A série histórica da Pesquisa de Inovação Tecnológica (Pintec), feita a cada três anos pelo Instituto Brasileiro de Geografia e Estatística, dá lastro ao capítulo sobre a situação da inovação em São Paulo produzida no livro sob a coordenação do economista André Tosi Furtado, professor da Unicamp. A análise dos dados mostra que as empresas multinacionais eram responsáveis em 2005 por mais de 44% da P&D industrial brasileira, uma das mais altas proporções do mundo. Essa participação era ainda maior no estado de São Paulo, onde ultrapassava os 56%. A maioria das empresas industriais brasileiras, observa Furtado, mantém uma postura relativamente passiva, dando importância ainda restrita à adoção de inovações. “Poucas empresas estabelecem vínculos de cooperação com outras empresas ou com universidades e institutos de pesquisa”, informa. A aquisição de máquinas é ainda o principal esforço inovativo das empresas brasileiras e paulistas, ao contrário das empresas dos países europeus, em que esses recursos se concentram em atividades internas de P&D, capazes de resultar em inovações originais. Um indicador que ilustra as fragilidades estruturais da indústria brasileira é a intensidade da P&D interna, medida a partir da razão do dispêndio da P&D interna sobre o valor adicionado. Essa
Fontes: Thomson Reuters (2008). SCIEnce citation index expanded e Social SCIence citation index via web of Science
instituições que mais publicam
taxa ficou em 2005 em 1,5% para o conjunto da indústria brasileira e em 2,1% para o estado de São Paulo, muito abaixo dos 7,7% da média dos países da OCDE. Uma comparação das intensidades por áreas da indústria mostra que nos setores de alta tecnologia as diferenças são ainda mais acentuadas em relação aos países desenvolvidos. A exceção é o setor aeronáutico, no qual a intensidade brasileira se equipara à dos países desse bloco. O setor automobilístico é o responsável por quase um quarto da P&D industrial brasileira e mais de 30% do indicador em São Paulo. Quase a metade da pesquisa industrial brasileira se concentra em três setores: veículos automotores, coque e refino de petróleo e álcool e construção de aeronaves. Cinco empresas brasileiras aparecem no ranking das empresas que mais investem na P&D feita pelo Departamento de Inovação, Universidades e Habilidades do Reino Unido em 2008: Petrobras, Vale, Embraer, Braskem e WEG. As duas últimas não constavam na lista da edição de 2007. Entre os quatro países do bloco dos BRICs, o Brasil superou apenas a Rússia, com 3 empresas, no ranking, no qual a Índia aparece com 15 empresas e a China com 9. Um campo em que pouca coisa mudou é o das patentes. A posição do Brasil
A liderança do estado de são paulo em depósitos de patentes no inpi manteve-se no período de 1980 a 2005, com 49,5% das solicitações
no ranking de patentes depositadas no escritório dos Estados Unidos (Uspto) permanece no mesmo patamar há três décadas. Em 1974, o Brasil ocupava a 28ª posição. Passou ao 25º lugar em 1982, caiu para o 27º em 1990 e regrediu à 29ª posição em 1998, na qual permanecia em 2006. Em números absolutos, foram depositadas 44 patentes com primeiro inventor residente no Brasil em 1974, ante 341 em 2006. O capítulo 5 dos Indicadores, coordenado por Eduardo da Motta e Albuquerque, professor de economia da Universidade Federal de Minas Gerais, observa que a estabilidade dos últimos anos exigiu um esforço do país que não deve ser menosprezado, uma vez que países como a Rússia, o México e a África do Sul perderam posições no período. Mas ressalta que a mera manutenção da posição no ranking mundial de patentes “não deve ser uma meta de política pública para um país que ainda não superou a barreira histórica do subdesenvolvimento”. A liderança de São Paulo em depósitos de patentes no Instituto Nacional de Propriedade Industrial (INPI) manteve-se no período de 1980-2005, com 49,5% do total brasileiro. Nesse período, a liderança coube à Petrobras, com 804 depósitos, seguida pela Unicamp, com 408. Na década de
vocações tecnológicas Índice de especialização tecnológica das microrregiões paulistas, calculado com base em concentração de patentes
Consumo das famílias e construção civil Eletrônicos e eletricidade Instrumentação fonte: inpi
Máquinas, mecânica e transportes Procedimentos, química de base e metalurgia Química fina e farmácia
PESQUISA FAPESP 185
n
julho DE 2011
n
31
O sucesso das commodities agrícolas brasileiras dependeu de intenso desenvolvimento tecnológico
porém, que o sucesso das commodities brasileiras dependeu, ao contrário do que prega o senso comum, de uma forte articulação para o desenvolvimento tecnológico, caso do petróleo extraído em alto-mar e de diversos produtos agrícolas – o melhoramento da cana-de-açúcar é um entre vários exemplos. “A agricultura brasileira produz e exporta produtos que são classificados na categoria commodities (invariavelmente associadas à baixa tecnologia), mas isso não quer dizer que eles não contenham
mão de obra qualificada
Formação básica
Formação média
Formação superior
2,2 6,7
87,7
21,3
3,5
52,8
25,9
37,9 0
32
58,1 20
n
Pós-graduados
julho DE 2011
40
n
PESQUISA FAPESP 185
te oc op oc té oc cn up cn up er up ol aç ac aç ica aç óg õe ion õe s õe ica s s ais s s
Distribuição do emprego em atividades de ciência, tecnologia e inovação, por categoria ocupacional, segundo grau de escolaridade – Brasil e estado de São Paulo – 2006
60
4,1 80
100%
ou não mobilizem tecnologias, conhecimentos e ciência. Aliás, esse conteúdo científico e tecnológico possui origens antigas e conteúdos locais e externos”, escreveu Furtado, que é coordenador de inovação tecnológica da FAPESP. Enquanto as exportações dos demais estados concentram-se em produtos agrícolas, agroindustriais, minerais e energéticos, São Paulo desempenha um papel relevante nas vendas para o exterior de produtos com maior densidade tecnológica. Um dos principais exemplos é o da Embraer. Segundo Furtado, isso mostra que é possível produzir itens de alta tecnologia de forma competitiva mesmo quando é necessário importar os insumos necessários. “A Embraer, o sempre citado exemplo brasileiro de indústria de alta tecnologia, exporta aviões que concebe e fabrica, mas utiliza, para isso, componentes, partes, módulos e sistemas importados. Suas exportações em 2007 de US$ 4,7 bilhões superam as suas importações, de US$ 2,9 bilhões.” Ocupações tecnológicas - O capítulo
sobre a dimensão regional das atividades de CT&I no estado de São Paulo mostra uma concentração de ocupações tecnológicas (80,7% do total) e técnicas (74,8%) em 10 microrregiões: capital, Campinas, Osasco, São José dos Campos, Sorocaba, Guarulhos, Santos, Ribeirão Preto, Mogi das Cruzes e Itapecerica da Serra. A Região Metropolitana de São Paulo tem participação relativa reduzida nas chamadas ocupações operacionais, indicador da transferência de fábricas para o interior e outras regiões do país, enquanto concentra laboratórios de pesquisa e as estruturas gerais de gestão das empresas. Dados regionalizados da Pintec mostram que a Região Metropolitana responde por mais de 50% das empresas inovadoras no estado e quase 20% das do Brasil. O mapeamento revela outros dois fenômenos. Um deles é a importância de regiões no interior do estado, como Campinas e São José dos Campos, que se localizam próximas à Região Metropolitana e também apresentam atividade destacada de CT&I, com a presença de empresas locais inovadoras e boas universidades. O outro está relacionado com regiões no interior do estado de São Paulo que apresentam indicadores de CT&I menos
Fonte: ministério do trabalho e emprego, rais 2006
1990 cresceu bastante o peso das instituições de ensino e pesquisa no esforço de proteção à propriedade intelectual – a USP, a UFMG e o Instituto de Pesquisas Tecnológicas (IPT) também aparecem entre os líderes. Essa característica revela imaturidade do sistema de inovação brasileiro – em países desenvolvidos, patentes são obtidas majoritariamente por empresas, não por universidades públicas. “Infelizmente, o papel das instituições de ensino e pesquisa no patenteamento é ampliado pela timidez do patenteamento de empresas. (...) A timidez deve servir como um alerta para a necessidade de políticas industriais e tecnológicas mais audazes, dada a necessidade de ampliação expressiva do envolvimento de empresas com atividades inovativas”, afirma o estudo. O balanço de pagamentos tecnológico, que retrata as relações comerciais envolvendo insumos e produtos tecnológicos, foi tema de um capítulo coordenado pelo economista João Furtado, professor da Poli-USP. O destaque nesse campo está no aumento das exportações de produtos de média tecnologia (US$ 37,3 bilhões, de 2002 e 2005) ante as importações (US$ 10,6 bilhões). Isso indica a importância dessa categoria tecnológica, que incorpora produtos primários agrícolas e agroindustriais, para o aumento das exportações brasileiras nos últimos anos. O estudo ressalta,
estratégias da indústria Percentual de empresas da indústria de transformação que utilizaram pelo menos um método de proteção das inovações, por tipo – 2003-2005
estado de São Paulo marcas Brasil
segredo industrial patente modelo de utilidade Fonte: pintec 2005
registro de desenho tempo de liderança direitos do autor outros métodos complexidade do desenho 0
5
expressivos. Ao comparar os dados recentes com os de edições anteriores dos Indicadores, observou-se crescimento da qualificação da mão de obra e do número de instituições de formação de mão de obra de nível tecnológico, técnico e de aprendizagem industrial. “Essa evolução pode criar oportunidades para a criação e a difusão de novos conhecimentos em apoio aos processos inovativos nas empresas”, informa o capítulo, coordenado por Renato de Castro Garcia, professor da Poli-USP. A contribuição de São Paulo para a produção científica mundial cresceu de 0,81% em 2002 para 0,94% em 2006. O estado foi responsável por 51% da produção brasileira indexada entre 2002 e 2006, patamar ligeiramente superior ao do período 1998-2002, de 49,9%. Esse aumento está associado a um crescimento de 41,4% da produção paulista de 2002 até 2006, mostra o capítulo 4, que analisa a produção científica a partir de publicações em periódicos especializados, coordenado por Leandro Innocentini Lopes de Faria, professor do Departamento de Ciência da Informação da Universidade Federal de São Carlos (UFSCar). A contribuição brasileira para a produção mundial indexada passou de 1,6% em 2002 para 1,9% em 2006. O aumento de 43,5% no número de publicações brasileiras no período foi superior ao crescimento mundial, de 22,7%. As
10
15
instituições de maior produção no país entre 2002 e 2006 foram a USP, com 25,5% dos artigos, a Unicamp, com 10,1%, a Federal do Rio de Janeiro (UFRJ), com 8,7%, a Estadual Paulista (Unesp), com 7,3%, a Federal do Rio Grande do Sul (UFRGS), com 5,8%, a UFMG, com 5,2%, a Federal de São Paulo (Unifesp), com 4%, a Fiocruz, com 3,1%, e a UFSCar, com 3%. A colaboração científica internacional brasileira no período cresceu 30,4%, quando se contabilizam as publicações em coautoria com estrangeiros, mas contribuiu de maneira decrescente para o total da publicação brasileira, de 33,1% em 2002 para 30% em 2006. Já a colaboração entre estados cresceu 79,4% no período. Embora o número de citações recebidas pela produção brasileira indexada ainda seja relativamente pequeno, houve um crescimento expressivo entre 1990 e 2003, passando de 0,16% para 0,55% do total das citações mundiais. No grupo de países com produção científica entre 2% e 5% do total mundial, as publicações do Canadá apresentaram elevado patamar de citações desde 1990 até 2003, mas elas foram decrescentes no período (de 4,2% a 3,7% das citações mundiais). As publicações da Espanha, Austrália e Índia tiveram citações crescentes, assim como a Coreia do Sul, que em 1990 recebeu citações para suas publicações bem inferiores às do Brasil (0,06% ante 0,16%), mas em
20
25
2003 alcançou o valor 0,94%, quase o dobro do alcançado pelo Brasil. O último capítulo dos Indicadores traz os resultados de uma pesquisa sobre percepção pública da ciência e da tecnologia no estado de São Paulo, coordenada pelo linguista Carlos Vogt, que foi presidente da FAPESP entre 2002 e 2007. O estudo mostra que o interesse declarado pelos paulistas sobre temas de caráter científico-tecnológico não é baixo e pode ser comparado, na capital, ao de muitos países europeus. Mas há um grande desafio a vencer, relacionado às desigualdades sociais e o acesso à educação. Do ponto de vista da condição econômica, os que se declararam Nada interessados em C&T tendem a pertencer às classes C e D, enquanto os que se declararam Muito interessados são uma fração importante de indivíduos pertencentes às classes A e B. Uma novidade é que a oferta de dados sobre ciência e tecnologia em São Paulo organizados pela FAPESP vai aumentar. “A partir do segundo semestre de 2011 a FAPESP passará a acompanhar os indicadores de dispêndio, de pessoal, de publicações e de patentes de forma muito mais frequente, incluindo a publicação de um boletim mensal destacando os pontos de maior impacto para as estratégias para C&T em São Paulo. Além disso, anualmente será publicada uma sinopse dos dados”, diz Carlos Henn rique de Brito Cruz. PESQUISA FAPESP 185
n
julho DE 2011
n
33
[ história II ]
Novos paradigmas
C
riado numa fase de consolidação da FAPESP, que ainda não completara 10 anos de atividades, o Programa para o Desenvolvimento da Bioquímica (Bioq-FAPESP) inovou na década de 1970 ao escolher uma área emergente da pesquisa mundial – na qual, contudo, o estado de São Paulo tinha destaque restrito – e investir na formação de novos núcleos de pesquisadores, garantindo financiamento para projetos e montagem de laboratórios. Os frutos científicos do programa são vários. O grupo de Carl Peter Von Dietrich (1936-2005), por exemplo, estabeleceu a estrutura da heparina, composta por uma sequência de açúcares ligados entre si. Com base nesse achado, Dietrich, que era professor da Escola Paulista de Medicina (EPM), pôde desenhar heparinas de baixo peso molecular, mas capazes de atuar como anticoagulantes. Hoje o negócio da heparina movimenta US$ 6 bilhões no mundo. O grupo de Walter Colli, do Instituto de Química da Universidade de São Paulo (IQ-USP), demonstrou que o Trypanosoma cruzi, protozoário causador da doença de Chagas, era repleto de açúcares em sua superfície. No aprofundamento desse achado, a doutoranda Maria Júlia Manso Alves chegou a uma molécula nova, composta por açúcares e lipídeos, e estabeleceu parte de sua estrutura. O pesquisador escocês Michael Ferguson repetiu o trabalho e disse a Maria Júlia que as âncoras de proteínas, cuja estrutura ele estava começando a estudar, tinham propriedades muito parecidas com a molécula descrita pelo grupo brasileiro, o que facilitou a sua identificação. As âncoras são estruturas glicolipídicas que prendem as proteínas às membranas. Entre as linhas de pesquisa que se expandiram, também se destacam, entre outras, a de síntese de peptídeos, liderada por Antonio Cechelli de Mattos Paiva (1929-2006), da EPM, a de biologia molecular, capitaneada pelo professor Francisco Jeronymo Salles Lara (1925-2004), a de fotoquímica no escuro, liderada por Giuseppe Cilento (1924-1994), e a de reparo de DNA, sob o comando de Rogério Meneghini, os três últimos da USP.
34
n
julho DE 2011
n
PESQUISA FAPESP 185
O Programa Bioq-FAPESP impulsionou a bioquímica nos anos 1970 e inspirou políticas de fomento à pesquisa
Lançado em 1971, o programa funcionou também como um laboratório de experiências que deixaram marcas no ambiente das universidades e viriam a inspirar novas estratégias de estímulo à pesquisa da FAPESP. “Era preciso ter mérito para ser selecionado, mas os pesquisadores que demonstraram competência e foram contemplados passaram a ter uma grande liberdade intelectual e prestígio, ainda que vários fossem muito jovens”, diz Hernan Chaimovich, hoje professor aposentado do IQ-USP e um dos coordenadores do programa. O Bioq-FAPESP foi o primeiro dos projetos especiais aprovados pela Fundação de 1970 a 1988, que nos três primeiros anos investiu US$ 1 milhão – o que, na época, tinha um poder de compra equivalente a US$ 5,5 milhões atuais. O rigor na execução do programa era lastreado por uma comissão externa, incumbida de fazer uma auditoria permanente e independente dos projetos, formada pelos professores Philip Pacy Cohen (1908-1993) e Gerald Mueller (1920-2010), da Universidade de Wisconsin, Leonard Bernard Horecker (1914-2010), do Albert Einstein College of Medicine, e Marshall Warren Nirenberg (1927-2010), dos Institutos Nacionais de Saúde dos Estados Unidos, que ganhara o Prêmio Nobel de Medicina e Fisiologia de 1968 por ter interpretado as tríades de nucleotídeos no RNA mensageiro responsáveis pela codificação de aminoácidos.
reproduções do livro pesquisa & desenvolvimento - FAPESP
“Tínhamos de apresentar os projetos em inglês para serem enviados aos avaliadores nos Estados Unidos. Depois eles vieram e entrevistaram a gente. Era dureza”, diz Walter Colli, um dos contemplados pelo programa. O comitê se atinha ao mérito do projeto e do pesquisador para dar seu veredicto, independentemente da idade ou da posição do candidato. “Aquilo foi uma afronta às estruturas da universidade da década de 1960”, afirma Hernan Chaimovich. “Certa vez, um professor titular teve seu projeto rejeitado pela comissão. Mas eu, que era estrangeiro, ainda não havia completado o doutoramento e tinha um contrato temporário na USP, fui contemplado e participei do comitê de coordenação”, afirma ele. Equipamento - Um nome-chave para
a criação do programa foi o de Francisco Lara, professor titular no Departamento de Bioquímica do recém-criado Instituto de Química da USP. A ideia surgiu em 1969, quando Lara discutia com o então diretor científico da FAPESP, o físico Oscar Sala (19222010), sobre a necessidade de investir em infraestrutura na pesquisa em bioquímica. Ele reivindicava a aquisição de um equipamento, uma centrífuga analítica, e se prontificava a partilhá-lo com outros grupos de pesquisa do país – já havia um em São Paulo, mas Lara não conseguia permissão para
utilizá-lo. Como a diretoria científica da FAPESP fora autorizada pelo conselho superior a investir em projetos especiais, Sala propôs uma abordagem mais ousada. Daí surgiu o escopo de um grande programa, capaz de levar a pesquisa em bioquímica a um novo patamar. “Consta que o professor Lara, ao propor o projeto, disse que assim como os Estados Unidos mandaram o homem à Lua, o Brasil ia mandar um homem à Suécia, referindo-se ao potencial do programa de gerar um Prêmio Nobel brasileiro”, diz Rogério Meneghini, professor aposentado do IQ-USP, que também teve um projeto contemplado pelo programa. Em 1970, bioquímicos da USP e da EPM, atual Universidade Federal de São Paulo (Unifesp), estimulados por Sala, formularam um Plano para o Desenvolvimento da Bioquímica na Cidade de São Paulo. O plano foi escrito por uma comissão composta pelos professores Lara, Chaimovich e Colli, Metry Bacila, da USP, e Carl Dietrich e Antonio Cechelli de Mattos Paiva, da EPM. Como a Fundação não tinha experiência num programa com tal envergadura, optou-se por
um recorte restrito. O Bioq-FAPESP tinha previsão de duração de três anos e limitava sua ação a grupos da cidade de São Paulo – o que, naturalmente, desagradou a pesquisadores de outras instituições do estado. “Mas a cidade de São Paulo concentrava os grupos mais articulados e se temia que o projeto desandasse caso se ampliasse demais”, diz Walter Colli. A administração foi delegada a uma comissão de cinco membros eleitos pelos participantes do projeto, cabendo a ela escolher o coordenador e o vice-coordenador, que foram os professores Cechelli Paiva e Carl Dietrich. A assessoria e o acompanhamento dos projetos ficaram a cargo do comitê internacional que, na fase de organização do programa, havia avaliado o desenho proposto e recomendado a aprovação. Carlos Ribeiro Diniz (1919-2002), professor da Universidade Federal de Minas Gerais, atuou como consultor especial do diretor científico da FAPESP – optou-se por um nome de fora de São Paulo para evitar que um pesquisador com interesse no programa participasse da avaliação. Segundo um artigo sobre o Bioq-FAPESP escrito em 2000 por Walter Colli, o programa começou em 1971 com 14 projetos científicos e, durante os três anos seguintes, mais 11 projetos PESQUISA FAPESP 185
n
julho DE 2011
n
35
Evolução - Segundo Hernan Chaimovich, o impacto do programa no campo da bioquímica foi notável. “Se compararmos a produção na área de bioquímica em 1960 e em 1980 – e confrontarmos essa evolução com qualquer outra área, veremos que a bioquímica dispara. Houve consolidação de linha de reflexão em várias áreas da bioquímica num momento em que a biologia molecular começou. Dez anos depois do programa, havia pelo menos 10 grupos independentes consolidados, formando quadros e fazendo pressão por mais recursos”, afirma. Rogério Meneghini, 36
n
julho DE 2011
n
PESQUISA FAPESP 185
N. MacVicar / National Institutes of Health
foram incluídos. Até 1974, quando o primeiro relatório global foi apresentado, eram 21 os grupos constituídos. Nos anos seguintes, os poucos projetos introduzidos vinham de colaboradores que adquiriram independência dos grupos originais. Até 1978, esses grupos desenvolveram, com recursos do programa, 34 projetos, além de nove outros de interesse comum aos diversos grupos e dos quais resultaram laboratórios para síntese de peptídeos e de espectropolarimetria. Foram convidados 20 cientistas do exterior, como professores visitantes, que interagiram com os diversos grupos e ministraram cursos avançados de suas especialidades. O programa apoiou 29 pesquisadores de São Paulo para apresentarem trabalhos ou realizarem curtas visitas a laboratórios do exterior. No período de 1970 a 1978, 65 alunos de pós-graduação ligados ao Bioq-FAPESP receberam o título de doutor e 43, de mestre. Entre eles há vários nomes que se tornaram líderes, como Helena Nader, presidente da Sociedade Brasileira para o Progresso da Ciência, Jorge Guimarães, presidente da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), e Eloi Garcia, ex-presidente da Fundação Oswaldo Cruz. “Essa atividade intensa e contínua resultou, no período, na publicação de 394 trabalhos científicos em periódicos indexados na literatura internacional, além de numerosas comunicações a congressos e conferências ministrados no Brasil e no exterior. Esse é o número de publicações no período considerado, mas certamente ele é maior se considerarmos a projeção, no futuro imediato, dos efeitos do projeto”, observa Colli.
Nirenberg, Nobel de 1968: seleção pelo mérito
que se integrou ao programa em 1974 quando retornava do pós-doutorado nos Estados Unidos, conta que ficou surpreso ao encontrar todos os equipamentos que pedira já disponíveis. “Eles estavam lá me esperando, o que não era trivial para alguém com a minha experiência e a minha idade. Vários químicos da minha geração só conseguiram ter uma infraestrutura desse tipo bem mais tarde na carreira”, diz Meneghini, cujo projeto aprovado envolvia mecanismos de reparo de DNA. O Bioq começou a perder fôlego a partir de 1976 e foi encerrado em 1978. Depois disso, no entanto, os grupos de pesquisa ligados ao programa seguiram obtendo apoio da FAPESP para projetos individuais. “Nunca ficou claro por que o programa acabou”, diz Hugo Armelin,
professor aposentado do Departamento de Bioquímica do IQ-USP. Ele observa que havia contestações em relação ao investimento num determinado campo do conhecimento em detrimento de outros, num momento em que os recursos de que a Fundação dispunha eram limitados. Também causava certa estranheza o sistema para avaliação dos projetos e concessão dos auxílios, que divergia da forma normalmente adotada pela FAPESP quanto à assessoria e ao destino dos recursos. Em vez de pareceres sigilosos, o mérito das propostas era avaliado pelos comitês nacional e internacional, cujos membros eram conhecidos. No lugar de distribuir os recursos para projetos individuais de todas as áreas, privilegiou-se uma área específica. Embora os auxílios fossem
Acervo da família de Oscar Sala
concedidos diretamente aos pesquisadores, levava-se também em consideração a sua distribuição racional nas instituições participantes no que se refere aos programas de interesse geral e aos equipamentos de grande porte. “Nesse sentido, embora a outorga fosse mantida ao indivíduo, o projeto Bioq-FAPESP tinha um caráter parcialmente institucional”, lembra Walter Colli. De acordo com Hugo Armelin, que se incorporou ao programa em 1974 depois de fazer pós-doutorado na Universidade da Califórnia, San Diego, era arraigada a crença de que a Fundação deveria fomentar as demandas por recursos para pesquisa, atendo-se ao mérito das propostas, mas não de interagir exageradamente com as instituições tentando organizar áreas. Dez anos depois, Os demais programas especiais aprovados tihavia ao menos veram uma abordagem distinta: buscavam re10 grupos solver problemas ponconsolidados, tuais de pesquisa. Com o aumento dos formando recursos da Fundação estabelecido pela Consquadros e tituição estadual de 1989 e o fim da inflação, fazendo pressão a FAPESP passou a ter um caixa reforçado para por recursos investir em projetos ambiciosos e foi inspirar-se na experiência do Bioq-FAPESP, observa Hugo Armelin. “Os próprios projetos temáticos, que articulam vários com potencial de desenvolvimento de grupos de pesquisa durante um prazo novas tecnologias ou que contribuem para a formulação de políticas públicas. de tempo de até cinco anos, têm muito da racionalidade do Bioq”, diz. “Posso Em 2009, essas duas linhas utilizaram dizer isso porque membros do Bioq, co22% dos recursos da Fundação. A maior mo eu e Meneghini, participaram da parte do orçamento, porém, segue senformulação do programa dos temátido destinada à formação de recursos cos”, afirma. Oscar Sala, alçado à presihumanos, na forma de bolsas (36% do dência do conselho superior entre 1985 total) e projetos de demanda espontâe 1995, também ajudou a resgatar a exnea dos pesquisadores (42%). periência. Os diretores científicos Flavio O Programa Jovens Pesquisadores Fava de Moraes e José Fernando Perez em Centros Emergentes, que financia por até cinco anos jovens líderes de cercaram-se de coordenadores que haviam participado do Bioq-FAPESP, caso pesquisa mesmo se estiverem desvinde Colli, Meneghini e Paiva. culados da estrutura de universidades, A FAPESP dispõe hoje de vários protambém se inspirou na experiência do gramas especiais, criados para induzir a Bioq para a formação de novas lideranpesquisa em áreas estratégicas, e diverças – e foi idealizado por Meneghini. Para Walter Colli, o próprio Programa sos programas de pesquisa para inovaGenoma FAPESP deve ao Bioq, pois os ção tecnológica, que apoiam pesquisas
Oscar Sala: aposta em área emergente
recursos humanos formados na década de 1970 foram fundamentais para o programa lançado na década de 1990. “Ouso afirmar que o historiador do futuro, examinando os eventos com a necessária distância, poderia pensar, dada a surpreendente continuidade – embora lenta, dada a velocidade com que caminha a ciência –, que o Programa Genoma já fazia parte dos planos de quem implantou o Bioq-FAPESP”, escreveu Colli num artigo de 2000. O fortalecimento da Sociedade Brasileira de Bioquímica, que foi recriada no mesmo ano em que surgiu o Bioq-FAPESP, também é apontado como reflexo do programa. “O programa estava à frente do seu tempo e, por isso, a experiência demorou um pouco para ser aproveitada”, diz Armelin. n PESQUISA FAPESP 185
n
julho DE 2011
n
37
[ orçamento ]
A batalha do pré-sal Sociedades científicas vão a Brasília para tentar reverter perda de recursos
Plataforma de petróleo: royalties
38
n
julho DE 2011
n
PESQUISA FAPESP 185
Divulgação Petrobras / ABr
A
Academia Brasileira de Ciências (ABC) e a Sociedade Brasileira para o Progresso da Ciência (SBPC) preparam uma ofensiva junto a deputados federais e senadores para reverter perdas no orçamento federal de ciência e tecnologia impostas pela legislação que estabeleceu o marco regulatório para a exploração de petróleo na camada pré-sal. Sancionada com vetos pelo presidente Luiz Inácio Lula da Silva, em dezembro de 2010, a lei 12.351 retiraria já neste ano cerca de R$ 900 milhões do orçamento, segundo cálculos do Ministério da Ciência e Tecnologia (MCT). A sangria foi evitada graças a um decreto presidencial, o 7.403, que criou regras de transição, adiando a aplicação de um novo modelo para 2012, e ao envio ao Congresso de um projeto de lei para rediscutir a partilha, que está em tramitação. Atualmente, 12,5% dos royalties da exploração de petróleo são destinados aos cofres do MCT. Com a mudança proposta, um percentual de 20% dos royalties comporiam o chamado Fundo Social e deveriam ser repartidos entre os orçamentos de ciência e tecnologia,
O tamanho da perda Quanto o MCT receberia em royalties nos próximos nove anos, em dois cenários
20
R$ 16,9 bi
15
10
R$ 4,7 bi 5
0 regra atual
proposta do pré-sal
saúde, educação, esportes e meio ambiente. Embora essa divisão deva ser discutida pelo Congresso, é improvável que o MCT preserve a fatia de antes. “A ameaça é real e precisamos agir”, diz Jacob Palis, presidente da ABC e pesquisador do Instituto Nacional de Matemática Pura e Aplicada (Impa). “Vamos nos aproximar de lideranças do Congresso para participar do debate. Uma parceria natural é com parlamentares de São Paulo, Rio de Janeiro e Espírito Santo, que foram os estados mais prejudicados com as mudanças nas regras de partilha, mas queremos conversar com todos, em nome dos interesses do país”, afirma. Se hoje a comunidade científica discute formas de evitar a perda do investimento, quando foi descoberto petróleo na camada pré-sal, acreditava-se que os recursos poderiam ampliar o orçamento federal de ciência e tecnologia. “Essa riqueza poderia tirar o Brasil do ponto em que ele está, investindo em qualidade de educação, ciência, tecnologia e inovação”, diz a presidente da SBPC, Helena Nader. “Estamos escolhendo o caminho errado, que é o de pulverizar os recur-
sos pelos municípios. Claro que cada prefeito tem um projeto que considera importante, mas são projetos de curto prazo. Se colocarmos na educação, na ciência e na tecnologia, vamos estar apostando hoje e no futuro”, afirma Helena, que é professora da Universidade Federal de São Paulo (Unifesp) e membro da coordenação da área de biologia da FAPESP. A presidente da SBPC cita o exemplo de países como Coreia do Sul e China, que decidiram investir pesadamente em educação e inovação, e deram saltos. “Vamos precisar de dinheiro novo e nem era necessário que fosse de forma definitiva. Poderiam determinar que a ciência teria dinheiro do pré-sal por 20 anos, para mudarmos de patamar nesse período.” Hecatombe - As entidades científicas
trabalham com três cenários. O mais preocupante é a ameaça de parlamentares, tanto da base do governo quanto da oposição, de derrubar os vetos impostos pelo presidente Lula, que sangrariam ainda mais o orçamento da União, em benefício de estados e municípios. “Seria uma hecatombe completa”, diz o
deputado Newton Lima Neto (PT-SP), ex-reitor da Universidade Federal de São Carlos, que é membro da Comissão de Ciência, Tecnologia e Comunicações da Câmara. “O anseio de aumentar os gastos em ciência e tecnologia para 2% do PIB ficaria muito distante da realidade”, afirma. Um segundo cenário prevê a votação de uma nova legislação capaz de mitigar as perdas – o projeto 8.051/2010, de iniciativa do Poder Executivo, está tramitando na Comissão de Minas e Energia da Câmara, e foi anexado a outro projeto, o 1.618, apresentado em 2003, que também regula a distribuição dos royalties. Segundo o relator do projeto, o deputado federal Fernando Jordão (PMDB-RJ), é possível aperfeiçoar o texto do Poder Executivo e evitar perdas significativas. “Temos que tomar muito cuidado, porque as pesquisas no país precisam avançar cada vez mais para que novos campos, novas tecnologias, novas riquezas sejam descobertas, como foi o pré-sal. Gostaria muito de, em meu relatório, garantir os recursos para pesquisa e educação”, diz o parlamentar. Uma possibilidade, acrescenta ele, é manter o regime de partilha atual para os contratos antigos de exploração, preservando os recursos do MCT e da Marinha, e mudar a regra apenas para os contratos novos. Um terceiro cenário, de caráter paliativo, seria a prorrogação do decreto presidencial, adiando as perdas para 2013, caso o Congresso não vote a matéria neste ano. O ministro Aloizio Mercadante, do MCT, tem defendido uma articulação da comunidade científica para evitar a perda de orçamento. “Nos próximos nove anos, perderíamos R$ 12,2 bilhões dos R$ 16,9 bilhões que receberíamos. Se isso acontecer, será um tremendo erro histórico”, afirmou Mercadante, citando um artigo do economista Celso Furtado de meados dos anos 1970, em que alertava para o risco de a Venezuela, com suas grandes reservas petrolíferas, embotar o seu desenvolvimento, importando produtos em vez de estimular sua indústria – o que, efetivamente, aconteceu. “Se os recursos do pré-sal forem consumidos em gastos públicos, não deixaremos nada para as gerações futuras”, disse o ministro. n
Fabrício Marques PESQUISA FAPESP 185
n
julho DE 2011
n
39
[ Gênero ]
Guerra ao estereótipo
divulgação
Alunas da Unicamp se articulam para ampliar presença feminina na engenharia
E
las são poucas, mas estão dispostas a brigar para deixar de ser minoria. Alunas de pós-graduação da Faculdade de Engenharia Elétrica e de Computação (Feec) da Universidade Estadual de Campinas (Unicamp) criaram no final de 2010 o grupo Mulheres na Engenharia, com a ambição de encorajar a atuação feminina em carreiras tecnológicas, além de dar apoio a todas as estudantes da Feec. Atualmente as alunas de graduação correspondem a apenas 7% do total de matriculados e as de pós-graduação, em torno de 15%. O grupo está crescendo. No momento agrega pouco mais de uma dezena de estudantes e já atua em várias frentes. Promove, por exemplo, reuniões para discutir as dificuldades geradas pelo predomínio masculino no ambiente acadêmico e para reforçar a autoestima das garotas. “Hoje não é comum ouvir manifestações explícitas de preconceito, mas persiste uma situação de isolamento e inadequação que leva muitas meninas a achar que aquele não é o seu ambiente. Algumas abandonam o curso e várias não chegam a desenvolver todo seu potencial, mesmo sendo vocacionadas para a engenharia”, diz Vanessa Testoni, doutoranda da Feec e líder do grupo. “As alunas sentem que só começam a ser respeitadas e aceitas no grupo depois das primeiras provas, quando tiram notas altas. E é frequente, nos primeiros contatos, que pares se dirijam a elas, falando, por exemplo, numa linguagem simplificada, como se não pudessem entender uma explicação complexa, ou se surpreendam com comentários inteligentes e os altos rendimentos delas”, afirma. Uma segunda frente de atuação é a organização de palestras com engenheiras bem-sucedidas, convidadas a expor suas trajetórias e os obstáculos que enfrentaram. “É uma forma de sinalizar que há espaço para as mulheres na engenharia e, novamen-
40
n
julho DE 2011
n
PESQUISA FAPESP 185
te, que não há motivo para desistir”, afirma Vanessa. As experiências narradas mostram que as dificuldades permeiam o mercado de trabalho e a carreira acadêmica. “Profissionais iniciantes, por exemplo, são poupadas de viagens e de certos trabalhos com a justificativa de que precisam ser preservadas ou de que os ambientes não são apropriados para mulheres. Mesmo profissionais já bem-sucedidas sentem a necessidade de provar sua competência sempre que são submetidas a novas situações profissionais em ambientes como congressos e eventos dos quais nunca haviam participado. Nós enfatizamos que elas precisam combater o isolamento, pois é fundamental aproveitar estas novas oportunidades para estabelecer contatos em redes profissionais.” O grupo é a instância na Unicamp do Women in Engineering (WIE), que é um ramo do Instituto dos Engenheiros Eletricistas e Eletrônicos (IEEE), consagrada associação mundial de profissionais na área de tecnologia. Vanessa conheceu o grupo no campus do instituto Microsoft Research, em Redmond, onde fez parte de seu doutorado. “As pesquisadoras da Microsoft organizam almoços mensais para todas as mulheres. Nestes encontros tive a oportunidade de conhecer grupos de mulheres em tecnologia de várias instituições, entre eles o WIE. Quando voltei ao Brasil, conversei com outras alunas de pós-graduação, reunimos as assinaturas e estas alunas também se tornaram sócias do IEEE. Assim, oficializamos o grupo”, afirma. A baixa participação das mulheres na engenharia é um problema mundial. Um estudo recente realizado pela Universidade de Wisconsin constatou que as mulheres compõem 20% dos alunos formados em engenharia dos Estados Unidos, mas são apenas 11% dos profissionais ativos. O ambiente de trabalho opressivo as levaria a se afastarem da profissão. Nos países europeus, a porcentagem de mulheres continua
eduardo cesar
O grupo de alunas da Feec e a Barbie engenheira (esq.)
a ser baixa nos cursos de engenharia, em torno de 19%. No Brasil, as mulheres são apenas 25% dos estudantes matriculados em cursos de engenharia e formam não mais do que 15% da força de trabalho dos engenheiros do país, de acordo com dados da Federação Nacional dos Engenheiros. Outras iniciativas estão sendo preparadas pelo grupo da Unicamp. Uma delas consiste em envolver as estudantes em projetos que reúnam empresas e setores da sociedade civil para aproximar as futuras engenheiras das várias possibilidades que a engenharia oferece. Está em gestação, por exemplo, um projeto de desenvolvimento de sensores conectados a dispositivos móveis para monitorar a temperatura de crianças em tratamento de quimioterapia.”Nós acreditamos que este projeto, além de despertar nas alunas a paixão e o encantamento que nós do grupo já sentimos pela engenharia, pode mostrar de maneira prática como a tecnologia é capaz de beneficiar a humanidade”, afirma Carolina Franciscangelis, aluna de graduação da Feec e coordenadora dos projetos tecnológicos do grupo. O Mulheres na Engenharia também planeja lançar na Unicamp um dos programas de mentoria patrocinados pelo WIE. Trata-se do Star (Student-Teacher and Research Engineer/Scientist), que procura estimular o ingresso de mulhe-
A ambição é divulgar uma imagem positiva da engenharia, associando-a a coisas divertidas res na engenharia. A meta é visitar, ainda neste ano, pelo menos cinco escolas de ensino médio de Campinas para fazer palestras sobre a carreira e oferecer ajuda para garotas interessadas. “A intenção é divulgar uma imagem positiva da carreira, associando matemática e ciências a coisas divertidas e derrubar estigmas associados às mulheres da engenharia, como o de que são todas nerds que não se relacionam socialmente”, diz Paula Paro Costa, doutoranda da Feec responsável pelo programa, que atua numa linha de pesquisa sobre animação facial. Segundo Paula, é preciso combater a ideia, carregada desde cedo por muitas meninas, de que matemática e física são muito difíceis e que, por isso, não são para elas. “Vamos enfatizar também que, apesar do curso
de engenharia realmente requerer muita dedicação, é uma carreira que pode ser extremamente recompensadora em vários aspectos. Nosso trabalho, naturalmente, não ficará restrito às meninas, pois há uma carência de engenheiros, independentemente do gênero”, afirma. Paula, que é mãe de duas meninas, uma de 2 e outra de 5 anos, diz que a mais velha já passa por situações reveladoras de que ainda existe a presença forte de estereótipos. “Ela disse que odeia o Dia do Brinquedo na escola, porque as meninas levam bonecas e os garotos, brinquedos de luta, quando o que ela gosta é de brinquedos de montar e de quebra-cabeças. O que ela relatou é parecido com o que muitas meninas do nosso grupo disseram sentir desde a escola quando demonstravam maior aptidão para as ciências exatas”, afirma. Nos Estados Unidos, a guerra aos estereótipos contou, no ano passado, com a ajuda da cinquentenária Barbie. A fabricante da boneca promoveu eleição entre as consumidoras para escolher novas carreiras para a loira longilínea, que culminou com o lançamento nas lojas de versões da Barbie em trajes profissionais. Depois de incorporar mais de 120 profissões, finalmente surgiu a Barbie engenheira de computação. n
Fabrício Marques PESQUISA FAPESP 185
n
julho DE 2011
n
41
Cyrus Read / US Geological Survey
laboratório
fonte de fumaça
eduardo cesar
Semanas atrás um vulcão do Chile liberou uma impressionante quantidade de gases e poeira que cobriu os carros e fez os aviões permanecerem em terra. Os seres humanos, porém, produzem muito mais gases do que as mais espetaculares erupções vulcânicas. Em três a cinco dias, as atividades humanas geram a quantidade de dióxido de carbono (CO2) que os vulcões produzem no mundo em um ano (Eos, junho 2011). Terrance Gerlach, do Serviço Geológico dos Estados Unidos, verificou que os vulcões liberam de Gigante ativo: 100 milhões a 500 milhões de tonevulcão Shishaldin, no Alasca ladas de CO2 por ano e as atividades humanas, 35 bilhões de toneladas. O efeito da ação humana sobre o clima pode ir além. Valendo-se de modelos climáticos computacionúmero alto de cães soltos, em média 6,2 animais por nais, pesquisadores da Universidade Stanford, Estados Unidos, quilômetro quadrado, concluíram que as áreas tropicais e o hemisfério Norte devem vivendo próximo – e muitas sofrer elevação intensa e permanente das temperaturas nos próximos 20 anos, tornando os verões e invernos mais quenvezes no interior – de tes, se a concentração de gases do efeito estufa continuar a remanescentes de floresta aumentar (Climate Change Letter, junho de 2011). em São Luiz do Paraitinga,
Por favor, cuide do seu cão Eis um inimigo involuntário – e geralmente desconsiderado – da preservação ambiental: o cão. Quando são muitos e vivem soltos, podem fazer grande estrago em áreas verdes que deveriam permanecer intocadas. Os biólogos Patrícia Torres e Paulo Inácio Prado, da Universidade de São Paulo, saíram impressionados de um levantamento de campo em que identificaram um
Amigo fiel: ameaça às matas 42
■
julho DE 2011
■
PESQUISA FAPESP 185
interior paulista. Havia entre 92 e 102 animais em cada área de estudo (Brazilian Journal of Biology, novembro de 2010). Cães são hoje os carnívoros mais abundantes na mata atlântica. Entrando nas matas que restam em meio a pastagens e plantações, os cães caçam animais silvestres e podem lhes transmitir doenças. Assim ampliam o efeito de borda – perda de vegetação e de animais próximo aos limites dos fragmentos florestais. Os biólogos observaram que a maioria dos cães tem donos. O próximo passo é convencê-los a não deixar os animais tão soltos.
um pouco por vez Há um século se sabe que sobrecarregar o cérebro com novidades dificulta a memorização. Pesquisadores japoneses acreditam ter identificado por que isso ocorre. Em testes com roedores, eles viram que movimentos ensinados em um treino de uma hora eram lembrados por um dia. Os animais, porém, recordavam por mais tempo a informação ensinada ao longo de horas. O ensino intercalado por períodos de descanso ajuda a consolidar a memória, que depende da transferência de informação do cerebelo para outra área do sistema nervoso central. A transferência, mostrou Takehito Okamoto, depende da produção de proteínas (Journal of Neuroscience, 15 de junho de 2011).
Luciano Faustino / Wikimedia Commons
Único mamífero que voa por conta própria, o morcego é um acrobata do ar: faz manobras bruscas, voa em condições turbulentas e paira no ar. Tanta habilidade não depende só do sofisticado sistema de localização espacial que funciona como um sonar. Parte do segredo está oculta em suas asas. Formadas por membranas que conectam os ossos correspondentes aos dedos, elas são recobertas por dois tipos de pelo: os longos e visíveis, que se concentram próximo a braços, pernas e cauda; e os microscópicos e rígidos, distribuídos sobre a superfície das asas. São os últimos que permitem aos morcegos os movimentos arrojados a baixa velocidade. Os micropelos funcionam como sensores do fluxo de ar, constataram pesquisadores dos Estados Unidos. O grupo liderado por Susanne Sterbing D’Angelo, da Universidade de Maryland, aplicou sobre os pelos microscópicos sutis jatos de ar com diferentes orientações e mediu os
Canal do Valo Grande, em Iguape
Wikimedia Commons
Acrobata aéreo
Morcegos: sensores nas asas
sinais que chegavam ao cérebro. Mais tarde, os pesquisadores repetiram as medições depois de aplicar creme depilador às asas dos morcegos. Em outro teste, eles registraram a velocidade de voo e os ângulos de manobra antes e depois da depilação. Morcegos depilados voavam mais rápido e faziam curvas mais abertas que os com pelos (PNAS, no prelo). Os pesquisadores acreditam que os pelos microscópicos ajudam a detectar a perda de sustentação. Sem eles, os morcegos voam mais rápido para não cair.
mudanças no clima Chuvas intensas como as que em 2008 deixaram sob a água a cidade de Itajaí, em Santa Catarina, estão se tornando mais frequentes. Os meteorologistas Mateus
Teixeira, da Universidade Federal de Pelotas, e Prakki Satyamurty, do Instituto Nacional de Pesquisas Espaciais, foram atrás dos registros de chuva de 202 estações pluviométricas da Região Sudeste e de 109 da Região Sul. De 1960 a 2004, houve 510 tempestades no Sudeste e 466 no Sul – em média, 10 por ano. Mas os aguaceiros vêm se tornando mais comuns nos estados sulinos: há uma tempestade a mais a cada cinco anos nas áreas em que mais cresceram os episódios de chuvas intensas no Sul – e uma extra a cada 20 anos no Sudeste. “Essa tendência pode sinalizar que as mudanças climáticas estão alterando o padrão de chuvas nessas regiões brasileiras”, escreveram os autores (Journal of Climate, 1º de abril de 2011).
uma ilha em crescimento No extremo sul do litoral paulista, a Ilha Comprida forma uma vasta barreira de areia entre o Atlântico e a região continental que vai de Cananeia à foz do rio Ribeira de Iguape. Com 64 quilômetros de comprimento e 4 de largura, a ilha, um dos balneários mais preservados do estado, vem crescendo em ritmo acelerado nos últimos tempos. Literalmente. Ela está se tornando mais larga e comprida. Estudo de geólogos da Universidade de São Paulo determinou a taxa de crescimento da ilha desde que começou a se formar há 6 mil anos. A redução de 3,5 metros no nível do oceano e o acúmulo de areia levada do continente para o mar fizeram a ilha aumentar 10 quarteirões por ano entre 5.200 e 1.900 anos atrás. Desde então, o ritmo de expansão triplicou – e explodiu nos últimos 200 anos. Hoje a ilha cresce 90 quarteirões todos os anos (Marine Geology, no prelo). O grupo atribui a aceleração recente à interferência humana. A derrubada da vegetação ao longo dos rios e a abertura de um canal artificial – o Valo Grande – em Iguape ajudam a ilha a inchar. PESQUISA FAPESP 185
■
julho DE 2011
■
43
CiĂŞncia
das
A vida palavras
[ Estatística ]
Físicos e linguista examinam a evolução do vocabulário de comunidades on-line Igor Zolnerkevic ilustrações Larissa Ribeiro
N
inguém sabe quantas palavras nascem a todo momento. Os estudiosos da linguagem só têm certeza de que elas devem ser muitas e de que a imensa maioria é raramente usada, geralmente esquecida. Afinal, existem muito mais palavras do que um único ser humano conseguiria aprender ao longo da vida. Para se ter uma ideia, o serviço de busca Google registrou 13 milhões de palavras distintas em língua inglesa usadas pelo menos 200 vezes em páginas na internet até 2006, enquanto pesquisadores estimam que o tamanho do vocabulário de um adulto com bom nível educacional não ultrapassa 100 mil palavras. O mistério da criação das palavras continua, mas um estudo publicado em maio na revista PLoS ONE, realizado pelos físicos brasileiros Eduardo Altmann e Adilson Motter em parceria com uma linguista norte-americana, ajuda a entender melhor como o vocabulário de uma comunidade evolui com o tempo. Ao analisarem estatisticamente milhares de palavras empregadas por quase 167 mil usuários de dois grupos de discussão na internet durante uma década, o trio de pesquisadores concluiu que as chances de uma palavra, velha ou nova, permanecer em uso no futuro não dependem tanto da frequência com que ela é usada atualmente, mas sim da variedade de assuntos em que é empregada e, mais importante ainda, do número de pessoas que a utilizam. Nas palavras do autor principal do estudo, Altmann, do Instituto Max Planck de Física de Sistemas Complexos, em Dresden, Alemanha, para manter a variedade de palavras em uso em uma comunidade, “é melhor muita gente falar pouco do que pouca gente falar muito”. Esse não é o primeiro artigo sobre evolução do vocabulário assinado por Altmann e Motter, da Universidade Northwestern, em Evanston, no estado norte-americano de Illinois. A troca de mensagens entre milhões de pessoas por meios eletrônicos deixa vestígios na forma de bases de dados que cada vez mais os físicos estão se interessando em explorar, em busca de padrões que revelem a dinâmica social por trás da interação digital. “Físicos são muito bons em descobrir relações entre os mecanismos subjacentes e os padrões observados”, diz a outra autora do estudo, a linguista Janet Pierrehumbert, da Universidade Northwestern, sobre a colaboração. “Eles também são muito bons em fazer analogias entre um tipo de fenômeno e outro.” Os pesquisadores escolheram analisar a atividade até 2008 de dois grupos de discussão da família de fóruns públicos Usenet, atualmente hospedados pelo Google, mas que já existiam em 1979, 10 anos antes da invenção das páginas web. Um dos fóruns estudados foi o comp.os.linux. misc, criado em 1993 para discutir o sistema operacional Linux, do qual participaram 128.903 pessoas, que iniciaram 140.517 tópicos de conversação. O outro foi o rec.music. hip-hop, grupo de discussão do gênero musical hip-hop, iniciado em 1995, em que 37.779 pessoas se engajaram ao menos uma vez em um dos 94.074 tópicos discutidos. O número total de palavras escritas pelos usuários de um desses grupos durante um intervalo de seis meses variava de quase 1 milhão a mais de 5 milhões. PESQUISA FAPESP 185
n
julho DE 2011
n
45
vocábulos flutuantes De 1998 a 2000, palavras em inglês com alto grau de disseminação entre membros de um grupo de discussão sobre o sistema Linux cresceram em popularidade. No gráfico ao lado, elas estão representadas em cores que vão do vermelho ao amarelo. As palavras com baixa disseminação (do lilás ao preto) passaram a ser menos usadas. A variação na popularidade não dependeu da frequência de uso.
Fonte: Eduardo Altmann
Para quantificar como cada uma das palavras usadas nesses grupos era disseminada entre os usuários e os tópicos ao longo do tempo, não bastava simplesmente contar a cada seis meses o número de vezes que cada usuário usava a palavra e quantas vezes ela aparecia em cada tópico. A análise estatística precisou levar em conta o fato de que a atividade dos usuários e o tamanho das conversas desses grupos variavam muito. Alguns poucos usuários escreviam demais o tempo todo, enquanto muitos só contribuíam um pouquinho de vez em quando. Ao mesmo tempo, alguns poucos tópicos tinham mais de mil mensagens postadas, com a discussão durando mais de três anos, enquanto o tópico médio tinha cinco mensagens, durando cinco dias. No fim, conseguiram definir uma quantidade que mede o grau de disseminação de uma palavra entre usuários e conversas independentemente da frequência daquela palavra. Dessa maneira, conseguiram comparar a disseminação de palavras de ocorrência rara com a de palavras de uso frequente. Presente e futuro - O passo seguinte
foi comparar o número de vezes que cada palavra apareceu nas discussões e a medida de disseminação de cada uma delas em um período de seis meses com as mudanças na frequência de uso delas dois anos depois. Computando os números, os pesquisadores observaram que a frequência de uso de uma palavra num determinado momento informava pouco sobre a frequência com que seria empregada no futuro. Eles viram ainda que a quantidade de vezes que uma palavra seria mencionada dois anos mais tarde parecia ter uma estreita relação com a disseminação das palavras no passado. Concluíram, então, que a probabilidade do uso de uma palavra aumenta à medida que cresce o número de pessoas que a utilizam. Isso significa que, mesmo se uma palavra for muito utilizada hoje, ela corre o risco de cair em desuso daqui a alguns anos se o número de conversas e de tópicos em que é citada hoje for baixo. Segundo os pesquisadores, a situação lembra muito a dos seres vivos lutando por sua sobrevivência. Cada palavra pode ser pensada como uma espécie biológica. “Cada uso da palavra pode ser comparado a um indiví46
n
julho DE 2011
n
PESQUISA FAPESP 185
duo de uma espécie”, explica Altmann. Para sobreviver, a palavra precisa se reproduzir, o que acontece a partir do momento em que alguém lê a palavra em algum lugar e a memoriza para usar no futuro. A disseminação da palavra, ainda de acordo com os pesquisadores, pode ser pensada como sendo o nicho (capacidade de interação) da espécie no ambiente. Quanto mais estreito o nicho de uma espécie, mais risco ela corre de extinção. Por isso, uma explosão populacional não garante a sobrevivência da espécie, se o seu nicho for pequeno. “A palavra precisa estar distribuída entre certo número de usuários, caso contrário ela morre”, diz o físico. Um dos resultados a que o grupo chegou – o fato de a frequência de uso da palavra no presente não influenciar a frequência de uso no futuro – contraria a conclusão de estudos recentes que analisaram a dinâmica das palavras em
períodos muito mais longos (séculos) e demonstraram a importância da frequência. No mais conhecido deles, publicado na revista Nature em 2007, um grupo liderado por Erez Lieberman, atualmente professor visitante no Google, mostrou que, em inglês, os verbos irregulares pouco usados tendem a se transformar em verbos regulares, enquanto apenas os mais adotados pela população mantêm a forma irregular. Isso explicaria por que o verbo irregular to be, o mais usado da língua, ainda é e deve permanecer irregular. Ao passo que o verbo irregular to slink,
que significa caminhar sinuosamente e praticamente não é conhecido das pessoas, vem perdendo sua forma de passado irregular slunk em favor da variante regular slinked. Janet acredita que esses estudos históricos estejam analisando casos muito específicos em que duas palavras competem por um mesmo nicho na linguagem. Ela explica que a maioria das palavras não está em competição umas com as outras, uma vez que sinônimos absolutos são extremamente raros. Por exemplo, as palavras yes e yup podem ambas significar “sim”,
mas o fato de a última ser mais coloquial que a primeira implica que cada uma é usada em situações diferentes e, portanto, cada uma tem seu nicho garantido. “Prevejo que esses fatores [disseminação entre usuários e tópicos] se mostrarão também muito importantes para explicar as flutuações de frequências em tempos históricos [da ordem de séculos]”, ela diz. Nesse sentido, Altmann sugere que as medidas de disseminação das palavras desenvolvidas por eles sejam aplicadas em qualquer outra base de dados análoga, como a dos mais de 5 milhões de livros digitalizados pelo Google Books – alvo de estudo recente publicado na Science e encabeçado por Lieberman, que mensurou e comparou a frequência de diversas palavras-chave de interesse histórico e cultural (ver Pesquisa FAPESP no 183). Nesse caso, os autores dos livros fariam o papel dos usuários e cada livro poderia ser pensado como uma entrada em certo tópico de discussão. Outros dois resultados da análise dos grupos do Usenet intrigaram os pesquisadores. Um deles foi o fato de que a disseminação entre os usuários influencia as mudanças de frequências das palavras mais do que a disseminação entre os tópicos. O outro resultado é que as palavras em geral são mais ligadas a usuários do que a tópicos. Juntas, essas conclusões revelam que as idiossincrasias dos indivíduos ou de
subgrupos de indivíduos têm um papel central na manutenção do vocabulário da comunidade. “Quem ler as mensagens no grupo de hip-hop, por exemplo, vai perceber que as pessoas fazem um esforço para escrever de maneira diferente das demais para se posicionarem socialmente”, diz Altmann. A disseminação das palavras não é o único fator determinante de seu sucesso. Altmann e seus colegas observaram que palavras ligadas a produtos comerciais como wireless e Gnome (plataforma de distribuição de Linux) ou a personalidades como Bush e o rapper norte-americano Eminem começavam sua vida nos grupos de discussão com um grau de disseminação muito baixo – o que, em princípio, as teria fadado ao esquecimento. Mas, nesses casos, forças externas aos grupos, como campanhas publicitárias e veiculação de notícias nos meios de comunicação, agiram para que essas palavras fossem incorporadas ao vocabulário deles. Já as gírias e os jargões bem aceitos pelos grupos seguiram a tendência estatística das demais palavras, sugerindo que a aceitação deles dependia mais de fatores internos que externos. A linguista Eleonora Albano, da Universidade Estadual de Campinas, comenta que gírias e jargões são adotados por uma comunidade se contribuem para construir a identidade do grupo social. Maria Helena Neves, linguista da Universidade Estadual Paulista e da Universidade Presbiteriana Mackenzie, considera interessantes os estudos quantitativos sobre conversações on-line, mas suspeita de que seus resultados não possam ser generalizados para a dinâmica da língua falada. “A amostra é restrita por causa do canal de expressão escolhido, do perfil dos usuários e do propósito da interação”, diz. Ela, aliás, desconfia sempre de generalizações. “Em linguagem não há receita pronta para nada, senão não existiriam a liten ratura e a poesia.” » Ver gráfico original no site: www.revistapesquisa.fapesp.br Artigo científico ALTMANN, E.G. et al. Niche as a determinant of word fate in online groups. PLoS ONE. mai. 2011. PESQUISA FAPESP 185
n
julho DE 2011
n
47
[ paleontologia ]
Uma anta pré-histórica
O
Oeste da Amazônia pode ter abrigado espécie extinta do herbívoro há 40 mil anos Marcos Pivet ta
AM
porto velho
Madeira
ri o
abunã
jaciparaná raná acipa Rio J
o ri rio Abunã
ra ei ad M
nova mamoré
MT
garajá-mirim
bolívia
ROndônia
Ponto na margem do rio Madeira em que o fóssil foi achado (triângulo)
Fóssil de Tapirus rondoniensis (acima e ao lado): crista e dente diferentes
território nacional abriga atualmente apenas uma das quatro espécies vivas de anta, a Tapirus terrestris, considerada o maior mamífero terrestre da América do Sul com seus dois metros de comprimento e até 300 quilos. Mas há 40 mil anos, durante a época geológica denominada Pleistoceno Superior, pode ter existido uma forma distinta desse grande herbívoro na porção ocidental da Região Norte, perto da divisa com a Bolívia, onde hoje se situa o estado de Rondônia. Um fóssil de uma nova espécie extinta desse mamífero foi descrito por pesquisadores brasileiros em artigo publicado na edição de fevereiro da revista científica norte-americana Journal of Mammalogy. Oriunda de uma antiga zona de garimpo às margens do rio Madeira, a anta amazônica foi batizada de Tapirus rondoniensis em homenagem à unidade da federação em que seu único exemplar foi encontrado. Em linhas gerais, a provável nova espécie guardava muitas semelhanças anatômicas com a T. terrestris, comumente denominada anta brasileira, que hoje está presente em quase todo o território nacional e em países vizinhos da América do Sul. “Ela deve ter sido bem parecida com a nossa anta atual”, afirma a paleontóloga Ana Maria Ribeiro, da Fundação Zoobotânica do Rio Grande do Sul, uma das autoras do artigo. Mas a sua dentição e o crânio exibem traços primitivos em comum com a T. pinchaque, a menor das espécies vivas de anta e a única a habitar fora de áreas de floresta, mais precisamente na região dos Andes entre a Colômbia, o Equador e o Peru. A T. rondoniensis tinha uma testa mais larga e uma crista menor do que a da anta brasileira e seu segundo dente pré-molar superior apresentava uma cúspide reduzida. “No passado, a anta brasileira e essa nova espécie fóssil devem ter coexistido em certas partes da Amazônia”, diz Elizete Holanda, professora do Departamento de Geologia da Universidade Federal de Roraima (UFRR), outra responsável pelo trabalho científico. Compostos por um crânio quase completo e bem preservado do mamífero, os vestígios da nova espécie
Camadas geológicas com fósseis em Rondônia sedimentos argilosos
Areia e Calcário Areia e concentração de ferro
Ossos de vertebrados
fotos elizete holanda
Restos de plantas
extinta de anta fazem parte do acervo paleontológico da Universidade Federal de Rondônia (Unir). Os restos do antigo herbívoro foram resgatados por garimpeiros nos anos 1970. Os mineiros estavam à procura de ouro na localidade de Araras, pertencente ao município de Nova Mamoré, na margem direita do rio Madeira. Essa região possui ricos depósitos fósseis de animais vertebrados e também de plantas, que ocorrem em geral numa camada de rochas sedimentares ricas em areia e calcário situada 10 metros abaixo da superfície. Nesse nível também está o ouro que os garimpeiros tanto procuram. Segundo Elizete, que concluiu a graduação na Unir no início da década passada, quando teve o primeiro contato com o crânio da T. rondoniensis, os fósseis que não foram destruídos pelo processo de extração do minério acabaram nas mãos de colecionadores particulares ou na coleção da universidade. Por sorte, o crânio da anta amazônica teve o segundo destino. O biólogo Mário de Vivo, curador da seção de mamíferos do Museu de Zoologia da Universidade de São Paulo (USP), não está convencido de que o fóssil de anta oriundo de Rondônia pertença a uma nova espécie, ainda que extinta, desse herbívoro. Embora as diferenças entre a T. rondoniensis e a T. terrestris sejam reais e possam indicar que se trata de duas formas de anta realmente distintas, o pesquisador pondera que a descrição de apenas um único exemplar da suposta nova
Crânio do antigo animal foi encontrado nos anos 1970 e faz parte da coleção de fósseis da Universidade Federal de Rondônia
espécie não permite uma boa avaliação da variação morfológica presente no crânio da anta rondoniense. Para ele, as diferenças na dentição e no tamanho da crista do antigo herbívoro resgatado nos arredores do rio Madeira podem se dever a variações anatômicas intrínsecas à própria população de T. terrestris. “Não é impossível que o fóssil de Rondônia represente uma nova espécie de anta, mas eu gostaria de ver mais esqueletos com essas características”, pondera De Vivo. Segundo o paleontólogo Jorge Ferigolo, da Fundação Zoobotânica do Rio Grande do Sul e também autor do artigo no Journal of Mammalogy, a antiga anta da Amazônia é suficientemente distinta da brasileira. “Pequenos detalhes podem distinguir uma espécie de outra”, afirma Ferigolo.
Espécie extinta parecia a atual anta (acima)
A classificação taxonômica de seres vivos em famílias, gêneros e espécies é uma atividade sempre sujeita a debates. Consensos demoram a se formar e revisões são frequentes. Além da proposta de que houve uma anta particular da região amazônica num momento da Pré-história nacional, Elizete também defende a ideia de que outra possível espécie extinta desse herbívoro, a T. cristatellus, habitava uma zona de transição entre o Sudeste e o Nordeste mais ou menos nesse mesmo período. Novos exemplares dessa forma de anta, que possuía uma crista sagital muito baixa, foram recentemente encontrados em cavernas da Bahia. Até então, crânios de T. cristatellus – ainda hoje não reconhecida como uma espécie válida por muitos especialistas, que preferem considerá-la como uma variante da anta brasileira – tinham sido achados apenas na região mineira de Lagoa Santa, perto de Belo Horizonte. Se essa hipótese estiver correta, o território nacional pode ter abrigado concomitantemente três espécies diferentes de anta há 40 mil anos: a brasileira, ainda viva, a da Amazônia e a do Sudeste-Nordeste, ambas extintas. n Artigo científico Holanda, E.C. et al. New Tapirus species (Mammalia: Perissodactyla: Tapiridae) from the upper Pleistocene of Amazonia, Brazil. Journal of Mammalogy. v. 92, n. 10, p. 11120. fev. 2011. PESQUISA FAPESP 185
n
julho DE 2011
n
49
especial // Ano Internacional da Química
Medicina é feita de moléculas Componentes químicos estão por trás de doenças, diagnósticos e tratamentos Maria Guimarães
foto christine Balderas / Getty Images
N
o dia 8 de junho, quem foi às palestras do ciclo que celebra o Ano Internacional da Química viu uma medicina sob um ângulo bastante diferente do habitual. Em vez de partir do paciente e de seus sintomas, a química medicinal se concentra nas moléculas por trás da doença e da cura. Garantia de uma visão ampla foi o trio de palestrantes coordenado pela química Heloisa Beraldo, da Universidade Federal de Minas Gerais. A geneticista Silvia Rogatto, da Faculdade de Medicina do campus de Botucatu da Universidade Estadual Paulista (Unesp), mostrou como a genética (e genes são moléculas) está por trás do câncer de pênis e como ela pode contribuir para o diagnóstico. Os químicos Luiz Carlos Dias, da Universidade Estadual de Campinas (Unicamp), e Eliezer J. Barreiro, da Universidade Federal do Rio de Janeiro (UFRJ), frisaram o protagonismo da química na busca por novos fármacos e o papel que a pesquisa brasileira pode ter nesse desenvolvimento. Iniciativa da FAPESP e da Sociedade Brasileira de
Química, o ciclo de conferências continua até novembro, cada mês com um tema diferente que será relatado neste espaço. Começar o encontro pela genética foi pertinente: segundo Barreiro (o pai da química medicinal no Brasil, segundo Heloisa), a estrutura do ácido desoxirribonucleico (DNA) foi a descoberta mais brilhante da história da ciência. O achado, que rendeu o Prêmio Nobel em 1962 ao físico Francis Crick, ao biólogo James Watson e ao médico Maurice Wilkins, é o que hoje permite a Silvia Rogatto entender melhor o câncer de pênis – uma doença de países pobres, explicou ela. Esse tipo de câncer é raro em países ricos e, no Brasil, mais comum nas regiões Norte e Nordeste (onde afeta 5,3% e 5,7% da população masculina, respectivamente) do que no Sudeste (1,2%). A geneticista mostrou parte da explicação: o papilomavírus humano (HPV) está presente em uma parte importante dos pacientes com câncer de pênis – entre 36 pacientes avaliados na cidade de São Paulo por um estudo de seu laboratório, 42% também estavam infectados pelo vírus. O HPV é um fator importante no desenvolvimento de câncer de cérvix uterino e de orofaringe, e há tempos se vinha discutindo a importância de vacinar também os homens contra o vírus (ver Pesquisa FAPESP nº 157) – questão que avançou 52
n
julho DE 2011
n
PESQUISA FAPESP 185
quando em maio deste ano a Agência Nacional de Vigilância Sanitária (Anvisa) aprovou o uso da vacina no sexo masculino. A decisão é bem-vinda, já que a pesquisa indica que a associação entre o vírus e a vacina não é casual. Silvia mostrou que o HPV interfere diretamente no controle da proliferação celular e faz com que as células se multipliquem de forma descontrolada, quando partes do material genético do vírus se inserem no DNA da pessoa infectada. Como o HPV é sexualmente transmitido, as regiões mais atacadas são o pênis, os órgãos genitais femininos e a região da boca e garganta (ou orofaringe), como consequência de sexo oral, por exemplo. Os estudos do grupo de Silvia vêm revelando que algumas alterações no genoma humano são típicas dos tumores, sugerindo que elas têm um papel crítico na instalação do câncer. Mais importante ainda, a geneticista mostrou que é essencial determinar a presença ou não do HPV para traçar o curso de tratamento. Os pacientes com câncer de pênis infectados pelo vírus têm uma sobrevida mais longa do que aqueles que não têm o HPV. São na prática doenças distintas, e se sabe menos sobre a versão do câncer de pênis não associada ao vírus. Além disso, a expectativa de vida se reduz com maior número de alterações no DNA tumoral. “O perfil genômico nos dá uma
"O perfil
genômico dá uma ideia da evolução do paciente”, afirma Silvia
A preocupação de Silvia não está limitada a esse tipo de câncer. “Se a relação com o HPV vale para o pênis, também deve ser importante para a região da orofaringe, e é preciso alertar os jovens para evitar a doença.” O foco nos jovens se deve ao maior risco de transmissão do HPV com maior número de parceiros sexuais. A prevenção é essencial, visto o fracasso até agora, segundo a geneticista, em obter fármacos efetivos contra a doença. Novos medicamentos - Encontrar a base para
ideia da evolução do paciente e pode ser usado como marcador da doença”, disse a pesquisadora, cujo laboratório está catalogando esses marcadores, alguns como alvos terapêuticos. Sem ficar na listagem de genes, a investigação do grupo da Unesp e do Hospital AC Camargo identificou redes gênicas – genes que influenciam uns aos outros e funcionam de forma coordenada – relacionadas às doenças estudadas e à resposta imunológica e inflamatória. Em conjunto, os resultados deixam clara a importância de se caracterizar geneticamente o paciente para tratá-lo e prever o curso da doença. “Os critérios para tratamento dos pacientes com câncer não consideram sua individualidade genética.” Silvia e sua equipe continuam a se aprofundar na compreensão de como o câncer, o vírus e o genoma interagem: estão procurando entender o papel dos micro-RNAs na regulação do funcionamento dos genes e de efeitos conhecidos como epigenéticos, em que a sequência genética não é alterada, embora compostos químicos ligados ao DNA afetem sua atividade num processo conhecido como metilação, a inserção de um grupo metila (CH3) numa das bases do DNA. “Encontramos uma via metabólica com quase todos os genes alterados por metilação. É impressionante”, comentou a pesquisadora.
novos fármacos é justamente o que ocupa Luiz Carlos Dias, da Unicamp. “Por volta de 80% dos fármacos têm origem sintética”, mostrou. A aspirina, um dos medicamentos mais vendidos no mundo, é totalmente sintética. A atorvastatina, usada para controle do colesterol e, segundo ele, o “maior blockbuster da indústria farmacêutica”, é uma substância sintética desenvolvida a partir de uma molécula natural. A produção desses fármacos fica a cargo das potências da indústria farmacêutica, mas o pesquisador ressaltou a posição central da pesquisa científica: “São os químicos medicinais que dão informações para a produção dessas moléculas por meio de estratégias de síntese orgânica”. A ideia não é apenas encontrar novos compostos para combater doenças que carecem de tratamento, mas também aprimorar o que já existe: reduzir o uso de solventes, o gasto de energia e a produção de resíduos durante o processo de fabricação. Um exemplo é a migrastatina, substância inicialmente isolada da bactéria Streptomyces platensis, que inibe o processo de metástase. “A molécula sintética que desenvolvemos em nosso laboratório é mais potente do que a natural”, contou Dias. Ele vem procurando substâncias terapêuticas contra moléstias negligenciadas, como a doença de Chagas. Como parte do Instituto Nacional de Ciência e Tecnologia de Fármacos e Medicamentos (INCT-Inofar), coordenado por Eliezer J. Barreiro, da UFRJ, Dias participa de projetos concentrados em produzir princípios ativos de medicamentos cuja patente está prestes a expirar. Um importante sucesso recente foi conseguir sintetizar a atorvastatina por uma rota inédita, diferente da que já era conhecida – feito que pode ser visto como uma melhoria em relação ao processo usado até agora. “Precisamos de uma interação cada vez maior entre governo, indústria e universidade”, ponderou, invocando a Índia e a China como exemplos de países que investiram em ser independentes na produção de fármacos. “Para o Brasil, ainda é mais fácil comprar da Índia e da China, apesar do baixo controle de qualidade no produção desses insumos e da possibilidade de degradação durante o transporPESQUISA FAPESP 185
n
julho DE 2011
n
53
fotos eduardo cesar
Silvia Rogatto, Luiz Carlos Dias e Eliezer J. Barreiro na FAPESP
"Precisamos
inventar moléculas que sejam mensageiras da saúde", diz Barreiro
te, exigindo etapas de purificação antes de serem embalados para distribuição.” O “caminho das Índias dos fármacos” também faz parte das preocupações de Barreiro. “Precisamos resolver a dependência das importações de fármacos, medicamentos e adjuvantes farmacotécnicos”, afirmou. E é nesse sentido que o INCT-Inofar atua. “Temos a responsabilidade de inventar moléculas que possam ser mensageiras da saúde.” Para isso, ele ressalta que o químico medicinal, artífice de uma infinidade de elementos, precisa dominar as condições interdisciplinares que caracterizam a atividade científica. Assim como aconteceu na descoberta da estrutura do DNA, que envolveu um físico, um biólogo e um médico, o químico medicinal carioca salientou que as conquistas científicas mais importantes da história surgiram do encontro de disciplinas. Mais do que isso, é preciso aliar a criatividade à inovação. “Métodos antigos talvez permitam descobrir, hoje, o seis, depois de se ter o meia dúzia”, provocou. O ambiente propício para essa criatividade, a seu ver, está na universidade, e não nos bem-equipados grandes laboratórios farmacêuticos – que Barreiro avalia passarem por uma crise 54
n
julho DE 2011
n
PESQUISA FAPESP 185
de criatividade, revelada pelo desenvolvimento de parcos novos compostos nos últimos anos, embora tenham tecnologia de ponta à disposição. Reunir cabeças e tecnologia é a grande vocação do Inofar, por meio da integração de profissionais com enfoques e formações diferentes. Além de científico, o assunto é também político, como já tinham mostrado Silvia e Dias com seus estudos sobre doenças que acometem sobretudo as regiões menos abastadas do planeta. “Num país como o nosso, o químico medicinal precisa ter clareza de sua importância; a pesquisa não tem ideologia, mas seu impacto social é importante”, afirmou Barreiro, longe de considerar a observação como um percalço. “A capacidade científica do país autoriza nossa soberania na área dos fármacos.” Com um posicionamento na produção científica mundial que vem melhorando, um bom avanço na geração do conhecimento, na divulgação de ciência, na inovação tecnológica e no setor empresarial – todos concatenados –, o coordenador do INCT-Inofar avalia que o Brasil está no caminho correto. Mais um motivo para festejar a presença dos jovens estudantes do Instituto Técnico de Barueri, cidade nos arredores da capital paulista, que lotaram o auditório: a importância da formação de novos profissionais conscientes do desafio foi mencionada por todos os palestrantes. “Os químicos medicinais lidam com uma infinidade de peças; é preciso persistir, perseguir n e conseguir”, concluiu Barreiro.
[ bioenergia ]
Butanol inesperado Pesquisador extrai o combustível usando vácuo e contraria paradigma estabelecido
U
m frasco com um líquido amarelado fervendo numa bancada de laboratório pode conter revelações surpreen dentes. De um caldo de água, açúcar e bactérias, o enge nheiro químico Adriano Ma riano, da Universidade Estadual de Campinas (Unicamp), conseguiu ex trair o butanol, um potencial combus tível, por meio de um método declara do inapropriado em décadas passadas: o vácuo. “Quebramos um paradigma”, afirma Rubens Maciel Filho, da Uni camp, engenheiro químico e supervisor do projeto, parte do Programa FAPESP de Pesquisa em Bioenergia, o Bioen. “O uso do vácuo não é novo, o que é novo é usá-lo para extrair butanol”, reforça Mariano. Com base em seus cál culos, ele desafiou o conhecimento es tabelecido de que o vácuo só funciona para extração de substâncias mais volá teis do que a água, como o etanol, que ferve a 78 graus Celsius (°C), enquanto a água entra em ebulição a 100°C. A técnica não valeria para o butanol por que ele tem um ponto de ebulição mais alto do que a água, 117°C. Em seu trabalho de pós-doutorado o pesquisador brasileiro transformou essa certeza em dúvida, mas não ficou na teoria. “Ninguém acreditaria se eu não mostrasse que funciona na prática, então fui para os Estados Unidos, onde teria os recursos para fazer os experimentos necessários”, conta. Isso aconteceu no laboratório do microbiologista nigeria no Thaddeus Ezeji, na Universidade de Ohio, em colaboração com o engenhei ro químico indiano Nasib Qureshi, do Departamento de Agricultura dos Esta dos Unidos (USDA). No experimento,
Mariano montou um aparato a vácuo em que aquecia uma solução de açúcar misturada à bactéria Clostridium beijerinckii, microrganismo usado para fer mentação em situações em que não há ar. Por causa do vácuo, a solução ferve a apenas 37°C, uma temperatura con fortável para as bactérias. “Mostramos que, quando a concentração de butanol não é muito alta, o vácuo é suficien te para extraí-lo da solução”, explica. Os resultados renderam um artigo na edição de agosto da Biotechnology and Bioengineering, uma das principais re vistas da área, além de ser mencionado como destaque na edição. Um aspecto importante é que a téc nica permite retirar o butanol enquan to ele é produzido. Com essa retirada, a concentração da substância nunca fica alta na solução, o que seria tóxico para as bactérias, que assim conseguem converter todo o açúcar da amostra em butanol, etanol e acetona. Ainda em colaboração com Ezeji e Maciel Filho, Mariano pretende oti mizar o processo e, quem sabe, alcan çar a escala de produção industrial. Já existe no Brasil uma usina produzindo butanol pelo método tradicional, pou co produtivo por causa da toxicidade da própria substância aos microrga nismos. O butanol tem um conteúdo energético 30% mais alto que o etanol, o que o torna uma boa opção para ser misturado aos combustíveis que mo vem a frota brasileira. “O butanol não vai competir com a produtividade do etanol, mas pode ser usado para au mentar a eficiência dos combustíveis”, n explica o pesquisador.
Maria Guimarães PESQUISA FAPESP 185
n
julho DE 2011
n
55
[ nutrição ]
Frango no Solimões Ribeirinhos trocam o peixe com farinha pela ave congelada
56
n
julho DE 2011
n
PESQUISA FAPESP 185
fotos eduardo cesar e Daniel Gerardi
Consumo de peixe fresco cai no Amazonas
C
omo um visitante do Sul-Sudeste que veio de muito longe para ficar, a comida de supermercado desembarcou em um dos rincões do Brasil mais profundo. Moradores de pequenas comunidades ribeirinhas às margens do rio Solimões, no centro-oeste do estado do Amazonas, estão trocando uma dieta de baixa caloria, historicamente baseada nos peixes locais e na farinha de mandioca, por uma alimentação do tipo fast-food, com direito a frango congelado, bolachas e refrigerantes. Típica dos centros urbanos, essa transição alimentar já havia sido detectada em cidades da Região Norte dos mais variados portes, como a grande Manaus, com seu 1,8 milhão de habitantes, a média Santarém, no Pará, e os pequenos municípios com uns poucos milhares de moradores. Agora a mudança de hábitos à mesa chegou a vilas rurais onde vivem entre 80 e 250 pessoas. São localidades praticamente desconhecidas e só acessíveis por barcos depois de se vencer o balanço das águas por horas, às vezes dias.
A substituição progressiva de itens do antigo cardápio regional nesses pontos remotos da Amazônia foi constatada por um estudo multidisciplinar coordenado pelo engenheiro agrônomo Luiz Antonio Martinelli, do Centro de Energia Nuclear na Agricultura (Cena) da Universidade de São Paulo (USP) em Piracicaba. Por meio da análise de amostras das unhas de 431 habitantes de oito vilas e quatro cidades do Amazonas, um tipo de material que armazena informações úteis para se reconstituir a dieta de um indivíduo durante os últimos seis meses, o trabalho mostra que os grupos de caboclos do Alto e do Médio Solimões comem alimentos processados com uma frequência cada vez maior. “Eles estão saindo de uma dieta em que produziam localmente a maior parte de seus víveres e entrando em outra em que há predomínio da comida industrializada comprada fora de casa”, diz Martinelli. Para ratificar a história contada pelas unhas, os moradores também foram submetidos a questionários e entrevistas a respeito dos produtos consumidos nas refeições. PESQUISA FAPESP 185
n
julho DE 2011
n
57
Daniel Gerardi
Ribeirinhos adotam a comida de supermercado
Os resultados do estudo apareceram num artigo em 31 de maio na versão on-line da revista científica American Journal of Human Biology. Nessas vilas rurais não há supermercados, às vezes nem sequer uma vendinha. Os alimentos industrializados chegam às localidades por meio dos regatões, barcos que, vindos de Manaus e outras cidades, transportam passageiros no andar de cima e víveres no de baixo. Frequentemente falta energia nas embarcações carregadas de comida. Nessas ocasiões, o liga-desliga dos freezers faz o frango congelado já desembarcar “molinho”, estragado. “Quando isso ocorre, muita gente tem diarreia no dia seguinte”, afirma Martinelli. Carbono e nitrogênio - A entrada
do frango e de alimentos processados na dieta de uma população modifica a proporção dos isótopos estáveis de dois elementos químicos encontrados nas unhas, o carbono e o nitrogênio. Isótopos são formas mais pesadas ou mais leves de um mesmo elemento químico, cuja distinção se dá pelo número de nêutrons em seu núcleo. A partir das amostras de tecido humano, os pesquisadores determinaram duas razões isotópicas, o delta carbono 13 e o delta nitrogênio 15. O primeiro índice reflete a 58
n
julho DE 2011
n
PESQUISA FAPESP 185
proporção existente entre duas formas distintas de átomos de carbono, o raro e pesado 13C e o leve e abundante 12C. O segundo registra a proporção de duas formas de nitrogênio, o escasso 15N e o comum 14N. “As informações isotópicas mostram claramente o aumento no consumo de frango congelado e de alimentos com açúcar nas populações ribeirinhas”, diz a bióloga Gabriela Nardoto, outra autora do estudo, que era do Cena quando fez o trabalho, mas hoje está na Universidade de Brasília (UnB). Embora haja muitas cabeças de gado na Amazônia, a carne bovina ainda é cara para ser incluída na refeição padrão dos moradores mais pobres. De acordo com o tipo de alimento consumido, os índices se situam numa determinada faixa de valor. Uma dieta rica em peixes e farinha de mandioca deve resultar num delta carbono 13 próximo de valores entre -26 e -32‰ (o resultado da conta é expresso em valores negativos e por mil). Um cardápio com comida processada e carne de vaca e frango produz um valor no intervalo dos -11 e -14‰. Resultados entre essas duas faixas indicam que a população analisada consome alimentos de origem variada, oriundos tanto da cultura de supermercado como da culinária mais regional.
Esse é o caso das oito comunidades ribeirinhas do Solimões (Capacete, Novo São Francisco, Terezinha III, Boa Esperança, Jarauá, Nova Jerusalém, Santa Maria do Cururu e São Francisco do Cururu). Seu delta carbono 13 médio foi de -23,4‰. Em duas cidades com cerca de 15 mil moradores, Alvarães e Novo Airão (esta no Baixo Negro), o índice deu -20,2‰. Na capital amazonense e em Tefé (município de 60 mil habitantes), centros em que não faltam supermercados, foi de -17,4‰. “A entrada do frango congelado é tão forte que alguns moradores das vilas rurais nem têm geladeiras, mas apenas o freezer para guardar o produto”, comenta Gabriela. As análises isotópicas do delta nitrogênio 15, que indicam o nível trófico do alimento e a quantidade de fertilizantes usados no cultivo de vegetais, vão na mesma linha. Também sugerem uma crescente padronização do gosto do brasileiro à mesa mesmo nos lugares mais inacessíveis do país. Dados recentes do Instituto Brasileiro de Geografia e Estatística (IBGE) indicam que na década passada o consumo de peixe fresco e farinha se reduziu quase à metade no estado do Amazonas, enquanto o de arroz, grãos e de carne só cresceu. Com a melhoria da economia brasileira e a disseminação de programas sociais de distribuição de renda a populações mais pobres, há mais papel-moeda circulando na mão do caboclo ribeirinho. Quando o dinheiro extra entra em caixa, as famílias dessas vilas rurais, como boa parte dos habitantes do Brasil mais urbano, resolvem sair
O Projeto Diversidade de hábitos alimentares no Brasil – Uma abordagem isotópica - nº 2007/51342-8 modalidade
Auxílio Regular a Projeto de Pesquisa Coordenador
Luiz Antonio Martinelli – Cena-USP investimento
R$ 176.536,72 (FAPESP)
O outro lado do Big Mac
da rotina alimentar. “Em algumas épocas do ano, em especial no período das cheias, é mais barato e prático comprar frango congelado do que pescar”, diz a economista Tatiana Schor, do Departamento de Geografia da Universidade Federal do Amazonas (Ufam), que participou do estudo em pequenas localidades dos rios Solimões e Negro. “Além disso, as mulheres reclamam que fazer o peixe na cozinha dá trabalho, tem que limpá-lo e deixa a mão cheirando.”
O hambúrguer mais padronizado tem um quê local, diz estudo
Cultura urbana - A vontade de imitar as preferências alimentares dos moradores das cidades também é motivada por um componente cultural. Com televisão em casa, as populações ribeirinhas querem consumir produtos valorizados nos centros urbanos em vez dos alimentos regionais. “Elas têm uma visão muito positiva da carne, em especial da bovina, e preferem comer alimento em conserva a peixe com farinha”, explica Maria Elisa Garavello, especialista em antropologia da alimentação da Escola Superior de Agricultura Luiz de Queiroz (Esalq) da USP, outra autora do estudo. Ninguém é contra a melhoria das condições de vida das populações que vivem em locais remotos do país. Mas o abandono progressivo do cardápio local e a adoção de um menu com comida processada colocam os caboclos amazonenses num impasse similar ao do homem urbano: com mais dinheiro no bolso, adotam um estilo de vida sedentário, em que se come mais, embora frequentemente pior. “Por um lado, é louvável que esses habitantes se beneficiem de políticas públicas inclusivas. Por outro, esse tipo de alimentação pode trazer danos à saúde e provocar uma desorganização sociocultural nessas comunidades. Além de dinheiro, essas pessoas também precisam de educação”, afirma Maria Elisa. n
Marcos Pivet ta
NARDOTO, G. B. et al. Frozen chicken for wild fish: Nutritional transition in the Brazilian Amazon region determined by carbon and nitrogen stable isotope ratios in fingernails. American Journal of Human Biology. Publicado on-line em 31 de maio de 2011.
eduardo cesar
Artigo científico
Dois hambúrgueres, alface, queijo, molho especial, cebola e picles num pão com gergelim. A receita do Big Mac, sanduíche-símbolo da cadeia McDonald’s e possivelmente o maior ícone da padronização da comida em escala planetária nas últimas décadas, é a mesma nos mais de 32 mil restaurantes da rede espalhados por 117 países. O gosto, muitos diriam, também. Ainda assim, o lanche mais internacionalizado da atualidade apresenta, num certo sentido, traços regionais. Ao menos é essa a conclusão de um estudo que analisou os isótopos estáveis de carbono presentes em amostras de Big Macs vendidos em 26 países, entre os quais o Brasil. Na maior parte dos lugares em que é comercializada, a carne usada nos hambúrgueres reflete nitidamente a cadeia agrícola em que foi produzida. “Apesar de ser um produto globalizado, o Big Mac tem componentes locais”, diz Luiz Antonio Martinelli, do Centro de Energia Nuclear na Agricultura (Cena) da Universidade de São Paulo (USP), em Piracicaba, e principal autor do trabalho científico, que será publicado na revista Food Chemistry de 15 de agosto. No jargão dos pesquisadores, o sanduíche pode ser definido como um alimento “glocal”. É global e, ao mesmo tempo, local. Em função do tipo de alimentação dada para o gado que forneceu a carne dos hambúrgueres, o Big Mac de cada país apresenta valores distintos, maiores ou menores, para o chamado índice delta carbono 13 (ver detalhes sobre esse parâmetro na reportagem da página 54). O rebanho pode se alimentar de plantas que, em razão da forma como fazem fotossíntese, são classificadas como C3 ou C4.
A maior parte dos vegetais, como o trigo, as gramíneas temperadas e as árvores, é do tipo C3. Mas alguns cultivos muito empregados nas rações bovinas de certos países, como milho e gramíneas tropicais, são C4. Quanto mais o rebanho se nutre com plantas do tipo C4, maior será o índice delta carbono 13 encontrado nos hambúrgueres feitos com sua carne. No estudo, o valor desse índice para os Big Macs brasileiros foi o mais elevado entre todos os calculados, um indício de que o gado daqui se alimenta exclusivamente de gramíneas C4. Os sanduíches do Reino Unido representaram a situação exatamente oposta e exibiram o menor delta carbono 13. Lá as vacas comem basicamente vegetais C3. Nos demais países, os valores do índice se situaram entre esses extremos. “Aparentemente as populações de todo o globo se alimentam hoje de forma mais homogênea do que no passado”, comenta a bióloga Gabriela Nardoto, da Universidade de Brasília (UnB), que também participou do estudo. “Mas, em cada país, os itens que compõem uma dieta, como é o caso do Big Mac, têm uma origem diferente e refletem um modo de produção econômica regionalizada e heterogênea.”
PESQUISA FAPESP 185
n
julho DE 2011
n
59
[ EVOLUÇÃO ]
Quando os híbridos são férteis Cruzamentos improváveis podem gerar novas espécies de plantas e animais
D
arwin, além de talento, teve sorte. Ao chegar ao arquipélago de Galápagos, no Pacífico, encontrou uma rica variedade de tartarugas e aves vivendo sob condições ambientais peculiares, como o isolamento geográfico e a dieta, que devem ter influenciado fortemente sua evolução ao longo de milhões de anos. As prováveis causas do fato de haver tantos animais tão semelhantes entre si – as aves, por exemplo, com o bico mais curto ou mais longo, dependendo do que comiam – pareciam claras. Mas o mundo não é só como Galápagos. Os biólogos de hoje, mesmo estudando espaços ricos em biodiversidade como a mata atlântica, nem sempre encontram histórias evolutivas e espécies próximas com diferenças tão claras entre si. Em compensação, ao trabalhar com trechos de DNA conhecidos como marcadores moleculares, agora eles podem encontrar as bases genéticas da diversificação das espécies. Um mecanismo de formação de novas espécies que vem ganhando reconhecimento entre os pesquisadores é a possibilidade de espécies de plantas e animais geneticamente próximos entre si cruzarem naturalmente e gerarem híbridos férteis. Antes essa ideia era pouco aceitável porque, em geral, espécies diferentes apresentam número distinto de cromossomos, estruturas no interior das células que contêm os genes. Essa diferença poderia inviabilizar o desenvolvimento do embrião, já que cada cromossomo que veio do macho precisa estar alinhado com um equivalente que veio da fêmea na
60
n
julho DE 2011
n
PESQUISA FAPESP 185
hora de a célula fertilizada se dividir. Sem esse alinhamento, na maior parte das vezes a célula não se reproduz e morre. Mas há exceções, que parecem ser menos raras do que se imaginava. O cruzamento entre plantas – ou animais – de espécies próximas pode gerar seres que, apesar de híbridos, são férteis, ainda que na fase inicial de multiplicação celular alguns cromossomos não encontrem o respectivo par. Se tiverem tempo e condições ambientais favoráveis, esses híbridos podem gerar espécies diferentes das que lhes deram origem. Hoje a palavra “híbrido” não define só seres estéreis como a mula, resultado do cruzamento de jumento com égua, mas também seres férteis como as orquídeas da mata atlântica mantidas em um dos viveiros do Instituto de Botânica de São Paulo. O híbrido, com 38 cromossomos, resulta do cruzamento natural entre duas espécies selvagens, Epidendrum fulgens, com 24 cromossomos, e Epidendrum puniceolutem, com 52. Externamente, as diferenças são sutis. As flores das chamadas plantas parentais são vermelhas ou amarelas. Já as das híbridas podem ser alaranjadas com pontos vermelhos. Só a genética não basta para reconhecer os híbridos férteis. Eles agora são identificados com relativa facilidade porque, além de comparar o número de cromossomos, os especialistas examinam, inicialmente, os aspectos mais visíveis dos ambientes onde os híbridos e as espécies que lhes deram origem vivem. Depois entram na história da paisagem, estudando
eduardo cesar
Carlos Fioravanti
Uma orquídea híbrida da mata atlântica PESQUISA FAPESP 185
n
julho DE 2011
n
61
Híbrido com flor de duas cores: vermelha, como a Epidendrum puniceolutem, e amarela, como a E. fulgens
os mapas geológicos e de variações climáticas, que indicam se deslocamentos de blocos de rochas, tremores de terra ou variações prolongadas de chuva ou temperatura aproximaram ou afastaram populações de plantas ou animais, beneficiando ou não a formação de novas espécies. No caso das orquídeas, os híbridos viviam tanto na restinga, ambiente típico da E. puniceolutem, quanto nas dunas, onde E. fulgens é encontrada. “Essa versatilidade sugere que algumas regiões do genoma podem ser trocadas entre essas espécies, conferindo ao híbrido capacidade maior de aproveitamento do hábitat”, diz o botânico Fábio Pinheiro, pesquisador associado do Instituto de Botânica de São Paulo. “Provavelmente a hibridação natural é uma das explicações da elevada diversificação do gênero Epidendrum, constituído por cerca de 1.500 espécies.” Por precaução, em uma apresentação no Kew Botanic Gardens, de Londres, em maio de 2009, Pinheiro não mencionou o número de cromossomos dos híbridos, com medo das reações. “Mas os especialistas em orquídeas do Kew perguntaram e, quando viram, não acreditaram. Disseram que havia algo errado, mas depois aceitaram”, conta. A visão predominante é que espécies diferentes não cruzam naturalmente e que os híbridos que porventura se formem são estéreis. O argumento usado é que 62
n
julho DE 2011
n
PESQUISA FAPESP 185
Híbridos podem surgir mais facilmente em espaços que reúnem populações de espécies próximas de plantas ou animais
as células germinativas não conseguiriam formar descendentes viáveis. No entanto, a maioria das plantas resulta de hibridações naturais ou induzidas entre espécies próximas, lembra Fábio de Barros, coordenador do projeto no Instituto de Botânica. A hibridação induzida é o que faz aparecerem espécies únicas de orquídeas e de plantas usadas na alimentação, como o milho e a cana-de-açúcar. Normalmente os híbridos apresentam alguma vantagem – no caso dos alimentos, são mais resistentes a doenças e mais produtivos do que as espécies puras. “Darwin já tinha escrito que os híbridos podem ser estéreis ou férteis, mas não tinha como
Espaços misturados - Animais também formam híbridos férteis. O geneticista da Universidade Federal do Rio Grande do Sul (UFRGS) Thales Freitas observou que duas espécies de roedores subterrâneos conhecidos como tuco-tucos – a Ctenomys minutus, com 42 a 50 cromossomos, e a C. lami, com 54 a 58 cromossomos – são capazes de cruzar e às vezes gerar filhotes férteis. O resultado depende da origem do macho e da fêmea. Se a fêmea é da espécie Ctenomys minutus e o macho um Ctenomys lami, a prole pode ser fértil. A combinação inversa, machos da Ctenomys minutus cruzando com fêmeas da Ctenomys lami, leva a híbridos estéreis. Pererecas da mata atlântica do gênero Phyllomedusa passam por situações semelhantes. Na Universidade Estadual Paulista (Unesp) e na Universidade do Porto, em Portugal, Tuliana Brunes estuda a formação de espécies de Phyllomedusa, a identificação genética dos híbridos e as origens históricas das zonas híbridas. Os lugares mais prováveis em que os híbridos podem surgir são os espaços que reúnem populações de espécies próximas de plantas ou animais que antes viviam separadas. “Temos encontrado híbridos com mais frequência nas zonas de transição ecológica, os chamados ecótonos, que combinam dois tipos de vegetação e favorecem o encontro de populações de plantas e animais antes geograficamente distantes”, diz João Alexandrino, da Universidade Federal de São Paulo (Unifesp). Anos atrás, quando estava na Universidade da Califórnia em Berkeley, Estados Unidos, Alexandrino verificou
eduardo cesar
provar, porque não havia marcadores moleculares para identificar as assinaturas genéticas de híbridos férteis”, diz Barros. “Aparentemente a hibridação é bastante comum e parece ter um papel muito mais importante na evolução do que imaginamos.” Os botânicos já viram outros casos. As orquídeas do gênero Ophrys, da região do Mediterrâneo, formam híbridos de alta fertilidade. O cruzamento entre duas plantas baixas com flores amarelas da Europa e dos Estados Unidos, Senecio squalidus e S. vulgaris, originou um híbrido que atrai mais polinizadores e poderia gerar mais frutos que as espécies que lhe deram origem.
Efeitos do isolamento - Um dos prin-
cípios que sobrevivem desde Darwin é que o isolamento favorece a diversidade genética e a diferenciação de espécies, ao longo de milhares ou milhões de anos. Um dos exemplos mais conhecidos são as duas espécies de jararacas exclusivas de ilhas – a Bothrops insularis, que só vive na ilha de Queimada Grande, e a Bothrops alcatraz, da ilha de Alcatrazes, a menos de 50 quilômetros de distância,
tatiane noviski/ufrgs
esse fenômeno estudando híbridos férteis resultantes do cruzamento de espécies aparentadas de salamandras das matas próximas aos rios da Califórnia. Agora ele, Tuliana e Célio Haddad, da Unesp, verificaram que as pererecas formam híbridos onde dois tipos de mata atlântica, uma mais úmida e outra mais seca, se combinam no interior paulista. Os híbridos de orquídeas e de tuco-tucos também estavam em espaços ocupados por grupos de espécies que passaram a conviver provavelmente por causa de variações climáticas, que uniram áreas antes isoladas ou forçaram a migração de plantas e animais ao longo de milhares de anos. A consequência dos processos que levaram à separação das espécies, favorecendo o cruzamento ou hibridação entre espécies próximas, é que florestas de biodiversidade elevada como a mata atlântica tornam-se “um caldeirão de novas espécies em contínua transformação”, na definição de Nuno Ferrand, da Universidade do Porto. “A riqueza em diversidade biológica não é só o número de espécies, mas também o de processos que podem dar origem a novas espécies”, diz Clarisse Palma da Silva, do Instituto de Botânica. O mecanismo mais conhecido de formação de novas espécies de animais ou plantas consiste no acúmulo de mutações genéticas nos descendentes de uma mesma espécie. Agora se vê que novas espécies podem resultar também do agrupamento de populações de espécies diferentes que antes viviam separadas. Tudo resolvido? Longe disso. “As regras de surgimento e diferenciação das espécies não estão todas claras, porque a evolução é um processo contínuo, que segue por caminhos diferentes, por longos períodos de tempo”, disse Craig Moritz, biólogo da Universidade da Califórnia em Berkeley.
Tuco-tuco: híbridos nos areais do sul
Ao longo de 5 mil quilômetros de mata atlântica, pequenas variações de clima e altitude favorecem o surgimento de novas espécies
no litoral sul paulista – que começaram a se diferenciar ao se isolar, cada uma em sua ilha, há cerca de 18 mil anos (ver Pesquisa FAPESP nº 132). Pode haver muito mais escondido por aí. Os trabalhos de Ana Carolina Carnaval, bióloga brasileira atualmente na Universidade da Cidade de Nova York, indicam que, na mata atlântica, as variações de clima (do seco ao úmido) e de altitudes (de zero a 1.600 metros) ao longo de uma faixa litorânea de 5 mil quilômetros favoreceram o isolamento, o surgimento e o desenvolvimento de novas espécies, em uma intensidade maior que na Amazônia, cujas variações de clima e relevo não
são tão intensas. Essas áreas isoladas que separam e protegem plantas e animais formam os chamados refúgios, trechos de mata que sobreviveram a intensas variações climáticas nos últimos milhares de anos e levaram à redução das matas próximas, com a consequente eliminação das populações de animais que ali viviam. Luciano Beheregaray, biólogo brasileiro que leciona nas universidades Flinders e Macquarie, na Austrália, verificou que os Estados Unidos, o Reino Unido e a França lideram a crescente produção científica mundial sobre essa área, chamada filogeografia, que concilia análises genéticas, geográficas, geológicas e históricas. Em seu levantamento, o Brasil, mesmo sendo o país mais rico em biodiversidade, ocupou o 15º lugar entre os 100 países examinados. “Podemos ir muito além, fazendo análises mais completas de nossos dados, em vez de morrer na praia”, alertou Célio Haddad. “Coletamos os dados, mas são os especialistas de outros países que os analisam. Deveríamos ser líderes nessa área, não estar a reboque”. n Artigo científico PINHEIRO, F. et al. Hybridization and introgression across different ploidy levels in the Neotropical orchids Epidendrum fulgens and E. puniceoluteum. Molecular Ecology. v. 19, n. 18. p. 3981-94. 2010. PESQUISA FAPESP 185
n
julho DE 2011
n
63
Uma cana transgênica Para enfrentar o cultivo de cana-de-açúcar em regiões com menos oferta de água, pesquisadores da Embrapa Agroenergia, de Brasília, conseguiram produzir em laboratório mudas transgênicas dessa planta resistentes à seca que agora estão sendo multiplicadas em estufas. Até maio de 2012 elas serão avaliadas quanto às características de tolerância à seca. As mais aptas serão transplantadas Mudas: para o campo depois de um processo gene de análise na ComissãoTécnica Nada seca cional de Biossegurança (CTNBio). As pesquisas começaram em 2008 sob a coordenação do pesquisador Hugo Molinari. As plantas transgênicas serão importantes, por exemplo, no Nordeste do país. No laboratório, a cana recebeu o gene DREB2A de tolerância à seca encontrado na planta Arabidopsis thaliana usada como modelo em estudos genéticos e encontrada naturalmente na Europa, Ásia e norte da África. A pesquisa recebeu apoio da Embrapa Recursos Genéticos e Biotecnologia, também de Brasília, e do Centro Internacional de Pesquisa para Ciências Agrícolas do Japão (Jircas, na sigla em inglês).
Inovação compartilhada Um software que poderá ser acessado via internet pelos integrantes da Associação de Desenvolvimento Tecnológico do Vale (Valetec), sediada no Vale do Rio dos Sinos, no Rio Grande do Sul, vai permitir a troca de informações e lançamento de processos e produtos inovadores dentro do conceito de inovação aberta. A nova ferramenta terá conteúdos das áreas de atuação da Valetec, que são 64
■
julho DE 2011
■
os setores agropecuário e industrial, de automação e informática, calçado, energia, meio ambiente e telecomunicações. Os associados poderão tanto fazer pesquisas sobre assuntos de interesse nas diversas áreas como localizar profissionais e pesquisadores para desenvolver projetos, que poderão ser realizados em parceria com divisão de custos e lucros. A Valetec é mantida pela Universidade Feevale, de Novo Hamburgo.
PESQUISA FAPESP 185
Combustíveis em teste Diferentes concentrações de biodiesel e de etanol misturadas ao óleo diesel foram testadas em um estudo conduzido na Pontifícia Universidade Católica (PUC) de Minas Gerais com um motor a diesel 1.3 instalado em um Palio Weekend, da Fiat, empresa que participou da pesquisa. Na avaliação da resposta do motor, do consumo de combustível e das emissões de gases
poluentes, uma das conclusões é que, para melhor utilização conjunta do biodiesel e etanol, é necessário fazer modificações no sistema de injeção do motor. O estudo apontou ainda que nas misturas em que entra o biodiesel se o motor não estiver bem ajustado existe o risco de se produzir mais material particulado, além de haver aumento nas emissões de dióxido de carbono e de hidrocarbonetos. Os pesquisadores, orientados pelo professor José Ricardo Sodré, coordenador do Programa de Pós-graduação em Engenharia Mecânica da PUC-Minas, testaram biodiesel de soja, de mamona e óleo de fritura. “O de soja permitiu a adição de até 85% ao diesel sem necessidade de mudanças no motor.” Com o óleo de mamona o máximo chegou a 35% e o de fritura, a 20%, por serem mais viscosos. “O etanol misturado ao diesel em concentrações de até 5% não causa danos ao motor e ajuda a reduzir as emissões de hidrocarbonetos e material particulado.” No entanto há um aumento no consumo de combustível. miguel boyayan
Daniela Collares / Embrapa
linha de produção
Biodiesel e etanol: benefícios
Airbus
Paisagem na janela
Um sensor flexível que pode ser esticado em qualquer direção, capaz de transmitir as informações dos movimentos do corpo por uma conexão sem fio, foi desenvolvido pelo pesquisador Zhigang Wu, da Universidade de Uppsala, na Suécia, em colaboração com pesquisadores da empresa Laird Technologies. Testado em atletas voluntários, o sensor conseguiu transmitir em tempo real os dados mesmo quando o usuário estava a cinco metros do equipamento de leitura (Advanced Functional Materials). A combinação de componentes eletrônicos tradicionais com microcanais, como os utilizados em biochips, permitiu chegar a essa configuração inovadora. Os microcanais são feitos de polímeros e preenchidos com metal líquido. O material flexível, com características semelhantes às dos
plásticos, permitiu construir sistemas eletrônicos que, mesmo depois de intensa deformação mecânica, conseguem voltar à sua forma original. Eles podem se adaptar a praticamente qualquer superfície móvel ou dobrável, em uma pessoa ou em um robô, funcionando como uma segunda camada de pele inteligente para monitoramento da saúde a distância ou controle remoto. Andreas Dahlin
Eletrônica flexível
Transmissor flexível
A concepção de uma cabine futurística dos aviões de passageiros que devem voar em 2050 foi apresentada pela fabricante de aviões Airbus em junho no Salão Internacional de Aeronáutica de Le Bourget, em Paris, na França. Imitando Estrutura a estrutura óssea de aves, a leve e econômica estrutura do avião será, segundo os engenheiros e designers da companhia aérea, formada com várias camadas finas de biopolímeros, titânio e vidro autolimpante nas janelas laterais e no teto. Dessa forma, será gasto muito menos material sem comprometer a segurança e o peso do avião será menor, o que leva à diminuição do consumo de combustível. Para os passageiros será uma experiência nada comparável aos dias atuais, principalmente à noite com as estrelas. Se o sol e a alta temperatura incomodarem, partes do vidro poderão ser escurecidas. Na área central da cabine vai existir uma zona interativa com cenários diversos onde será possível interagir com jogos eletrônicos, se reunir com pessoas em terra e até fazer compras.
Segurança nos terremotos Construir casas seguras que resistam a terremotos foi o projeto vencedor da categoria Sustentabilidade do prêmio concedido pela Fundação Lemelson e pelo Instituto de Tecnologia de Massachusetts (MIT) neste ano. Foram US$ 100 mil para a organização não governamental Build Change, dos Estados Unidos, que já desenhou edifícios e casas resistentes a sismos em países como China, Haiti e Indonésia. A entidade, comandada pela fundadora, a engenheira civil Elizabeth Hausler, trabalha também com os governos locais para que
normas de construção levem em conta a ocorrência de desastres naturais. A Build Change já ajudou na construção de mais de 18 mil casas e capacitou cerca de 4 mil profissionais da construção. As habitações custam entre US$ 3 mil e US$ 17 mil e recebem financiamento de instituições filantrópicas. As casas são construídas com materiais encontrados nos próprios países e são preferencialmente novos, mas também se utilizam os reciclados. O prêmio Lemelson-MIT é entregue desde 1994 e é financiado pela fundação que leva o nome do engenheiro americano Jerome Lemelson (1923-1997).
PESQUISA FAPESP 185
■
julho DE 2011
■
65
tecnologia
[ imunização ]
A multiplicação das vacinas Butantan desenvolve tecnologia para ampliar a produção e baixar o custo Fabrício Marques ilustrações Nelson Provazi
C
om capacidade de produzir 20 milhões de doses, a fábrica de vacinas contra gripe do Instituto Butantan começou a funcionar integralmente em março e deve garantir ao Brasil autossuficiência na prevenção contra o vírus influenza para pessoas idosas já em 2012. Num horizonte de três a cinco anos, o país poderá tornar-se até um exportador de vacinas contra gripe. Duas tecnologias desenvolvidas pelos pesquisadores do Butantan prometem ampliar a produção. Isso, sem a necessidade de expandir a planta, que havia sido inaugurada em 2007 mas só recentemente teve seus processos validados, ou de adquirir mais matéria-prima – cada dose requer o uso de um ovo de galinha fecundado para a reprodução dos vírus, o que torna a fábrica consumidora de 20 milhões de ovos por ano. Uma das tecnologias permite isolar o vírus inteiro, com todas as proteínas do seu interior. Hoje a vacina contra influenza aproveita do vírus uma proteína, a hemoaglutinina A. As demais proteínas são descartadas, embora também deem proteção e sofram menos mutações que a hemoaglutinina A. “Quando produzimos essa nova vacina, descobrimos que a produção por ovo aumentava, conforme
o sorotipo do vírus, de duas até sete vezes”, diz Isaias Raw, pesquisador do Instituto Butantan. A segunda tecnologia, já patenteada pelo instituto, obteve o isolamento de uma substância adjuvante, o monofosforil lipídeo (MPLA), que intensifica a reação imunológica do organismo ao estimular a produção adequada de anticorpos ou linfócitos. Já foram criadas outras substâncias desse tipo, mas elas custam caro ou não são acessíveis. O MPLA, curiosamente, é um subproduto de outra linha de pesquisa do Butantan, que foi o desenvolvimento de um novo tipo de vacina contra coqueluche, considerada mais segura graças à remoção de lipopolissacarídeos (LPS) da bactéria que causavam reações inflamatórias e tóxicas. “Convertemos quilos de LPS em MPLA, que em pequenas quantidades permite aumentar a resposta de várias vacinas fazendo com que possam ser usadas em dosagens menores”, diz Isaias Raw. Testes em camundongos mostraram que o MPLA permite proteger contra influenza usando um quarto da dose atual. O efeito já foi demonstrado também em seres humanos. A substância está sendo testada contra várias doenças. O Butantan comprovou que o MPLA tem potencial para uso em vacinas contra leishmaniose para
cães, quebrando um elo da transmissão da doença que pode ser mortal para os homens. Também é objeto de pesquisas pelo Instituto Ludwig, em Nova York, para potencializar o efeito de uma vacina contra câncer de ovário, e por um grupo de pesquisadores de Ribeirão Preto, numa vacina contra tuberculose. “Em breve será avaliada também com uma vacina contra hepatite B que hoje é ineficaz em pessoas acima de 50 anos que aguardam transplante de fígado ou rins”, diz Isaias Raw. Ao ampliar a resposta imunológica, o MPLA também a torna menos específica – já foram detectados casos em que uma vacina contra gripe também imunizou contra outros sorotipos. O MPLA é barato. “Podemos produzir com um custo de centavos MPLA para 1 bilhão de doses. Isso torna o Brasil protegido da pressão das grandes empresas, que não querem vender o adjuvante, mas a vacina pronta”, afirma o pesquisador. Os resultados, que dependem de novos ensaios clínicos para chegar à linha de produção, foram publicados na revista Vaccine em artigo assinado por Raw, Cosue Miyaki, Wagner Quintilio e Eliane Miyaji, entre outros pesquisadores do Butantan. “As pesquisas do laboratório não terminam com a publicação do artigo, mas com a produção de vacinas para atender à população”, diz Isaias Raw. PESQUISA FAPESP 185
n
julho DE 2011
n
67
O Butantan acredita que as duas tecnologias têm potencial para aumentar a capacidade de produção da planta do influenza de 20 milhões para 160 milhões de doses da vacina. Tal crescimento, além da realização de ensaios clínicos, dependerá naturalmente das condições de mercado, que têm variado bastante nos últimos anos. A fábrica foi idealizada em 2004, quando havia a ameaça da gripe aviária. Causada pelo vírus H5N1, a doença teve surtos em 2005 que dizimaram milhares de aves e chegaram a infectar algumas pessoas no Vietnã, Tailândia, Indonésia e Camboja. Naquela época, um antigo prédio do Instituto Butantan foi convertido em laboratório piloto para iniciar a produção em pequena escala da vacina. Simultaneamente, foi obtido financiamento do estado de São Paulo para a construção da fábrica e do Ministério da Saúde para importar equipamentos. A tecnologia para a produção da vacina foi transferida pelo laboratório Charles Merieux, hoje Sanofi-Pasteur, e se baseia na reprodução do vírus em ovos galados. 68
n
julho DE 2011
n
PESQUISA FAPESP 185
A OMS avalia que o alarme sobre a letalidade do H1N1 foi superdimensionado, mas na época disparou uma articulação para oferecer vacinas
O panorama transformou-se radicalmente em 2009, com o surgimento do vírus H1N1, causador da chamada gripe suína. Ele apareceu nos Estados Unidos, infectou milhares de mexicanos e rapidamente se tornou uma pandemia. As cepas eram parecidas com as do influenza de 1918, causador da chamada gripe espanhola, que matou 40 milhões de pessoas. Em comum, os dois vírus atingiam principalmente jovens, crianças e mulheres grávidas, um público que até então não era alvo de campanhas de vacinação. De repente, a demanda por imunização cresceu 10 vezes. Hoje a Organização Mundial da Saúde (OMS) avalia que o alarme em relação à letalidade do H1N1 foi superdimensionado, mas na época disparou uma articulação para oferecer vacinas. “A OMS mandou preparar uma vacina e a cedeu aos produtores, incluindo o Butantan. Não haveria vacina para todos, mas o acordo entre o Butantan e a Sanofi garantiu a prioridade para adquirir as vacinas fabricadas no exterior e permitiu imunizar cerca de 80 milhões de pessoas”, diz Isaias Raw.
Marcelo Vigneron
das regras da Comunidade Europeia. Os investimentos para a execução do projeto ultrapassaram os R$ 100 milhões, com verbas do governo do estado de São Paulo, do Ministério da Saúde e da Fundação Butantan. “Essas cifras se tornam irrelevantes diante dos milhões de reais de economia que o Brasil faz ao não precisar comprar o produto de laboratórios internacionais”, afirmou Jorge Kalil, diretor-geral do Instituto Butantan, em artigo publicado no jornal Folha de S. Paulo. “Esse avanço científico-tecnológico gigantesco nos tornou hoje o único país na América Latina a produzir vacinas contra influenza.”
A produção de vacina se baseia no uso de ovos galados
Aliança global - A capacidade de produ-
Mesmo antes da aplicação das novas tecnologias, o Butantan vislumbra a chance de exportar vacinas contra gripe para países do hemisfério Norte. Hoje a produção da fábrica tem uma forte sazonalidade. A fabricação começa por volta de setembro, quando a OMS define quais são os três tipos de vírus da gripe mais prevalentes naquele período e repassa amostras aos fabricantes. No caso do Butantan, a produção se concentra até o mês de abril, quando começa a vacinação – e a planta fica parada no restante do ano. “Nesse período poderíamos produzir a combinação de vacinas do hemisfério Norte e fornecê-la para a população que vive acima do equador, tanto no Brasil quanto em países como Venezuela, Colômbia e Guianas”, diz Isaias Raw. “Hoje a imunização chega atrasada a essas regiões e não é realmente eficaz.”
‘
Esse avanço gigantesco nos tornou o único país na América Latina a produzir vacinas contra influenza,
afirmou Jorge Kalil
Vírus e embrião - A fábrica demorou
sete anos para ficar pronta porque foi preciso superar uma série de etapas e obstáculos. Além de questões burocráticas relacionadas à escolha da construtora e à importação de equipamentos especiais como ultracentrífugas, também foi necessário desenvolver uma máquina que destrói o que sobra dos ovos, depois de separar o líquido repleto de vírus que banha o embrião. Esse material precisa ser reduzido a um pó para ser transportado com segurança e incinerado, evitando que sirva de alimento para aves e outros animais – bastariam alguns vírus vivos para disseminar a doença. “Trata-se de um processo bastante complexo, que tem uma técnica
específica para injetar a cepa do vírus em cada ovo, separar o suco do vírus, purificá-lo e repurificá-lo e dar um tratamento ecologicamente correto ao material descartado”, diz Hernan Chaimovich, superintendente da Fundação Butantan. Como a vacina imuniza contra três tipos de influenza, a produção se concentra em uma cepa de cada vez. Antes de passar para o próximo vírus, a planta precisa parar por alguns dias e sofrer um processo rigoroso de desinfecção. Só neste ano a Sanofi, ao acompanhar a produção dos primeiros lotes, atestou que a fábrica foi validada dentro
ção de vacinas por instituições públicas brasileiras chamou a atenção da Fundação Bill e Melinda Gates, que também tem feito contato com instituições de outros países. No ano passado, o Butantan recebeu a visita de Tachi Yamada, presidente do Programa de Saúde Global da fundação, interessado em conhecer a capacidade de produção da instituição paulista. A entidade filantrópica do dono da Microsoft procura parceiros para produzir vacinas a baixo custo que seriam repassadas a países em desenvolvimento. Recentemente foi formalizada uma proposta de colaboração com o Butantan, a Serum Institute, da Índia, e o Bio-Manguinhos, da Fundação Oswaldo Cruz (Fiocruz), no Rio. A parceria tem como meta a produção de cerca de 30 milhões de doses de uma vacina pentavalente, contra difteria, tétano, coqueluche, hepatite B e hemófilo B (causador de meningite e outras doenças). O Butantan entregou uma proposta para fornecer 100 milhões de doses a US$ 1,50 cada uma, para entrega em 2014, e aguarda a resposta. Já produziu efeitos notáveis a articulação da Fundação Bill e Melinda Gates e da Aliança Global por Vacinas e Imunização (Gavi, na sigla em inglês) em busca de novos fornecedores. No mês passado, quatro gigantes farmacêuticas, a GSK, a Merck, a Johnson & Johnson e a Sanofi-Aventis, concordaram em vender à Gavi vacinas contra diarreia e rotavírus a preço de custo. A redução de preço chega a 70%. E duas empresas da Índia, a Serum Institute e a Panacea Biotec, comprometeram-se com o fornecimento da pentavalente cobrando US$ 1,75 a dose. n PESQUISA FAPESP 185
n
julho DE 2011
n
69
[ cardiologia ]
Coração auxiliar
Dispositivo desenvolvido no Instituto Dante Pazzanese deverá ser implantado no primeiro paciente ainda este ano | Yuri Vasconcelos
fotos eduardo cesar
A
primeira cirurgia para implante de um coração artificial desenvolvido no Brasil deverá ser realizada até o final do ano. Essa é a expectativa dos responsáveis pelo dispositivo, uma equipe formada por médicos, engenheiros, tecnólogos, biomédicos do Instituto Dante Pazzanese de Cardiologia, de São Paulo, da Escola Politécnica da Universidade de São Paulo (USP), da Universidade Estadual de Campinas (Unicamp), da Universidade São Judas Tadeu, da Faculdade Armando Álvares Penteado, do Instituto Tecnológico de Aeronáutica (ITA), de São José dos Campos e da Faculdade de Tecnologia de Sorocaba. O dispositivo já passou por todos os testes em bancada e em animais e só aguarda o aval do Ministério da Saúde para ser implantado em humanos. Batizado de coração artificial auxiliar (CAA), ele deverá ser implantado no peito de pacientes com insuficiência cardíaca severa que aguardam na fila de transplante e será conectado ao coração natural. Esse é um diferencial fundamental em relação aos dois modelos de coração artificial total (CAT) em uso no mundo, os norte-americanos Abiocor e Syncardia, já implantados em cerca de 100 pacientes, que substituem completamente o órgão natural, removido do corpo do paciente. “O nosso coração artificial é o primeiro do mundo com essa concepção de trabalhar junto com o órgão natural”, afirma o engenheiro mecânico especializado em bioengenharia Aron José Pazin de Andrade, professor e coordenador do Centro de Engenharia em Assistência Circulatória do Instituto
Dante Pazzanese. No início de junho ele esteve presente na conferência anual da American Society for Artificial Internal Organs (Asaio), realizada em Washington, nos Estados Unidos, para apresentar a novidade. Para o cardiologista e ex-ministro da Saúde Adib Jatene, “com o coração artificial auxiliar criado pelo Aron e sua equipe, o Brasil está dominando uma nova tecnologia – e isso é muito importante para o país. Não vamos mais ficar dependentes de outras nações nesse setor”. A importância do dispositivo, cujas pesquisas foram financiadas pela FAPESP em forma de bolsas de estudo, Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), Hospital do Coração e Fundação Adib Jatene, pode ser percebida quando se olha para as estatísticas de óbitos relacionados a doenças cardiovasculares. Enfermidades do coração lideram o ranking de mortalidade no país, com cerca de 300 mil óbitos por ano, e a Organização Mundial da Saúde prevê que o índice dessas doenças deva aumentar 250% até 2040. Em muitos casos, a única forma de tratamento é o recebimento de um coração transplantado. Em 2009 foram realizados cerca de 300 transplantes cardíacos em hospitais brasileiros e milhares de pessoas aguardavam na fila para esse procedimento. Ocorre que muitos desses pacientes morrem antes que sejam a eles submetidos, em razão do estágio avançado da doença. O coração artificial auxiliar deverá servir como uma “ponte para o transplante”. Aron Andrade avalia que o coração artificial poderá ficar com o paciente por PESQUISA FAPESP 185
n
julho DE 2011
n
71
O funcionamento do coração artificial Implantado junto ao coração natural, poderá ficar até um ano no peito do paciente. Abaixo, a estrutura do aparelho
câmara esquerda
diafragma esquerdo parafuso de roletes
placa suporte eixo estabilizador
motor diafragma direito
no mínimo 30 dias e não deverá passar de um ano. Tudo vai depender da condição do coração natural e da obtenção do órgão de um doador. Pouco maior que uma bola de tênis e pesando cerca de 600 gramas, o CAA é construído com materiais biocompatíveis como polímeros e ligas de titânio. Trata-se de um dispositivo de fluxo pulsátil que só bombeia o sangue quando o ventrículo artificial se enche. O princípio de funcionamento do CAA é eletromecânico, dotado de dois ventrículos, sendo que o direito auxilia seu equivalente natural enviando o sangue com mais pressão para a artéria pulmonar, enquanto o esquerdo, também acoplado ao seu equivalente natural, bombeia o sangue arterial para a aorta, que o distribui pelo organismo. “Em resumo, o ventrículo natural bombeia para dentro do artificial e este bombeia para fora”, diz Andrade. Um motor alimentado por uma bateria proporciona o deslocamento de diafragmas que produzem o fluxo sanguíneo pulsátil, reproduzindo, assim, as funções do órgão natural. O dispositivo será implantado na barriga do paciente, abaixo do diafragma, e um cabo elétrico, da espessura de um dedo, sairá do abdome em direção a um controlador, responsável por comandar o funcionamento do CAA. 72
n
julho DE 2011
n
PESQUISA FAPESP 185
A expectativa dos pesquisadores é de que o custo do aparelho nacional fique entre US$ 30 mil e US$ 60 mil. O preço final vai depender da demanda e se o Instituto Dante Pazzanese vai ou não se associar a uma empresa para a produção. Após o aval do Ministério da Saúde, o coração artificial será implantado gratuitamente nos pacientes do instituto. Andrade acredita que, se tudo correr bem, o procedimento poderá ser realizado, em breve, em doentes do Sistema Único de Saúde (SUS). O aparelho, explica o coordenador da pesquisa, oferece algumas
O Projeto Sistemas propulsores eletromagnéticos implantáveis para dispositivos de assistência circulatória sanguínea uni e biventricular ou coração artificial - n° 06/58773-1 modalidade
Projeto Temático
vantagens em relação ao equipamento que substitui totalmente o coração natural. A primeira delas é que a cirurgia é mais simples, rápida e evita um procedimento de alto risco quando o coração do paciente para totalmente de bater e seu funcionamento é substituído durante algumas horas por um equipamento de circulação extracorpórea. Além disso, mantendo-se o coração natural do paciente, é possível controlar mais facilmente os níveis de pressão e frequência de batimento do coração artificial, o que contribui para o êxito da técnica. Os primeiros implantes do CAA serão paracorpóreos (fora do corpo), com a conexão a apenas um ventrículo artificial, no caso o esquerdo, responsável pelo bombeamento do sangue para o corpo. Esse ventrículo é geralmente o mais lesado em cardiopatas por ser o que faz mais esforço. Numa segunda etapa, que deve ocorrer um ano após os primeiros procedimentos com o novo coração, a equipe passará a fazer implantes na cavidade abdominal com o acoplamento dos ventrículos artificiais.
Coordenador
José Roberto Cardoso – USP investimento
R$ 1.185.540,09 e US$ 281.960,21 (FAPESP)
Longo caminho – As pesquisas para a
criação do coração artificial tiveram início há 15 anos, quando Andrade foi estudar esse tipo de aparelho nos Estados Unidos, no Baylor College of Medicine, em Houston,
infográfico daniel das neves
câmara direita
como parte de seu doutorado na Faculdade de Engenharia Mecânica na Unicamp. A instituição norte-americana foi uma das pioneiras no desenvolvimento de corações artificiais e na realização de transplantes cardíacos no mundo. “Naquela época, o dispositivo deles ainda não era funcional, mas já tinha sido implantado em animais”, lembra.“Quando voltei ao Brasil, em 1997, decidi continuar as pesquisas, empregando o mesmo princípio de funcionamento do aparelho que estudei em Houston. Fiz um acordo de cooperação com a instituição americana e três anos depois conseguimos realizar os primeiros testes de bancada.” A partir de 2001 começaram os testes em animais, inicialmente com implantes fora do corpo de carneiros. “Esses testes nos animaram, porque mostraram que o dispositivo era viável e, quando conectado ao coração natural, funcionava no mesmo ritmo dele. Partimos, então, para desenvolver um coração artificial possível de ser implantado dentro do corpo e passamos a realizar experimentos em bezerros saudáveis, com peso entre 80 e 100 quilos.” Somente em 2010, depois da realização de implantes bem-sucedidos em seis bezerros, foi comprovada a eficácia do dispositivo. Com isso, foi solicitada a autorização ao Ministério da Saúde para fazer as primeiras avaliações em humanos. A busca por dispositivos de assistência circulatória é um desafio encarado por empresas e instituições no Brasil e no exterior. Na Alemanha, por exemplo, a empresa Dualis MedTech está trabalhando em uma bomba biventricular de fluxo pulsátil parecida com o coração artificial auxiliar do Instituto Dante Pazzanese. No Brasil, o Instituto do Coração do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (InCor-HC/FMUSP) foi
Coração do Dante: dois ventrículos
No futuro, um coração artificial dotado de um motor elétrico deverá funcionar por meio de levitação impulsionada por forças magnéticas
o responsável pela criação do primeiro ventrículo artificial da América Latina, implantado em 1993 num paciente com 30 anos, em fase terminal da doença de Chagas. Projetado e desenvolvido pela equipe de bioengenharia do Incor, o ventrículo artificial foi ligado ao ventrículo esquerdo do doente, que pôde aguardar, por cinco dias, a disponibilidade do coração de um doador. A diferença entre o coração artificial do Dante Pazzanese e o ventrículo artificial do InCor é que o primeiro é formado por dois ventrículos artificiais num único aparelho, simulando a anatomia de um coração natural. “O dispositivo do InCor pode auxiliar os dois ventrículos, direito e esquerdo ao mesmo tempo ou somente com um deles, dependendo da condição do coração do paciente.Esses dispositivos são conectados ao coração e implantados na região abdominal, fora do corpo. Treze pacientes receberam o dispositivo para aguardar um transplante por períodos de 5 a 42 dias”, conta a professora Idágene Cestari, diretora do Centro de Tecnologia Biomédica do InCor. Segundo a especialista, para avaliar a eficácia do ventrículo artificial, o InCor coordena atualmente um estudo multicêntrico com apoio do Ministério da Saúde e do CNPq, do qual fazem parte o Instituto
Nacional de Cardiologia do Rio de Janeiro, o Hospital do Coração da Universidade Federal de São Paulo (Unifesp), o Hospital Messejana, no Ceará, o Instituto de Cardiologia do Rio Grande do Sul e o próprio Instituto Dante Pazzanese. Rotação da turbina – Uma outra ca-
tegoria importante de dispositivos de assistência circulatória são as bombas de sangue de fluxo contínuo, utilizadas com frequência em cardiopatas por conta de sua disponibilidade no mercado, baixo custo e simplicidade na implantação. Ligadas aos ventrículos, elas ajudam o coração danificado a bombear o sangue de forma contínua e podem ser de dois tipos: axiais ou centrífugas. Nas primeiras, o sangue é impulsionado por uma pequena turbina semelhante a uma hélice de barco, que gira a uma velocidade elevada, de 10 mil rotações por minuto, e proporciona um fluxo na mesma direção de entrada do sangue. Já as bombas centrífugas, maiores que as anteriores, possuem pás que giram a uma velocidade muito menor e produzem uma vazão perpendicular à direção de entrada do sangue. Hoje vários centros do mundo estudam esse tipo de dispositivo, inclusive o Pazzanese. Outra pesquisa relevante feita no Brasil na área de dispositivos de assistência circulatória é coordenada pelo professor José Roberto Cardoso, diretor da Escola Politécnica (Poli) da USP. Em um projeto temático financiado pela Fapesp, elaborado na esteira do coração artificial do Instituto Dante Pazzanese, os pesquisadores, com a participação do professor Aron, querem desenvolver um modelo diferente de dispositivo de assistência ventricular, dotado de um motor elétrico sofisticado que, sem contato algum com o sangue, propulsione o rotor da bomba. Para isso está sendo criado pelo grupo um mancal magnético que fará o rotor funcionar por meio de levitação, impulsionada por forças magnéticas. Peça importante do dispositivo, o mancal é um apoio que mantém o rotor numa posição central fixa, permitindo sua rotação. Segundo o professor Oswaldo Horikawa, da Poli, que integra a equipe, o objetivo do mancal magnético é reduzir ao mínimo o risco de lesões às células sanguíneas – um processo chamado de hemólise – devido ao bombeamento. O dispositivo encontra-se em fase final de montagem de um protótipo. n PESQUISA FAPESP 185
n
julho DE 2011
n
73
Como nossos filhos Ação de crianças reduz riscos cardiovasculares dos pais Isis Nóbile Diniz
A
maternidade acentuou a vontade da cardiologista Luciana Savoy Fornari de ingressar profissionalmente no mundo infantil. Ao nascer o primeiro filho, a médica percebeu em casa a transformação que uma criança gera no ambiente familiar. E, pensou, “até que ponto o filho pode influenciar a saúde dos pais?” Ao contrário das questões comuns de como os adultos exercem poder sobre as ações das crianças, a pesquisadora, que faz parte da equipe do cardiologista Bruno Caramelli, do Instituto do Coração (InCor) da Universidade de São Paulo (USP), resolveu estudar o quanto os filhos podem contribuir para uma melhor qualidade de vida do pai e da mãe. Por meio de um programa educacional infantil, o grupo teve uma resposta surpreendentemente afirmativa. Ensinar as crianças sobre os riscos cardiovasculares pode diminuir em cerca de 90% o risco de os pais apresentarem doenças relativas ao coração. O resultado faz parte de um estudo que será exposto no Congresso Europeu de Cardiologia, em agosto deste ano. A equipe avaliou a eficácia de um programa multidisciplinar educacional para as crianças na prevenção de riscos
74
n
julho DE 2011
n
PESQUISA FAPESP 185
cardiovasculares dos pais. Os cientistas submeteram dois grupos de alunos com idade entre 6 e 10 anos de uma escola particular de Jundiaí, a 60 quilômetros de São Paulo, a duas abordagens distintas. Pais de estudantes (grupo de controle) do período da manhã receberam folhetos educativos com orientações sobre alimentação saudável, a importância de evitar o tabaco e de realizar atividades físicas. Aos respectivos alunos nada foi transmitido. Já o treinamento do segundo grupo, chamado de intervenção, incluiu um passo a mais. Além dos folhetos dados aos pais, as crianças do período vespertino assistiram a palestras e realizaram atividades sobre prevenção cardiovascular durante o ano de 2010. Nutricionistas ensinavam como seguir uma alimentação saudável na cantina. Nas aulas de educação física, fisioterapeutas explicavam por que é importante praticar atividades físicas. Encenações de peças de teatro e um passeio ciclístico, em conjunto com os pais, reforçaram as aulas. “Mas em momento algum foi dito às crianças para cobrarem dos pais essas atitudes saudáveis”, diz Luciana. Os pesquisadores já esperavam que esse trabalho repercutisse positivamente em casa. Nos Estados Unidos, na década
de 1990, os colégios incluíram no currículo aulas sobre qualidade de vida que ensinam aos alunos como se alimentar melhor. Pesquisadores acompanharam esse programa percebendo uma mudança de comportamento. No Brasil, muitas escolas transmitem informações de preservação ambiental e atitudes adequadas no trânsito, repetidas pelos estudantes aos pais. “Aliás, em algumas rodovias há placas com imagens de crianças e frases destinadas aos pais que dirigem, com o intuito de evitar acidentes. Isso nos inspirou”, afirma Caramelli.
O Projeto A educação dos filhos como instrumento terapêutico na redução do risco cardiovascular dos pais – n° 2009/17450-3 modalidade
Auxílio Regular a Projeto de Pesquisa Coordenador
Bruno Caramelli – InCor/USP investimento
R$ 62.256,88 (FAPESP)
desenho de nara lacerda ferreira, 7 anos
O grupo disse aos responsáveis pelas crianças que o estudo iria avaliar os fatores de riscos cardiovasculares na família, e assim necessitariam de dados de todos. Os pais (323 no total, idade média de 40 anos) autorizaram a participação dos filhos (197), mas desconheciam o fato de os adultos serem o objeto do estudo. Escala de Framingham – cálculo que mostra a probabilidade de a pessoa sofrer alguma doença cardiovascular –, exames laboratoriais, questionário nutricional e de práticas físicas, medidas de peso, altura, circunferência abdominal e pressão arterial foram usados como comparação no início e no final do ano letivo. Mais saudáveis - Depois do programa
educacional, 91% dos pais do grupo de intervenção deixaram o estágio de alto risco com relação às doenças cardiovasculares segundo a escala de Framingham, enquanto a diminuição foi de 13% no grupo controle. Além disso, a redução do risco médio de sofrer problemas cardiovasculares diminuiu de 3,53% para 2,8% no primeiro grupo, enquanto no outro o problema permaneceu praticamente o mesmo, em torno de 4,5%. “As crianças comentavam com os pais qual seria a melhor refeição, o que deveriam comprar no supermercado”, conta Caramelli.
Após a intervenção com os filhos, 91% dos pais deixaram o grupo de alto risco cardíaco As atitudes cobradas pela filha de 7 anos de Karina Martins Caires, 31 anos, por exemplo, mudaram os hábitos da família inteira. “A gente comia pizza ou lanche três vezes por semana. Agora ingerimos massa apenas aos sábados ou domingos. Meu marido e eu até voltamos a fazer academia”, revela Karina. “Toda vez que era apresentada uma aula sobre o tema, minha filha chegava em casa falando da importância do que aprendeu, como não fumar. Se via alguém fumando na rua, comentava que isso faz mal à saúde”, afirma a mãe. No supermercado, a garota pedia para comprar mais frutas e hortaliças. “Até hoje,
quase seis meses após a pesquisa, ela fala que a gente deve substituir a sobremesa por frutas”, conta. Na Páscoa, a menina disse que os pais deveriam doar parte dos ovos, porque eram muitos para os três. Cada membro da família come um pedaço de chocolate por dia. Quando Karina quer mais um, a garota reforça: “Não se esqueçam de que sou a fiscal do coração”, como aprendeu na escola. “Se a atitude de ingerir alimentos mais saudáveis está partindo dela, nós, pais, precisamos seguir para dar o exemplo. Ela é uma criança mais consciente”, acredita. “A relação familiar é muito importante. Por isso as crianças podem exercer a prevenção que os médicos não conseguem transmitir aos pacientes apesar de afirmar que as doenças cardiovasculares são as que mais matam”, completa o cardiologista. “Claro que há fatores genéticos de risco cardiovascular, mas mudar o hábito da família pode ajudar a diminuílos”, diz Luciana. Agora a equipe pretende viabilizar o programa de prevenção de riscos cardiovasculares em escolas públicas. E, mais adiante, analisar os efeitos dessa educação no longo prazo. n PESQUISA FAPESP 185
n
julho DE 2011
n
75
[ agricultura ]
Proteção ao maracujá Novo kit diagnostica precocemente bactéria que devasta pomares Dinorah Ereno
76
n
julho DE 2011
n
PESQUISA FAPESP 185
F
ruto comestível usado em sucos, doces, xaropes e produtos cosméticos, do maracujá se emprega tudo, até a casca para fazer farinha. O Brasil é seu maior produtor e consumidor mundial, com mais de 700 mil toneladas produzidas em 2009, mas vem registrando significativas perdas no campo por causa de uma doença de difícil controle e de ocorrência generalizada – a bacteriose do maracujá que deixa as folhas com lesões e os frutos impróprios para consumo. A bactéria Xanthomonas axonopodis é a responsável por essa doença que ataca os maracujazeiros e traz prejuízos de 20% a 30% aos produtores. “Como não há meios eficientes para controle químico e erradicação da doença, quando ela se espalha no maracujá todo o pomar tem que ser eliminado”, diz a professora Maria Lúcia Carneiro Vieira, da Universidade de São Paulo (USP). Ela e a doutoranda Carla de Freitas de Munhoz desenvolveram um kit de diagnóstico precoce que indica a presença da bactéria ainda em estágio inicial e pode evitar a disseminação do patógeno e o avanço da doença. Com financiamento da FAPESP, o trabalho teve também a participação de pesquisadores do Instituto Agronômico de Campinas (IAC) e da Universidade Estadual de Londrina (UEL). O estudo inicial pesquisou a estrutura genética das populações brasileiras do patógeno. Para isso, foram coletadas bactérias em pomares das regiões Sudeste, Sul e Central. “A partir dessa coleta conseguimos 87 isolados bacterianos”, relata Maria Lúcia, do Departamento de Genética da Escola Superior de Agricultura Luiz de Queiroz , em Piracicaba, no interior
paulista. Cada isolado corresponde a uma linhagem ainda não estudada geneticamente. Foi feita a análise da variabilidade genética para avaliar se havia diferenças entre as bactérias coletadas, dependendo da região de origem. “Há diferenças, sim. Elas estão associadas à região onde foram coletadas”, diz. Aquelas encontradas em São Paulo, por exemplo, são mais próximas geneticamente que as de Minas Gerais, ou do Paraná. De posse dessas informações, foi feito um estudo comparativo. “Fizemos uma análise de parte do genoma do Xanthomonas do maracujá e comparamos com os isolados de diferentes tipos (ou patovares) da mesma bactéria que atacam outras espécies vegetais, como uva, alho, mandioca e feijão”, relata. “Percebemos que existia uma base nucleotídica que diferenciava os isolados da bactéria que ataca o maracujá de todas as outras.” Apoiados nisso os pesquisadores conseguiram estabelecer um método molecular fundamentado na reação em cadeia da polimerase ou PCR – que amplifica
O Projeto Estudo da diversidade molecular de Xanthomonas axonopodis pv. passiflorae através de marcadores REP-PCR e AFLP e aplicações em diagnose - n° 2008/58494-0 modalidade
Auxílio Regular a Projeto de Pesquisa Coordenadora
Maria Lúcia Carneiro Vieira - USP investimento
R$ 126.439,46 (FAPESP)
fotos carla munhoz
uma sequência específica do DNA do patógeno – para desenvolver o kit que diagnostica a presença do Xanthomonas antes mesmo de a planta começar a apresentar sintomas da doença. “Um pequeno pedaço da folha é suficiente para fazer o diagnóstico, e o teste pode ser aplicado em viveiros e pomares”, diz Maria Lúcia. Não será preciso ir até um laboratório que faça o exame. Bastará enviar pelo correio a amostra a ser analisada. O custo de cada uma ficará em torno de R$ 3,00. Um valor muito baixo em comparação com as perdas de eliminação de toda uma plantação. “Aparentemente não existem pomares resistentes a essa bactéria, que ataca tanto o maracujá azedo como o doce”, diz a pesquisadora, que desde a década de 1990 estuda a fruta usando diferentes abordagens de genética molecular. A rápida disseminação da doença torna bastante difícil o seu controle, já que a bactéria se propaga pelo vento, por ferramentas agrícolas e mudas contaminadas. Em citros, como a laranja, a Xanthomonas causa um cancro no fruto. No maracujá deixa a casca
Sequência do DNA do patógeno usado para detectar o Xanthomonas do maracujá
oleosa e com a cor amarelo-escura, tendendo para o marrom. Ainda no pé, o fruto contaminado apodrece. “Quando a doença chega ao fruto, a vinha já está contaminada.” O maracujá azedo representa cerca de 97% da área plantada e do volume comercializado em todo o país. A Região Nordeste responde por 73% da participação na produção nacional, segundo dados de 2009 da Produção Agrícola Municipal do Instituto Brasileiro de Geografia e Estatística (IBGE). Os principais compradores de frutas frescas são a Argentina e o Uruguai, enquanto a fruta conservada e o suco concentrado são vendidos para países europeus. A cultura do maracujazeiro ocorre principalmente em pequenas propriedades, em sistema de agricultura familiar. Por isso a ideia dos pesquisadores é oferecer o kit de diagnóstico a indústrias de suco ou a viveiros de mudas. Dessa forma, as mudas contaminadas seriam erradicadas e os pequenos produtores, que fornecem as frutas para processamento pela indústria, se beneficiariam com a redução das perdas. Os grandes viveiros também serão beneficiados pela aplicação prática dos resultados obtidos no estudo, porque são os principais fornecedores de mudas para todo o país. “Na compra de um lote, a bactéria pode estar presente e não ser percebida em um exame apenas visual”, diz Maria Lúcia. n Artigo científico MUNHOZ, C.F. et al. Genetic diversity and a PCR-based method for Xanthomonas axonopodis detection in passion fruit. Phytopathology. v.101, n. 4, p. 416-24. abr. 2011. PESQUISA FAPESP 185
n
julho DE 2011
n
77
[ Aviação ]
Controle remoto Pequenas aeronaves sem tripulação ganham espaço no Brasil Marcos de Oliveira
M
áquinas voadoras que surgiram para fins militares com o objetivo de espionar sem riscos para os pilotos o campo dos inimigos, os veículos aéreos não tripulados (vants) ganham novos usos e passam a ser utilizados no monitoramento ambiental, na agricultura e na segurança pública, por exemplo. Sem piloto, eles são comandados do solo por meio de uma estação de controle formada basicamente por um notebook e um joystick aliados a um sistema de rádio, sensores, câmeras de vídeo e softwares que indicam a rota, a altitude e o momento do pouso. Eles podem voar muitos quilômetros e voltar à base sozinhos ou por meio de uma pilotagem virtual na tela do computador. A evolução recente desses aviões está ligada ao desenvolvimento da microeletrônica e da miniaturização de equipamentos de aviação. No Brasil, o uso desse tipo de aeronave começou nos anos 1990, no âmbito militar, e cresceu na década seguinte com a formação de várias empresas produtoras de vants de pequeno porte. Além da produção nacional, a Força Aérea, com dois aviões sediados na base de aérea de Santa Maria, no Rio Grande do Sul, e a Polícia Federal, também com duas aeronaves, utilizam vants de grande porte que foram comprados de empresas israelenses em 2010 para treinamento, no caso da Aeronáutica, e monitoramento das fronteiras na região de Foz do Iguaçu visando impedir o contrabando e tráfico de drogas e de armas. A importância crescente dos aviões sem piloto no país pode ser medida pelo intenso movimento de fusões e parcerias no início deste ano. A empresa Santos Lab, do Rio de Janeiro, produtora dessas aeronaves que já vendeu 36 aviões para a Marinha brasileira, firmou uma parceria operacional com a Embraer Defesa, braço para fins militares da gigante da aviação de São José dos Campos, no interior paulista. Outra empresa de São José, a Flight Solutions, que entregou três protótipos em 2010 para testes no Exército brasileiro, faz parte desde maio do Grupo Synergy Defesa, uma empresa recém-criada pelo grupo detentor da companhia aérea Avianca. Outras duas, a AGX, de São Carlos, e a Xmobots, de São Paulo, que fazem vants apenas para uso civil, se uniram em uma parceria
foto agx
Tiriba: com bateria recarregável, vai monitorar áreas de preservação ambiental
tecnológica que visa ao fortalecimento no mercado. Outra empresa brasileira é a Avibras, que participou do desenvolvimento de um sistema de navegação e controle para vant com o Instituto de Aeronáutica e Espaço (IAE), do Departamento de Ciência e Tecnologia Aeroespacial (DCTA), também em São José, e agora produz outra aeronave, de grande porte, para uso militar que deverá fazer o primeiro voo ainda em 2011. O movimento das empresas brasileiras de veículos aéreos não tripulados reflete o interesse que eles ganharam no mercado internacional. Mais de 30 nações estão desenvolvendo esses aviões. Os Estados Unidos são os líderes, com 35 empresas que, na quase totalidade, produzem para as Forças Armadas daquele país. Os vants, ou unmanned aerial vehicles (UAVs) como são conhecidos mundialmente, apresentaram o maior crescimento da indústria aeroespacial da década passada no mundo. Segundo o estudo World unmanned aerial vehicle systems, market profile and forecast 2011 apresentado em fevereiro pela consultoria norte-americana Teal Group, especializada nas áreas aeroespacial e de defesa, o mercado mundial neste ano deve atingir os US$ 5,9 bilhões com pesquisa, desenvolvimento e comércio de aeronaves. O Departamento de Defesa dos Estados Unidos estima o valor gasto com esses pequenos aviões neste ano em cerca de US$ 3,1 bilhões. Os dois maiores vants são norte-americanos e estão em atividade no Iraque e no Afeganistão. O Global Hawk, com uma
‘
Com a colaboração do INCT-SEC, nós desenvolvemos um sensor capaz de localizar pessoas à noite, diz Kalcelkis
envergadura (medida de uma ponta a outra das asas) de 39 metros (m), maior que a de um Boeing 737, e o Predator, capaz de carregar mísseis. O mesmo estudo prevê um movimento anual de US$ 11,3 bilhões em 2020. Uma iniciativa que pode abrir muitas pistas para o setor de vants no país foi um acordo da empresa AGX para cessão à Polícia Militar Ambiental do Estado de São Paulo de três aeronaves dotadas de câmeras fotográficas para monitoramento, em áreas de preservação permanente, desmatadas, de pesca ilegal, avaliação de mata ciliar, queimadas e localização de pessoas perdidas nas matas. Para operar os aviões, 15 policiais receberam treinamento e devem começar a utilizar os aparelhos neste mês de julho. “Eles vão usar dois modelos Tiriba, dotado
de bateria elétrica de lítio e possível de ser lançado da mão do operador [sem a necessidade de uma pista para decolagem], e um Arara II, movido a gasolina, que decola de uma pista pequena”, diz Adriano Kalcelkis, diretor da AGX. O desenvolvimento das aeronaves, que contou no início da empresa com apoio do Programa Inovação Tecnológica em Pequenas Empresas (Pipe) da FAPESP, também teve a cooperação do Instituto de Ciências Matemáticas e de Computação, da Escola de Engenharia de São Carlos da Universidade de São Paulo, e da Embrapa Instrumentação Agropecuária, instituições de São Carlos, e mais recentemente do Instituto Nacional de Ciência e Tecnologia em Sistemas Embarcados Críticos (INCT-SEC), que reúne as três instituições de pesquisa e mais sete outras no país. “Com a colaboração do INCTSEC nós desenvolvemos um sensor termal capaz de localizar pessoas ou animais à noite pelo calor do corpo, muito útil para a polícia em buscas noturnas”, diz Kalcelkis. “A melhor coisa para uma empresa de tecnologia é ter a universidade do lado porque os dois ganham, inclusive com o licenciamento de patentes como a que temos em conjunto com a USP para o sistema de controle das aeronaves.” A empresa emprega dois doutores, quatro mestres e quatro graduados. O avião mais avançado da empresa é o Tiriba, que voa até 3 mil metros de altitude com velocidade máxima de 110 quilômetros por hora (km/h), além de ter autonomia de até 15 km da base e pousar com o acionamento de um paraquedas quando o piloto em terra assume o controle. Desde 2006, a empresa presta serviços com as aeronaves Arara para obtenção de fotos aéreas na agricultura para detectar a qualidade da cultura e a identificação de pragas em extensas áreas agrícolas (ver Pesquisa FAPESP n° 122). “Voamos nos estados de São Paulo e Mato Grosso, sobre plantações de soja, e no sul do país sobre áreas de eucalipto e pínus”, conta Kalcelkis. Um dos projetos futuros da AGX que já está em desenvolvimento é o VSX, um vant produzido em parceria com as empresas Aeroálcool, de Franca, no interior paulista, produtora de equipamentos para aviação, e a Orbisat, que produz radares e mapas de sensoriamento remoto, de São José. A aeronave vai funcionar a gasolina, voará a 200 km/h, pesará cerca de 220 quilos (kg) PESQUISA FAPESP 185
n
julho DE 2011
n
79
Área urbana – A empresa desenvol
veu o Apoena, um avião a gasolina com 2,5 m de envergadura e 2,6 m de comprimento, capaz de voar a 115 km/h e até em distâncias de 60 km. Esse avião é utilizado para estudos de uma futura certificação para vants em uso civil que estão sendo realizados pela Agência Nacional de Aviação Civil (Anac). Até agora, não existem sistemas desse tipo que possam ser certificadas pelas autoridades de controle do espaço aéreo. Os vants são proibidos de voar em áreas urbanas e os voos em áreas agrícolas ou de mata precisam ser comunicados aos centros de controle de voo da região, que emitem comunicados para aeronaves com pilotos. Para o projeto de certificação do Apoena que servirá de modelo, a empresa possui um projeto de Subvenção Econômica da Finep, no valor de R$ 1,7 milhão. A Xmobots foi formada por nove alunos de mestrado e de graduação da Escola Politécnica da USP em 2004 que perceberam a possibilidade de mercado dessas aeronaves ainda incipientes no país. Hoje restaram três. “Muitos desistiram porque um projeto como esse demora e resolveram seguir outros ca80
n
julho DE 2011
n
PESQUISA FAPESP 185
A diferença entre aeromodelo e vant está nas câmeras, nos sensores e na capacidade de autonomia de voo
minhos”, diz Amianti. Com o desenvolvimento de controle de navegação próprio, a empresa se habilitou a mais outros três projetos aprovados no Fundo Setorial Aeronáutico. O primeiro é com a Universidade Federal do Rio Grande do Norte (UFRN) e o Instituto Militar de Engenharia (IME), do Rio de Janeiro, para a construção de um minivant, de 300 gramas, com capacidade de voar a 60 km/h em aplicação de policiamento e investigação, no valor de R$ 1,5 milhão. Outro, no valor de R$ 1,9 milhão, é com a Universidade de Brasília, para a construção de outro minivant, esse maior com 3 kg, que tem a participação do Instituto Tecnológico de Aeronáutica (ITA), capaz de ter quatro horas de autonomia e voar até a 100 km/h. O terceiro projeto, também de R$ 1,9 milhão, desenvolvido com a empresa Atech, é destinado à área de segurança
pública e consiste na miniaturização do hardware de controle do Apoena. Outras duas pequenas empresas produtoras de vants no país, a Santos Lab e a Flight Solutions, têm perfis bem diferentes embora atuem no mesmo segmento, o de aeronaves militares. A Santos, nome em homenagem a Santos-Dumont, é comandada pelo administrador de empresas Gilberto Buffara e pelo designer industrial Gabriel Klabin, dois amigos que desde a adolescência brincam com aeromodelos nas praias do Rio de Janeiro. A diferença entre aeromodelo e vant começa com a adoção de câmeras e sensores, mas a principal é que o segundo é capaz de ter autonomia de voo, com rota preestabelecida, enquanto os primeiros precisam ter um equipamento de rádio apontado para eles constantemente e não levam a bordo eletrônica sofisticada. “A empresa começou como uma brincadeira em 2004 com um modelo de quatro metros de envergadura. Em 2006, o Gabriel colocou câmeras em um avião e soubemos que a Marinha estava procurando empresas que produzissem vants”, conta Buffara. “Aí decidimos ir para Israel, onde estão grandes empresas fabricantes desses aviões, e visitamos, por exemplo, as duas grandes, a IAI [Israel Aerospace Industries] e a Elbit, o que nos foi útil para entender o mercado.” Eles montaram os primeiros modelos com tecnologia e um engenheiro de Israel, além de um contrato de representação de uma subsidiária da Boeing, a Insitu, especializada na área. Também os dois vants comprados pelo governo federal força aérea dos estados unidos
e terá autonomia de 30 horas para sobrevoar principalmente a Amazônia, levando radares para mapear o solo embaixo das folhas das árvores. O VSX tem um projeto de Subvenção Econômica da Financiadora de Estudos e Projetos (Finep) no valor de R$ 1 milhão e deverá estar pronto no final de 2012. A empresa que está se associando à AGX é a Xmobots, que aposta no mercado ambiental para seus aparelhos. No momento, os dois grupos de empresários e pesquisadores buscam as tecnologias das duas empresas que possam ser complementares e evitem a necessidade de novos desenvolvimentos. “Um exemplo dessa parceria é, por exemplo, o trabalho que realizamos na Usina Hidrelétrica Jirau, que está em construção no rio Madeira no estado de Rondônia. Lá fazemos voos para tirar fotos e filmes sobre o desmatamento na região. O tratamento das imagens é feito pela AGX, que tem um amplo conhecimento nesse setor”, diz Giovani Amianti, um dos sócios da Xmobots, empresa incubada no Centro de Inovação, Empreendedorismo e Tecnologia (Cietec), em São Paulo, que também recebeu financiamento do Pipe em 2007.
Global Hawk: asas maiores que as de um Boeing 737
IAE/dCTA
Acauã: experimento das Forças Armadas
são israelenses. São dois da Polícia Federal, da IAI, com o modelo Heron, com 16 m de envergadura, e os dois da Força Aérea, da Elbit, chamado de Hermes 450, com 10 m de envergadura. Os aviões fabricados pela Santos Lab são de pequeno porte. “Acreditamos que não é necessário reinventar uma tecnologia que já está pronta. Hoje temos dois engenheiros aeronáuticos alemães que trabalharam na Nasa, num total de oito funcionários”, diz Buffara. Eles já venderam 36 aviões para a Marinha, faturaram R$ 8 milhões em 2010 e se preparam para produzir outros vants militares num convênio com a Embraer Defesa. O principal avião é o Carcará, com 2,10 m de envergadura e 50 centímetros de comprimento, a bateria e capaz de ser lançado à mão. Para o pouso, a empresa desenvolveu e patenteou um sistema em que a aeronave se posiciona num ângulo de 45° e desce na vertical. Controle da navegação – Os sócios da
Flight que no início de junho negociavam como seria a participação da nova empresa Synergy Defesa fazem questão de afirmar que a tecnologia desenvolvida por eles, principalmente em relação a sistemas de controle, é resultado de projetos anteriores realizados no ITA, de onde foram alunos. “Eu, um mestrando, e meu sócio, o Benedito Maciel, doutorando, participamos antes de criarmos a empresa, entre 2001 e 2004, de um projeto Pite [Parceria para Inovação Tecnológica] da FAPESP, com a Embraer, para desenvolver e identificar sistemas de estabilidade e controle de aeronaves coordenado pelo professor Luiz Carlos Goes”,
diz Nei Brasil, sócio da Flight, fundada em 2005 e especializada em produtos para aviação militar, que teve um faturamento de R$ 6 milhões em 2010 e possui 37 funcionários. Em julho de 2009, a empresa concluiu o projeto Horus 100, um avião de reconhecimento militar lançado à mão que voa até 120 km/h por meio de bateria de lítio, e pesa apenas 5,8 kg, com autonomia de uma hora. A Flight também participou do desenvolvimento do sistema de navegação e controle usado no Acauã, um vant construído no Instituto de Aeronáutica e Espaço (IAE) do Departamento de Ciência e Tecnologia Aeroespacial (DCTA). “A história começa em 1984, quando a instituição iden-
Os Projetos 1. Um sistema de mapeamento automático de produtividade agrícola - nº 2005/04485-2 2. Projeto de um sistema aviônico certificável para veículos aéreos não tripulados (vants) de aplicação civil - nº 2007/55661-0 modalidade
1 e 2. Pesquisa Inovativa em Pequenas Empresas (Pipe) Coordenadores
1. Rafael Alexandre Ferrarezi - AGX 2. Giovani Amianti - Xmobots investimento
1. R$ 52.152,00 (FAPESP) 2. R$ R$ 56.940,84 e US$ 16.670,37 (FAPESP)
tificou a necessidade de capacitação para esse tipo de aeronave”, diz o engenheiro aeronáutico Flavio Araripe, coordenador do projeto Vant no IAE. A constatação se devia aos acontecimentos no vale do Bekaa, no Líbano, em 1982. A Síria ocupava parte daquele país e a aviação israelense, com informações certeiras obtidas por vants, destruiu 17 baterias antiaéreas sírias. Ali ficou evidente a importância militar desses aviões, além de permitir o crescimento de Israel nessa área. Então, o CTA decidiu investir no desenvolvimento do Acauã. Mas vários cortes de verba fizeram o projeto se concretizar apenas a partir de 2004, numa parceria com os centros tecnológicos do Exército e da Marinha, financiamento da Finep e um parceiro industrial, que foi a Avibras, fabricante brasileira de armamentos. Foram realizados 59 voos com dois protótipos do Acauã, que possui 5 m de envergadura, pesa 150 kg e tem duas horas de autonomia com motor a gasolina. O Acauã serviu de experimento para as Forças Armadas, que detiveram a tecnologia do sistema de navegação, e também para a Avibras, que agora desenvolve o seu próprio vant chamado de Falcão em parceira com o IAE nas fases de ensaio no solo e em voo. “A Avibras havia construído um vant que recebeu o nome de Scorpion na década de 1990 junto com a Universidade de Maryland, nos Estados Unidos, mas depois não houve interesse comercial e o projeto foi cancelado”, lembra o engenheiro Renato Tovar, coordenador do projeto Falcão. Ele explica que esse vant deverá voar pela primeira vez até o final deste ano, com um porte maior que o daqueles feitos até aqui no Brasil e semelhante aos israelenses comprados pelo governo brasileiro. “O Falcão terá 11 m de envergadura e vai pesar 700 kg. Deve voar a uma velocidade de 180 km/h e terá até 2.500 km de alcance a uma altitude de 5 mil metros. O controle será por comunicação via satélite ou rádio”, diz Tovar. “Ele terá um radar de alta sensibilidade capaz de identificar um automóvel ou barco a uma distância de 50 km.” O Falcão poderá também carregar armas e atuar nas fronteiras do país. O financiamento é parte de um projeto de Subvenção Econômica da Finep no valor de R$ 19 milhões e uma contrapartida n de R$ 8 milhões da empresa. PESQUISA FAPESP 185
n
julho DE 2011
n
81
[ computação ]
Atendentes virtuais
x y
Sistema de animação facial pode tornar mais intuitiva interação com o computador
E
m breve, retirar dinheiro, fazer um pagamento ou realizar qualquer movimentação bancária em uma máquina de atendimento automático poderá ser uma experiência diferente do que é hoje. No lugar de digitar comandos e interagir friamente com a tela do caixa eletrônico, o usuário terá uma vivência de atendimento próxima à de um funcionário de carne e osso da agência bancária. Ele será “atendido” pela imagem de um bancário virtual, cuja face surgirá na tela da máquina orientando-o verbalmente sobre o que fazer. Esse mesmo atendente virtual poderá estar presente no celular, verbalizando mensagens que hoje são enviadas por escrito, ou em websites, ajudando o usuário a fazer reservas de bilhetes aéreos, agendamento de consultas médicas e vários outros serviços realizados por meio de menus – uma tarefa aparentemente trivial para muitos, mas que ainda causa dor de cabeça em pessoas não familiarizadas com essas tecnologias ou com deficiência de leitura e limitações físicas, por exemplo. Esse é o cenário projetado por uma dupla de pesquisadores da Universidade Estadual de Campinas (Unicamp) responsável pelo desenvolvimento de um método de animação facial videorrealista, elaborado a partir de imagens do rosto humano – e não desenhadas com auxílio da computação gráfica –, que cria e reproduz em faces virtuais os detalhes
82
n
julho DE 2011
n
PESQUISA FAPESP 185
e as nuances observados em rostos reais. O objetivo da inovação, que recebeu o nome de AnimaFace2D, é tornar a interação com o computador e outros dispositivos eletrônicos parecidos com a que se estabelece durante uma conversação olho no olho. “O sistema que criamos poderá suportar o desenvolvimento de interfaces humano-computador mais intuitivas, eficientes e cativantes, representando uma alternativa a aplicativos mais tradicionais que se apoiam no uso de janelas, ícones, menus, teclado e mouse”, diz o engenheiro eletricista José Mario De Martino, corresponsável pela pesquisa e professor da Faculdade de Engenharia Elétrica e de Computação da Unicamp. “Conversar com um rosto humano é um processo eficiente e intuitivo. Acredito que pessoas virtuais são uma alternativa promissora para a criação de interfaces de comunicação em diferentes tipos de dispositivos e aplicações.” O resultado final do processo de animação facial criado na Unicamp é um conjunto de imagens fotográficas de uma face real que, ao serem processadas e apresentadas em sequência, num ritmo apropriado, transmitem a sensação de movimento, como se fosse uma pessoa falando ao vivo. Para gerar uma imagem falante videorrealista, a tecnologia recorre a uma base de 34 fotografias de diferentes posturas labiais, os chamados visemas, que podem, cada um deles, ser associados a um conjunto de fonemas de
P1
P3
P4
P2
josé de martino / unicamp
P5
nossa língua. Cada visema é, portanto, a representação visual do posicionamento articulatório da boca para a produção acústica dos fonemas. A identificação dos visemas foi resultado de pesquisa envolvendo a análise da movimentação articulatória durante a produção dos fonemas do português falado no Brasil realizada por De Martino. Fotografias sincronizadas - A enge-
nheira eletricista Paula Dornhofer Costa, aluna de doutorado sob orientação do professor De Martino, utilizou a definição dos visemas para identificar o conjunto de 34 fotografias da face de uma pessoa real utilizadas para síntese da animação. Essas 34 imagens possibilitam a sincronização entre os movimentos labiais da face virtual e a fala, gerando uma animação próxima à de um interlocutor falando ao vivo. Traçando um paralelo com o universo das dublagens de filmes, a correta identificação e o perfeito sequenciamento dos visemas evitam a falta de sincronia entre fala e articulação labial. De acordo com o professor da Unicamp, o software
desenvolvido é inédito no Brasil. Os sistemas similares que existem no exterior, ainda não comerciais, são dirigidos para outros idiomas. “Todo o estudo relacionado ao desenvolvimento da tecnologia foi feito no Brasil e centrado em nossa realidade, sobretudo em nossa língua e suas particularidades”, afirma De Martino. “Não contamos com a parceria de pesquisadores estrangeiros. A única e importante colaboração que tivemos foi da fundação CPqD, de Campinas, que contribuiu com a bolsa de mestrado, apoiou a implantação do sistema piloto e permitiu o uso do sintetizador de texto ‘CPqD Texto Fala’.” O software utilizado nesse sistema piloto foi registrado no Instituto Nacional de Propriedade Industrial (INPI) e está pronto para uso comercial. “Temos forte interesse em estabelecer parcerias com empresas interessadas em explorar a tecnologia”, diz. “A tecnologia será apresentada a especialistas de mercado em agosto deste ano, e acreditamos que ela vá interessar às empresas que trabalham com a interface homem-máquina, como o
de automação bancária, e-commerce e turismo, entre outros”, diz Giancarlo Stefanuto, coordenador científico do projeto Mobilização Empresarial para Inovação (Mepi) da Inova, a Agência de Inovação da Unicamp, que administra os direitos de propriedade intelectual e busca interessados em licenciar ou criar uma empresa para comercializar esse software. “Percebemos que há um mercado em expansão para softwares de animação de expressões faciais, como o desenvolvido na Unicamp. A interface homem-máquina está ficando cada vez mais personalizada e inovações como essa tendem a ter boa procura no futuro. Para nós, essa é uma linha de pesquisa estratégica, mas para a tecnologia entrar no mercado ainda são necessários alguns ajustes e adaptações. Ele precisa ser mais amigável, ter interfaces mais intuitivas, um tutorial e manual”, diz Stefanuto. “A expansão do mercado é fruto da percepção dos especialistas da Inova comprovada pelo próprio pesquisador em fóruns internacionais onde a tecnologia é debatida.” Sistemas de animação facial poderão ter no futuro diversos tipos de aplicação, entre eles a criação de avatares, personagens ou atores virtuais em jogos ou vídeos comerciais, a elaboração de agentes personificados virtuais, tais como vendedores, tutores, atendentes de suporte, guias virtuais e apresentadores de notícias, entre outros. Poderão ser usados também como ferramentas de estudo e treinamento de leitura labial. A tecnologia tem características que possibilitam sua adaptação a várias plataformas de processamento, como telefones celulares, smartphones e tablets. “É possível imaginar, por exemplo, uma aplicação em que o usuário de celular assinaria um serviço de notícias que seria exibido por um apresentador sintetizado em seu próprio aparelho. As vantagens são que as notícias poderiam ser enviadas em formato de texto para o celular e o sistema se encarregaria de fazer a conversão automática de texto em fala visual. Além de baratear o serviço – o envio de caracteres tem menor custo que o de imagens –, não seria necessário gravar o vídeo de um apresentador de notícias todos os dias ou a cada bolen tim”, explica De Martino.
Yuri Vasconcelos PESQUISA FAPESP 185
n
julho DE 2011
n
83
humanidades
[ melancolia ]
A psicologia do púlpito As raízes coloniais do entendimento da alma nacional Carlos Haag
Melencolia I (gravura de Albrecht Dürer / Wikimedia Commons)
E
m seu Sermão da quarta dominga depois da Páscoa, o padre Antônio Vieira (1608-1697) discute a tristeza a partir da passagem bíblica em que Cristo anuncia sua morte aos apóstolos, que se entristecem. Para Vieira, porém, a causa daquela tristeza não era a ausência iminente do mestre, mas o silêncio diante de sua partida. Se tivessem perguntado aonde Cristo iria teriam compreendido que não havia motivos para sofrer. Assim, a causa da tristeza era o silêncio. Num curioso paralelo, em 1895, Freud afirmou: “Sofremos de reminiscências que se curam lembrando”. A base da psicanálise freudiana era a cura pela palavra e pelo autoconhecimento da alma. Algo a que, em 1676, Vieira (leia mais na página 86) já aludia em As cinco pedras da funda de Davi: “O primeiro móbil de todas as nossas ações é o conhecimento de nós mesmos”, acrescentando no Sermão da quarta dominga do advento: “Nenhuma coisa trazemos mais esquecida, mais detrás de nós que a nós mesmos”. “Nessa primeira modernidade havia uma forma de terapia que usava as palavras para tratar as dores da alma, ainda que identificá-la diretamente com a psicoterapia atual seja uma imprecisão”, explica o psicólogo Paulo José Carvalho da Silva, professor da Pontifícia Universidade Católica de São Paulo (PUC-SP), autor da pesquisa Ideias sobre as dores da alma no Brasil entre os séculos XVI e XVIII, apoiada pela FAPESP. “Ainda assim, investigar as noções de dores da alma nesse período é um desdobramento original da história das ideias psicológicas, uma área de pesquisa emergente na história da ciência. A psicologia como ciência de práticas terapêuticas só foi sistematizada no final do século XIX, mas desde a Antiguidade muitos pensadores quiseram compreender e tratar a alma e um dos nomes desses saberes era a medicina da alma”, analisa o pesquisador. “Muitos dos conceitos da psicologia moderna
Os tratamentos das patologias da alma eram assumidos pelos missionários jesuítas e por autodidatas
O psicólogo e professor da USP Isaías Pessotti observa em seu estudo Notas para uma história da psicologia brasileira que “a evolução da psicologia moderna começa no Brasil colonial em que se veiculam ideias de interesse para a área em diversas áreas do saber mesmo sem a presunção de construir uma psicologia”. Segundo o pesquisador, esses textos eram explicitamente sobre outros temas, mas tratavam de questões como método de ensino, controle das emoções, causas da loucura, diferença de comportamentos entre sexos e raças etc. compondo o pensamento da elite cultural da época colonial. “É um período pré-institucional, pois o que se publica são obras desvinculadas de instituições da psicologia. São trabalhos individuais, sem compromisso com a construção ou difusão do saber psicológico, escritos por autores indiferentes ao progresso do saber psicológico per se. Na sua maioria são religiosos ou políticos, homens de projeção e poder, iluminados pela cultura europeia e interessados em usar essa ‘psicologia’ para a organização da sociedade e do Estado brasileiro.”
O
s tratamentos para as patologias da alma eram assumidos, no início, pelos religiosos, no caso do Brasil colônia pelos missionários jesuítas, seguidos de outros, embora isso não significasse que a medicina da alma fosse uma empresa estritamente religiosa. Postulava-se, de modo geral, uma continuidade entre a dor do corpo e a da alma, identificada como tristeza, luto ou descontentamento. “Na primeira modernidade, o debate filosófico sobre a definição da natureza das paixões também incluía sua relação com a violência. Muitos sustentavam que a paixão era um perigoso elemento da natureza humana com enorme potencial subversivo. Filósofos das mais variadas tradições afirmavam que as paixões são capazes de corromper governos, arruinar sociedades ou mesmo provocar a morte. A paixão era um problema da ordem da ética, da política, estética, medicina e da teologia”, nota Carvalho da Silva. Para os que viviam no Brasil dos séculos XVI e XVII, experimentar uma paixão era sinônimo de “sentir”, de ter sentimentos, e ser afetado por uma paixão significava emocionar-se, viver
86
n
julho DE 2011
n
PESQUISA FAPESP 185
detalhe de o sonho de constantin0 (Piero della Francesca / Wikimedia Commons)
têm raízes no passado e olhar para esse passado nos permite reconhecer os elos de continuidade com nosso presente, as origens de teorias e métodos próprios do nosso modo de pensar. Se analisarmos o conjunto da produção luso-brasileira colonial, destacando-se o aporte dos jesuítas, notamos a criação de formas e métodos para a construção de um tipo de conhecimento da subjetividade e do comportamento humanos muito relevantes para a definição dos alicerces que darão origem à psicologia moderna”, afirma a psicóloga Marina Massimi, professora da Faculdade de Psicologia da Universidade de São Paulo e autora, entre outros, de História da psicologia brasileira (E.P.U.) “A preocupação com os fenômenos psicológicos no Brasil não é recente e desde os tempos da colônia eles aparecem em obras de filosofia, moral, teologia, medicina, política etc. cujo estudo mostra uma produção muitas vezes original e mesmo questões até hoje atuais”, concorda a psicóloga Mitsuko Makino Antunes, da PUC-SP, e autora de A psicologia no Brasil: leitura histórica sobre sua constituição.
narciso (Michelangelo Caravaggio / Wikimedia Commons)
uma emoção. “Há uma produção cultural elaborada no Brasil que mostra o interesse predominante dessa dimensão poderosa e frágil da experiência humana. O conhecimento, controle e manipulação das paixões, em sua natureza teórica e prática, eram um instrumento particularmente importante para os objetivos religiosos, sociais e políticos da Companhia de Jesus, como revela o interesse dos jesuítas sobre o tema”, avalia Marina Massimi. O sistema baseava-se nas teorias formuladas por Aristóteles, revisitado no século XIII por Tomás de Aquino (daí a sua denominação de doutrina “aristotélico-tomista”), um caldo reelaborado pelos pensadores da companhia, nos chamados tratados Conimbrences (termo derivado de Conimbrica, nome latino da cidade de Coimbra, onde os estudos foram elaborados), comentários das obras aristotélicas sobre as paixões. Esses estudiosos atribuíam grande importância aos estados da alma definidos como paixões, entendidas como movimentos do apetite sensitivo, provenientes da apreensão do bem ou do mal, acarretando algum tipo de mutação não natural do corpo. “Os filósofos jesuítas reafirmaram, nos moldes de Aristóteles e Aquino, a função positiva das paixões, caso fossem ordenadas pela razão, o que ajudaria na sobrevivência do homem e o ajudariam a alcançar a virtude. Elas se transformariam em doenças ou distúrbios do ânimo apenas enquanto se afastam da regra e moderação da razão. Assim, a ‘psicologia’ dos Conimbrences é expressiva da posição cultural da modernidade nascente”, avalia Marina. Nesse movimento se estabelece uma analogia profunda entre o organismo do homem, considerado como realidade psicossomática, e o organismo político-social. “É nesse encontro que o controle e a terapia das paixões parecem encontrar sua função teórica e prática. Na dinâmica do corpo social, bem como na do corpo individual, o ‘despotismo’ das paixões deve ser submetido a uma ‘monarquia’ onde o governo da razão e da liberdade atribua a cada aspecto da vida psíquica sua função e seu lugar peculiar”, completa a pesquisadora. “Daí decorre a importância da pregação, vista como fonte de transmissão de conceitos e práticas psicológicas, mas também como expressão da articulação
entre retórica, teoria do conhecimento e psicologia filosófica, resultando numa prática de uso da palavra muito significativa e, num certo sentido, precursora da moderna confiança na força da palavra e do discurso que está presente na psicanálise e nas psicoterapias em geral.” A palavra do pregador seria capaz de mudar juízos e atitudes dos ouvintes e um dos alicerces desse poder, nota a autora, seria a possibilidade de a palavra atingir e mobilizar o dinamismo psíquico dos destinatários, nos termos das psicologias formuladas por Aristóteles, Tomás e Agostinho. “A palavra pregada visa ensinar o ato de conhecimento envolvendo todo o psiquismo humano”, afirma Marina. Um caso exemplar disso seriam os Sermões de Vieira, onde se combinariam a preocupação jesuítica com os efeitos morais da tristeza entre a população brasileira, a apreensão pela insatisfação melancólica dos colonos e a longa tradição europeia de meditações
médicas, filosóficas e teológicas sobre essa paixão da alma. “Vieira enfatiza a universalidade e a gravidade da tristeza a que estão sujeitos mesmo os reis de todas as terras, os imperadores mais poderosos e os papa. Ela é tão perigosa para a saúde do corpo como para a salvação da alma. Mais ou menos aguda, a tristeza é sempre mortal, é como um verme que come por dentro, secando tudo até que o princípio da vida se apague. Também segundo ele, as tristezas que permanecem ocultas são as mais opressivas, sensíveis e perigosas”, explica Carvalho.
M
as a dor era entendida como um fenômeno da condição humana que extravasa os limites concebíveis entre a alma, o corpo e mesmo os limites que separariam um indivíduo de outro. O que revela que existia uma confluência de saberes e campos que ora se apresentavam dissociados, mas que, naquele período, PESQUISA FAPESP 185
n
julho DE 2011
n
87
V
ieira, em particular, apostava na autonomia da razão humana para dominar suas paixões e apetites quando afirma que “o conhecimento de si mesmo, e o conceito que cada um faz de si, é uma força poderosa sobre as próprias ações”. É preciso voltar os olhos, sempre abertos em coisas exteriores, para o interior. “Frei Chagas, por exemplo, recomendava que era melhor empregar o tempo e a inteligência não tanto no exame da história, da geografia e da cultura, mas no da própria alma. Essa anatomia de si é o equivalente moderno do que se viria a ser a análise da alma, ou seja, a decomposição nas menores partes para poder compreendê-la
88
n
julho DE 2011
n
PESQUISA FAPESP 185
detalhe de A Morte da Virgem (Michelangelo Caravaggio / Wikimedia Commons)
dialogavam de modo mais ou menos fluente. Falar sobre a dor implicava abordar não apenas a saúde e a doença, mas temas como finitude e eternidade, perda e separação, fantasia e realidade, afeto e razão, gozo e sofrimento, vida e morte”, continua o pesquisador. “Que é este mundo senão um mapa universal de misérias, de trabalhos, de perigos, de desgraças e mortes?”, escreveu o Padre Vieira. A consolação passou, então, a fazer parte das atividades pastorais, e ao lado da administração dos sacramentos os padres ofereciam a medicina da alma para aqueles que se encontravam na dor. “Para tanto, a identificação da verdadeira e legítima dor é uma referência fundamental para o consolador cristão e uma condição para a experiência de ir além da dor, necessária para a salvação da alma. Todo consolador, como todo confessor, deve saber nomear a dor de quem sofre”, diz Carvalho. Segundo o pesquisador, os sermões eram o meio mais utilizado para a realização da arte da consolação e da medicina da alma em sua função psicológica e espiritual, o que pressupunha um conhecimento prático sobre a importância da memória na experiência da dor e no seu tratamento, em especial, na sua função na origem e na permanência das dores da alma e, portanto, na sua superação. “Mas é importante lembrar que consolar-se é fruto de uma decisão solitária e pessoal. Na medida em que a noção de indivíduo e de vida interior ganhou mais espaço na mentalidade moderna, a relação entre conhecimento de si e a experiência da consolação foi se estreitando cada vez mais.”
melhor”, nota o autor. “O saber de si mesmo é visto como funcional para o controle sobre suas próprias ações, fundamentando-se na possibilidade de o sujeito representar sua vivência interior através do discurso. A necessidade da palavra para formular o autoconhecimento faz com que esse não seja possível, por exemplo, em experiências intensas como o choro simplesmente. O autoconhecimento se traduz num discurso cuja finalidade é comunicar para o outro a experiência vivenciada. O outro é um ouvinte. A escuta, que ele oferece ao sujeito, permite a este a melhor articulação de sua comunicação verbal e a catarse. O relacionamento interpessoal e o diálogo assumem uma função terapêutica, princípio, aliás, de toda psicoterapia moderna”, analisa Marina. Assim, o sujeito ocupa um lugar ativo, sendo o conhecimento possível pela transformação
em discurso da vivência interior que ele próprio elabora. A consciência dos fenômenos e sua comunicação verbal são as condições para o entendimento deste fenômeno. “As palavras, ao mesmo tempo que objetivam os fenômenos subjetivos, exteriorizando o que era contido na intimidade da pessoa, favorecem a libertação das emoções penosas desses estados.” Falar das dores podia aliviar o coração, bem como silenciá-las fazia com que essas se acumulassem e aumentassem ainda mais. “Era possível curar por meio da palavra. Acreditava-se também que o verdadeiro orador, como um médico de almas, curaria seus auditórios de suas enfermidades, combatendo as paixões que lhes são contrárias: eles apaziguam a cólera, aumentam a coragem e fazem suceder o amor ao ódio, e assim por diante”, fala Carvalho. “Vale lembrar ainda a importância da imagem, que,
juntamente com a palavra, é um grande recurso de transmissão cultural em sociedades marcadas pela oralidade”, observa Marina. A chegada de novos princípios científicos ao Brasil colonial trazem mudanças nessa visão psicológica do homem. “Desenvolvem-se uma psicologia e uma psicopatologia inovadoras em relação à tradição cultural anterior. Sendo a mente redutível ao organismo e sendo este regulado pelas leis da natureza, é possível abordar o seu estudo por meio do método científico, que já se mostrara efetivo na física e na biologia. Os distúrbios psíquicos, assim, que dependem do funcionamento do organismo segundo essa nova visão iluminada, poderiam ser conhecidos causalmente, prevenidos e tratados, modificando as variáveis por remédios físicos e normas higiênicas”, explica a pesquisadora. “A terapêutica das dores da alma, agora, deve ser realizada por remédios farmacêuticos que acabam por subordinar a teologia moral à medicina, considerada a disciplina que ultimamente pode instrumentar os tratamentos da alma, inclusive aqueles tradicionalmente cuidados pelos confessores”, concorda Carvalho. É o caso, por exemplo, de Francisco de Mello Franco (1757-1822), que em sua Medicina teológica postula que a figura do confessor seja substituída pela do médico que detém o conhecimento exato das causas das enfermidades da alma e proporciona os métodos terapêuticos como remédio, tudo fruto de uma análise objetiva e causal. “O objetivo da psicologia médica do século XVIII, que será consolidada no século XIX, é o de definir uma ‘verdade’ sobre o homem, alternativa à proclamada pelo saber tradicional de matriz cristã. A felicidade é identificada com a boa regulação da máquina corporal, segundo a ordem do sistema da natureza”, diz Marina. “Não é uma cura pela palavra, mas uma medicina propriamente dita. Obras como a de Mello Franco propõem a substituição dos confessores pela nova medicina dos nervos e defende que é necessário conhecer os nervos, sua estrutura, para poder tratar os vícios humanos. Na contramão da medicina da alma, abre-se uma nova via à medicina, fundada nas bases de uma nova concepção de homem, de ciência e de racionalidade”, defende Carvalho.
Acreditava-se, já naquele tempo, que era possível curar pela palavra e pelo conhecimento interior
nivelar os sujeitos sociais e culturais. A nova pergunta é ‘quem somos nós?’ Creio que foi a ocorrência desse processo um dos motivos que explicam, parcialmente, por que a introdução e a difusão da psicologia moderna no país, em suas vertentes de ciência do comportamento ou da psicologia das diferenças individuais, com suas técnicas de avaliação e de medida do ser humano, foi muito favorecida e apoiada como instrumento oportuno e moderno a ser utilizado nessa perspectiva.” Até o início do século XIX não havia no Brasil uma psicologia propriamente dita como prática reconhecida. Mas era crescente o interesse da elite nacional pela produção e aplicação de saberes psicológicos, em especial nas recém-criadas faculdades de Medicina do Rio e da Bahia, onde se produziram várias teses sobre o tema.
N Afinal, o mundo ideal preconizado em sermões não se sustentava mais. “O sonho de uma sociedade ordenada pela verdade e pela justiça é substituído pela consciência da inevitabilidade do destino imposto pelo regime colonial. Então, a dimensão psicológica interior do homem não é mais concebida como o espelho da harmonia universal, como queria a reforma ordenada aristotélico-tomista, nem como o lugar onde mora no homem aquela faísca divina que garante a sua imortalidade, mas como o refúgio precário e passageiro do indivíduo ante os absolutismos do poder e a desordem exterior da sociedade”, explica a pesquisadora. Aos poucos, nasce a ideologia do caráter nacional brasileiro que manipula traços psicológicos na construção de teorias para definir características coletivas do “brasileiro”. “No século XIX, o processo de organização da sociedade nacional traz a necessidade de
a Bahia, a preocupação principal era a aplicação da psicologia nos problemas sociais, como na higiene mental e psiquiatria forense. No Rio, o interesse era sobre a relação da psicologia com a neuropsiquiatria e a neurologia, com estudos de psicologia experimental. “Boa parte dessas produções se ligava ao movimento que buscava o saneamento das cidades, o que envolvia a eliminação das ‘imundícies’ físicas e morais dos centros urbanos. Os médicos se envolviam em ações para erradicar esses problemas e criar uma sociedade sadia, organizada, normalizada, livre da desordem e dos desvios da escória social. Chegaram os hospícios, com o argumento de ajudar o louco, os quais seriam asilos higiênicos, com base no tratamento moral, mas serviram apenas para excluir do convívio social os indesejáveis”, nota Mitsuko Antunes. Uma escolha que trouxe graves consequências para a psicologia nacional. “Um psicólogo enraizado em sua cultura e sociedade é um agente de transformação social e não de normalização. Hoje temos uma escolha: atuar na redução do ser humano como peça produtiva da sociedade globalizada ou atuar para afirmá-lo como protagonista da sociedade. Acho que o conhecimento das ideias psicológicas surgidas no âmago da história cultural de nosso país tem a função de iluminar essa esn colha”, avalia Marina. PESQUISA FAPESP 185
n
julho DE 2011
n
89
[ jesuítas ]
O homem de Deus na corte dos homens Biografia mostra Padre Vieira como um hábil articulador político
S
e o grande desejo do homem barroco era conciliar céu e terra, visão em que a duplicidade é a única atitude compatível, dificilmente se encontrará um melhor exemplar da espécie do que o padre Antônio Vieira (1608-1697). Após cumprir a obrigação religiosa de cuidar da saúde celeste das almas, o jesuíta dedicava-se ao que realmente lhe dava maior prazer: os assuntos políticos do reino terreno lusitano. “Era um homem obcecado, amante de maquinações complexas, enxadrista, conspirador. Egocêntrico também e manipulador. Era frio e calculista, fazia de si mesmo um personagem, escrevia o roteiro e o executava em cena. Era retórico por excelência e artista por vocação. Ele fez do púlpito uma tribuna política desde o primeiro sermão: as grandes decisões da Monarquia passaram a ser divulgadas por meio dos sermões de Vieira, alçado, na prática, à posição de porta-voz da coroa”, conta o historiador Ronaldo Vainfas, professor da Universidade Federal Fluminense (UFF) em sua biografia do Padre Vieira, fruto de uma pesquisa de vários anos, financiada pelo CNPq e pela Faperj, e que vai ser publicada até o final do ano pela Companhia das Letras. Segundo o pesquisador, Vieira trabalhou duas grandes causas em seus 90 anos de vida: a luta pela legitimação do reinado de dom João IV, líder da restauração portuguesa que encerrou a dominação espanhola em Portugal; e a defesa dos cristãos-novos contra a Inquisição, por convicções religiosas (era um sincero filossemita) e também por considerar que o suporte financeiro dos judeus era
90
n
julho DE 2011
n
PESQUISA FAPESP 185
Imagens cedidas pelo projeto portinari
essencial à guerra de restauração. “Foi também o primeiro a desafiar a Inquisição portuguesa em campo aberto, misturando um perfil combativo como político do Paço com um conservadorismo social, sempre se opondo às sedições em defesa das hierarquias, sustentando que aos dominados não cabia senão obedecer aos senhores. Ao mesmo tempo, consolava os oprimidos em suas pregações, acenando com a glória celeste após a morte”, afirma Vainfas. Acima de tudo, foi, nota o pesquisador, o portador de um projeto modernizante para Portugal, preocupado em alavancar a economia do reino e robustecer as rendas da coroa. “Ainda assim, arrisco dizer que, em seu íntimo, Vieira era um homem amargurado, melancólico, que precisava de um palco ou de um púlpito para sair de si. Vivia atormentado pela sua origem humilde, que sempre se esforçou em esconder. Provavelmente sabia da origem judaica por parte da avó materna e da ascendência mulata por parte da avó paterna.” Nascido em Lisboa, veio ao Brasil em 1615 para acompanhar o pai, morando numa casa modesta nos arredores de Salvador. Educado, inicialmente, em casa, pela mãe, estuda com os inacianos e, em 1623, ingressa na Companhia de Jesus como noviço, tendo uma carreira meteórica entre os jesuítas. A invasão holandesa foi o tema de seu primeiro sermão público, pregado em 1633. Era um rapaz de apenas 25 anos chamado a elevar os ânimos da população baiana para a resistência. Seu segundo sermão, pregado naquele mesmo ano, tocava um ponto igualmente importante: a escravidão. “Os jesuítas condenavam a escravidão indígena, mas a dos africanos PESQUISA FAPESP 185
n
julho DE 2011
n
91
era apoiada pelo papa sob a alegação de que o cativeiro traria os negros para a luz do cristianismo. Eram dois pesos e duas medidas: no caso dos índios, escravidão e catequese se opunham. No caso dos negros, se complementavam”, conta o historiador. O sermão foi feito num engenho para uma “confraria” de escravos negros. “Segundo as palavras de Vieira, os ‘pretos’ deveriam agradecer a Deus por terem sido retirados das brenhas da gentilidade em que viviam, para serem ‘instruídos na fé, seguros da salvação eterna. A glória deles estava na condição de escravos”, diz.
M
esmo a defesa dos índios era feita por “dever de causa”, segundo os ideais da companhia. “Vieira não tinha nenhuma empatia pelo modo de vida indígena e, para ele, os índios só valiam por terem suas almas abertas à palavra de Deus. Nada mais. O amor que sentia pelos índios era abstrato, nada mais do que a caritas recomendada pelos apóstolos”, conta Vainfas. Sempre defendeu as hierarquias e as desigualdades sociais. Em Lisboa, num sermão, disse aos pobres que não lamentassem a fome, pois quanto mais esquálidos fossem, menos devorados seriam pelos vermes na sepultura. Sua grande paixão era a política. Em 1641 foi a Lisboa acompanhando uma delegação de jesuítas que iria à metrópole para jurar fidelidade ao novo rei lusitano, dom João IV. Com sorte, ganhou as graças do soberano e se transformou no grande protagonista do seu reinado. “Para um rei inseguro como dom João IV, o padre era um apoio inestimável. Dedicou-se ao aprendizado da política da corte e, vaidoso, estava convencido de que estava destinado por Deus a uma grande missão: glorificar o rei e consagrar sua legitimidade.” De sermão em sermão, continua o pesquisador, Vieira ia transformando o sebastianismo em “joanismo”. Chegou a comparar dom João a Cristo: foi Vieira quem se encarregou de convencer o rei de que ele era mesmo o rei legítimo de Portugal. Tornou-se o principal articulador político da Monarquia, homem de maior confiança do rei, conselheiro para assuntos internos e externos, políticos e econômicos, uma espécie de “primeiro-ministro”. “Maquiavélico por excelência, não no sentido vulgar, mas no sentido de
92
n
julho DE 2011
n
PESQUISA FAPESP 185
Num sermão disse aos pobres que não lamentassem a fome, porque, magros, seriam menos devorados pelos vermes
que o objetivo do príncipe era conservar o poder, Vieira traçou um programa político para dom João, cujo eixo estava no apoio aos cristãos-novos e no combate à Inquisição, um plano”, avalia Vainfas. A Companhia de Jesus e o Santo Ofício tinham estratégias diferentes de evangelização e eram rivais ferrenhos: a primeira apostava na catequese e na pedagogia, enquanto o segundo pregava o castigo e a intimidação. “O principal inimigo de Vieira era o Santo Ofício e ele fez tudo o que pôde para estilhaçar e desmoralizar a Inquisição, em especial pela sua defesa dos sefarditas, a fim de que os capitais judaico-portugueses espalhados pelo mundo, sobretudo na Holanda, fossem atraídos para o reino português. Suas razões eram políticas e econômicas, mas também devotava um amor ao judaísmo como doutrina e pelos judeus como ‘povo eleito’, que não raro ele confundiu, de propósito, com o ‘povo português’.” Para Vainfas, nisso Vieira também era “moderno”, pois estava disposto a estimular a economia portuguesa com a injeção de capitais sefarditas, colocando os interesses da coroa acima da ortodoxia oficial religiosa. “Seu projeto implicava um ‘aburguesamento’ de Portugal, em imitação da Holanda, um ataque frontal às estruturas do Antigo Regime ibéricas, ao menos aqueles que se amparavam na valorização dos ideais aristocráticos, da pureza da fé e da limpeza do sangue, numa verdadeira guerra política e ideológica.”
Moderno? Há outras visões sobre isso. “Há algo de arraigadamente étnico na sua maneira de conceber os ‘negócios’, ou o ‘dinheiro’, termos que entende no interior da riquíssima semântica do judeu. Por isso há muito de arcaico e de estranho ao mundo burguês, diferente do que dizem os que gostam de pensá-lo como autor antecipador de tendências ilustradas ou revolucionárias. Basta ver que jamais percebeu que o capital tem determinações materiais próprias e é surdíssimo à sereia sutil da teologia”, escreve o crítico literário Alcir Pécora, da Universidade Estadual de Campinas (Unicamp), em Vieira, a Inquisição e o capital. “Vieira acreditava na providência do dinheiro, no desígnio divino dos negócios. O ‘dinheiro’ de que fala não é o mesmo do burguês: longe de laico, é tão encoberto e sobrenatural quanto o seu Vice-Cristo ou a Eucaristia”, continua Pécora. “O jesuíta não serve como figura da consciência pré-iluminista barrada pelo obscurantismo inquisitorial, mas é adequado atribuir-lhe a consciência de um homem de fé militante que defende a hegemonia do Estado católico. A exegese do capital é parte essencial dessa estratégia e evidencia-se que ‘capital’ é termo anacrônico à questão de Vieira”, completa. “Não
fora a evidente e sincera crença na finalidade cristã dos empregos judaicos, é inconcebível que Vieira tomasse o lugar do capital como objeto de uma exegese tão ousada ou que aplicasse anos de sua vida, dois dos quais em uma cela, para elaborar explicações complexas às quais, contudo, não votasse valor algum”, escreve. Seu filossemitismo igualmente não era tão revolucionário. “Sua tolerância aos cristãos-novos não era singular no seu tempo, sendo parte de uma atitude crescente de filossemitismo e tolerância geral na Europa do século XVII.” Como seus contemporâneos, a visão de Vieira dos judeus misturava ideologia mercantilista, conveniência política e expectativas messiânicas, que via a conversão dos judeus como um passo necessário para a chegada da “nova era”. “Mesmo suas críticas ao Santo Ofício não eram tão singulares no Portugal do seu tempo, embora ele fosse o mais efetivo advogado da tolerância”, observa o brasilianista Stuart B. Schwartz, professor da Universidade de Yale. Basta lembrar que sua tolerância não se estendia aos protestantes e aceitava os judeus por serem como “menos perigosos” do que esses “hereges”. “Se era um ‘advogado’ dos cristãos-novos e dos judeus, não defendia a fé judaica e, no tribunal da Inquisição, afirmou ser favorável à sua extinção total e à conversão universal dos judeus.” Para Schwartz, Vieira via a sobrevivência de Portugal em termos econômicos e culpava o Santo Ofício por essa fraqueza ao atacar a classe mercantil lusitana dos cristãos-novos, abrindo assim as portas para a exploração estrangeira do império.
F
oi acusado de Judas ao tentar negociar uma vultosa indenização e restituição aos holandeses do território pernambucano após o início do movimento rebelde luso-brasileiro contra os batavos. “Vieira considerava a rebelião uma irresponsabilidade. Alertava que os rebeldes não lutavam pela fé católica, mas porque ‘deviam muito dinheiro aos holandeses e não puderam ou quiseram pagar’. Mas superestimou o poderio holandês, que já não era o mesmo, e desmereceu muito a capaci-
Padre Vieira, no traço de Portinari
Defendia a escravidão dos negros, que deveriam ser gratos pelo cativeiro
dade de resistência luso-brasileira”, diz Vainfas. Afinal, se estivesse errado, seu excesso de zelo faria Portugal perder uma parte preciosa do seu império colonial. A vitória dos rebeldes apressou a sua decadência na corte e até o final da vida se arrependeu da posição tomada em face da questão holandesa. Em meio a intrigas, inclusive dentro da própria Companhia de Jesus, cujo geral ordenou que se desligasse da sociedade e procurasse outra ordem religiosa, para terror do padre, que não concebia viver fora do meio jesuíta. Vieira retirou-se da cena política e voltou ao Brasil em missão no Maranhão. O todo-poderoso padre viu-se obrigado a viver num cubículo, dormindo numa esteira de tábua. Mas o espírito irrequieto não o abandonou e atacou os colonos que usavam os indígenas como escravos. Preso em 1661, foi expulso para Portugal após PESQUISA FAPESP 185
n
julho DE 2011
n
93
rependido e abjurou de seus erros. Foi solto, mas perdeu o direito de pregar, indo para Roma a fim de se aproximar do centro do poder católico. Novo golpe de sorte: em Portugal assume como regente dom Pedro, candidato de Vieira, facilitando sua vida na Santa Sé. Readquiriu seu direito de pregar e foi convidado a assumir o posto de pregador oficial do papa, a quem convenceu a suspender o tribunal do Santo Ofício em Portugal. Para sua desgraça, a proibição caiu poucos anos mais tarde. Cansado da luta inglória contra a Inquisição, regressou à Bahia em 1681, um homem alquebrado de 73 anos que usou seus anos finais para preparar os Sermões para publicação. Morreu em 1697, quase cego, surdo. Pouco depois chegou ao Brasil a notícia do restabelecimento de seus direitos plenos na Companhia de Jesus.
V um ano de cadeia. Foi, aliás, no “ostracismo” do Maranhão que começou a se dedicar aos escritos messiânicos. “Ele se concentrou na busca de um elo entre o universal e o particular, entre a expectativa da ressurreição do mundo, com a segunda vinda de Cristo, e a ressurreição do reino de Portugal”, nota o autor. O resultado foi Esperanças de Portugal, pleno de heterodoxias à doutrina oficial católica, como o prenúncio da ressurreição de dom João IV para conduzir o triunfo lusitano no Quinto Império. O Santo Ofício recebeu o “presente” com prazer. “A Inquisição pretendia castigar Vieira, mas não queimá-lo a qualquer preço. O objetivo era derrotá-lo, humilhá-lo, fazê-lo reconhecer seus erros e mostrar a todos que o Santo Ofício ainda era a instituição mais poderosa do reino”, explica o pesquisador. Na prisão, o padre tornou-se ainda mais místico e, nas audiências de 1667, mostrou-se ar94
n
julho DE 2011
n
PESQUISA FAPESP 185
A Inquisição pretendia castigar Vieira, mas não queimá-lo, apenas humilhá-lo e reafirmar o poder do Santo Ofício
iveu tempos complexos, em que céu e terra entabulavam uma delicada relação. “Não existia a separação entre Estado e religião e até o século XVIII a política foi encarada como uma matéria a ser decifrada numa chave teológico-jurídica. As pessoas recusavam conceber a ordem política desligada de uma ordem transcendental, o ‘entendimento católico da política”, analisa o historiador Pedro Cardim, da Universidade Nova de Lisboa. “Afinal, Vieira foi um político? Por um lado, não, em especial pelas concepções em seus sermões. Por outro, sim, se considerarmos a trajetória do padre que, por vontade própria, sempre esteve próximo do poder, um dos mais marcantes protagonistas do processo político lusitano dos Seiscentos”, analisa o pesquisador. Mais barroco, impossível. “Já se falou que é possível ler a maior parte dos estudos acadêmicos sobre Vieira sem perceber que ele era um padre. Mas não se pode entendê-lo sem levar isso em consideração, porque o ministério do pastor teve precedência sobre todas as outras facetas”, acredita o historiador Thomas Cohen, autor de The fire of tongues: Antônio Vieira and the missionary church in Brazil and Portugal. Ou, como ele bem definiu: “Para falar ao vento bastam palavras. Para falar ao coração é preciso obras”. n
Carlos Haag
Notícias Biblioteca de Revistas Científicas disponível na internet | www.scielo.org
\\ Antropologia visual
O artigo “O índio na fotografia brasileira: incursões sobre a imagem e o meio”, de Fernando de Tacca, da Universidade Estadual de Campinas, pretende explorar contradições e confluências entre o meio (fotográfico) e a imagem do índio brasileiro sob uma perspectiva histórica da fotografia brasileira. A imagem do índio nessa fotografia manifesta-se em três momentos distintos, escreveu o autor. Na fase inicial, no lugar do exótico, o contraditório ao sentido moderno da fotografia durante o Segundo Império. Na segunda fase, as fronteiras entre o etnográfico e o nacional se diluem, nos primeiros 50 anos do século XX, a exemplo da Comissão Rondon/Seção de Estudos do SPI e do fotojornalismo moderno no Brasil da revista O Cruzeiro. No terceiro momento, as manifestações de uma etnopoética das fotografias de Claudia Andujar (na foto, Sonhos, 1974-2003) fazem meio e imagem se fundirem como lugar etnográfico na arte contemporânea. História, Ciências, Saúde-Manguinhos – vol. 18 – nº 1 – Rio de Janeiro – mar. 2011
\\ Agricultura
Sistema de informação estatística O trabalho em questão aborda a aplicação das classificações do Sistema de Informação Estatística em vigência no Brasil na cadeia produtiva agroindustrial, preenchendo assim uma lacuna existente na literatura das ciências agrárias, de acordo com os autores Adailson da Silva Santos, do Instituto Nacional da Propriedade Industrial, e Leila Costa de Souza Santos, do Instituto Nacional de Tecnologia. Em razão de seu destaque no setor, em termos de produção/comercialização/exportação, selecionou-se a cadeia produtiva da indústria brasileira óleo-suco-citrícola. O objetivo é identificar o posicionamento de cada classificação na cadeia e as demandas a jusante e a montante para cada atividade e produto. De modo geral, essas classificações de atividades econômicas e produtos não são mutuamente excludentes, mas podem sobrepor-se umas às outras com relativa facilidade e mínima intervenção. Os elos da cadeia produtiva da indústria óleo-suco-citrícola brasileira envolvem as atividades de cultivo, produção, colheita, processamento dos sucos e afins,
cláudia andujar
Foto de índio
aproveitamento industrial de subprodutos e resíduos/refugos, packing houses, distribuição, comercialização e consumo. Os produtos são: insumos agrícolas, laranja, sucos, óleos essenciais, águas aromáticas, terpenos, terpenoides, limoneno, perfumes e cosméticos. O trabalho está descrito no artigo “Aplicação das classificações do sistema de informação estatística brasileiro à cadeia produtiva óleo-suco-citrícola nacional”. Ciência Rural – vol. 41 – nº 4 – Santa Maria – abr. 2011
\\ medicina
Fadiga e erro médico A residência médica, embora seja considerada a melhor forma de capacitação profissional do médico, tem sido objeto de críticas, principalmente em relação à carga horária de trabalho, ao volume de atendimentos e à privação do sono. Plantão noturno, cansaço e temor de cometer erros têm sido associados ao estresse durante o período de residência médica. A comunidade acadêmica internacional tem dado especial atenção à relação entre a fadiga dos residentes e a ocorrência de erros médicos, acidentes com material perfurocortante durante o atendimento e problemas no trânsito após plantões noturnos. Com o objetivo de estudar o impacto da fadiga em residentes brasileiros, foi avaliado o desempenho cognitivo de residentes de primeiro ano de clínica médica após plantão noturno de 12 horas em um serviço de emergência na Santa Casa de São Paulo. Trinta e oito residentes foram submetidos à avaliação cognitiva por meio de uma bateria de testes neuropsicológicos em dois momentos: após plantão noturno e após descanso noturno. Os resultados mostraram que os residentes apresentaram pior desempenho cognitivo após plantão noturno nas seguintes funções: atenção, memória imediata, aprendizagem verbal e funções executivas. Educadores e gestores de programas de residência médica que oferecem treinamento sob a forma de plantões noturnos de 12 horas em serviços de emergência devem considerar esses resultados ao fazer a programação. O estudo completo está disponível no artigo “Attention and memory of medical residents after a night on call: a cross-sectional study”, de Aida Cristina Suozzo e Fabiana Tintori, da Santa Casa de Misericórdia de São Paulo, Gislaine Gil, da Universidade de São Paulo, Stella Maria Malta, Shirley Silva Lacerda e Luiz Antonio Nogueira-Martins, da Universidade Federal de São Paulo. Clinics – vol. 66 – nº 3 – São Paulo – 2011 \\ O link para a íntegra dos artigos citados nestas páginas estão disponíveis no site de Pesquisa Fapesp, www.revistapesquisa.fapesp.br
resenha
A notícia que viaja até o leitor A história e as histórias dos correspondentes estrangeiros
O
Brasil é muito carente de estudos sobre jornalismo que combinem densidade teórica, pesquisa, compreensão e vivência das redações. Não faltam dissertações de mestrado e teses de doutorado, muitas delas de qualidade, que, como requer o trabalho acadêmico, restringem o seu escopo, oferecendo um retrato em close de um tema. Mas faltam trabalhos que Correspondente articulem os resultados das diversas internacional pesquisas acadêmicas, agregando perCarlos Eduardo cepções sobre a condição do repórter Lins da Silva e dos demais profissionais, a apuração da notícia, a edição, o mercado, a inContexto dústria e tudo o mais que se refere ao 190 páginas, mundo real do jornalismo. R$ 33,00 Com um pé na academia e outro no jornalismo, no qual acumula experiência extraordinária, Carlos Eduardo Lins da Silva vem agora preencher um desses muitos vazios, em um livro dedicado ao trabalho de correspondente internacional. CELS – como ele assinava suas circulares na Folha de S. Paulo, da qual foi secretário de redação, ombudsman e, principalmente, para o caso em tela, correspondente em Washington – realiza a alquimia perfeita entre pesquisa e revisão da literatura, de um lado, e relatos vividos ou ouvidos de colegas, de outro, com o toque da impressão pessoal respaldada na experiência e na reflexão bem informada. Num trabalho copioso, Lins da Silva faz a historiografia do ofício, levantando quem foram os primeiros correspondentes e os que mais se destacaram, e como têm sido suas condições de trabalho – que dizem muito sobre a própria indústria do jornalismo. Lins da Silva faz a apropriada distinção entre correspondente – objeto de seu livro – e enviado especial, que fica baseado no país-sede do veículo em que trabalha, que o envia para coberturas internacionais. Elas podem durar semanas e até meses, mas o enviado volta depois para a sede. Já o correspondente mora noutro país. Ele pode naturalmente deslocar-se – tornando-se provisoriamente um enviado especial –, mas sua função primordial está em uma cidade de outro país. A diferença é importante, porque o correspondente integra-se, em variáveis graus, na sociedade de onde envia seus relatos. O convívio tende a modificar sua percepção. Ele passa a considerar naturais atitudes e mentalidades que seus concidadãos – seu público – acham estranhas. O correspondente, descreve Lins da Silva, vai então adquirindo as características
96
n
julho DE 2011
n
PESQUISA FAPESP 185
| Lourival Sant’Anna
de um expatriado, com vizinhos locais, filhos no colégio etc. “Vira nativo.” Mas com a peculiaridade de ter de traduzir aquela realidade para um público que continuou no seu país de origem, e não passou por essa “metamorfose”. Embora o correspondente de guerra seja geralmente enviado especial, Lins da Silva analisa essa categoria também, a da reportagem levada ao extremo: o risco da morte, cada vez mais frequente, do repórter. A necessidade contínua de cortar custos tem levado os veículos a reduzir seu plantel de correspondentes, ou a substituí-los por profissionais menos experientes, que já vivem no outro país e aceitam remunerações mais baixas. Lins da Silva se insurge contra as consequências nefastas desse desdobramento. A disponibilidade de informação de todo o mundo em tempo real não supre a demanda pela compreensão do que se passa. Ao contrário. “Exatamente porque o cidadão recebe uma quantidade brutal de informações, maior do que nunca na história, numa balbúrdia comunicacional, é essencial que ele possa ter fontes de credibilidade, em quem confie, que as organizem de maneira racional e de acordo com as suas necessidades”, escreve. “O correspondente é a principal dessas fontes. Ele conhece o público para o qual produz, é treinado para fazer isso, trabalha sob mecanismos de controle testados e eficazes, tem a sofisticação necessária para a tarefa. Só ele pode dar ao cidadão o conteúdo de que necessita para se localizar corretamente na fartura informativa contemporânea.” Muito do que Lins da Silva diz sobre o trabalho do correspondente e sobre seus atributos necessários aplica-se a todos os jornalistas. Igualmente, muito do que ele diz sobre a sua indispensabilidade aplica-se ao jornalismo em geral. Jornalistas profissionais não são substituíveis nem pelos intelectuais que publicam artigos de análise nem pelo “jornalista-cidadão”, que envia informações para as redações – embora as contribuições de ambos sejam enriquecedoras e bem-vindas. Lins da Silva não ignora, no entanto, as limitações do jornalismo, seus vieses e vícios, sua fixação na novidade em detrimento da linearidade requerida pelo entendimento. Ele propõe maior ênfase na contextualização, na informação histórica e na análise. Valores agregados que se tornam cada vez mais importantes, no que se refere ao jornalismo internacional, à medida que o Brasil aumenta sua projeção política e sua inserção econômica no mundo. Lourival Sant’Anna é autor de Viagem ao mundo dos taleban (2002) e de O destino do jornal (2008). Foi correspondente em Londres e enviado especial de O Estado de S. Paulo a mais de 50 países.
livros
O regime de Bretton Woods: origens, instituições e significado Nelson Giordano Delgado Mauad X / UFRRJ 286 páginas, R$ 42,00
Este livro traça a gênese e o significado do regime de Bretton Woods. Enfatiza elementos como a hegemonia dos EUA, a presença da Guerra Fria, a mudança nas relações entre Estado e mercado e a adequação do Gatt para a liberalização comercial, e as características e limites desse tipo de liberalização. Mauad Editora (21) 3479-7422 www.muad.com.br
Tradições e modernidades Marcelo Ridenti e Hebe Mattos (orgs.) FGV Editora / Faperj 320 páginas, R$ 52,00
Tradição e modernidade são duas palavras que geraram muitos debates nos últimos anos. Neste livro são categorias dinâmicas, flexionadas no plural e em constante diálogo. A cultura surge como força política, possibilidade para a compreensão dos processos de modernização. Mais do que discussões conceituais, os textos enfatizam ações dos agentes sociais. Editora FGV (21) 3799-4427 www.fgv.br/editora
Petróleo: exploração, produção e transporte
fotos Eduardo Cesar
Carol Manzoli Palma Millennium Editora 224 páginas, R$ 46,00
Pesquisa feita com apoio da FAPESP reúne reflexões sobre o petróleo, sua história, a legislação ambiental, o novo marco regulatório por causa da descoberta na camada pré-sal. Também analisa sua exploração e produção; as matrizes de energias renováveis; o transporte; as convenções internacionais e as contribuições da jurisprudência nacional e internacional. Millennium Editora (19) 3229-5588 www.millenniumeditora.com.br
Consumo na base da pirâmide: estudos brasileiros Angela da Rocha e Jorge Ferreira da Silva (orgs.) Mauad X / PUC-Rio 256 páginas, R$ 47,00
Neste livro, os organizadores reúnem pesquisas e estudos de diversos especialistas sobre o consumidor pobre no Brasil, mostrando que, em pouco mais de uma década, 20 milhões de brasileiros ingressaram no mercado como consumidores e nos próximos 10 anos cerca de outros 20 milhões atravessarão a linha que separa os excluídos daqueles que participam do mercado. Como salientam, esses novos consumidores estão mudando a face do consumo no país. Mauad Editora (21) 3479-7422 www.mauad.com.br
Passos de Drummond Alcides Villaça Editora Cosac Naify 146 páginas, R$ 63,00
Alcides Villaça traça um meticuloso, inteligente e vivo painel crítico-analítico da poética de Carlos Drummond de Andrade. Composto por cinco ensaios, o volume traz instigantes análises de alguns dos poemas centrais da obra do poeta mineiro, dando várias “janelas” de leitura da obra drummondiana. Editora Cosac Naify (11) 3218-1444 www.cosacnaify.com.br
Arte, clínica e loucura Elizabeth Araújo Lima Summus / FAPESP 248 páginas, R$ 55,90
O livro mostra que, enquanto no século XIX a arte era vista como empecilho à recuperação do doente mental, passou a ser vista como terapia. O louco passou a dar vazão à sua criatividade, o que acabou por produzir obras de arte, como as de Arthur Bispo do Rosário. A autora também analisa a produção de artistas que utilizaram a loucura, como Machado de Assis e Anita Malfatti. Editora Summus (11) 3865-9890 www.summus.com.br
PESQUISA FAPESP 185
n
julho DE 2011
n
97