A era dos choques térmicos

Page 1

Pesquisa FAPESP novembro de 2017

www.revistapesquisa.fapesp.br

novembro de 2017 | Ano 18, n. 261

A era dos

choques cósmicos Ano 18  n.261

Cooperação internacional flagra as ondas gravitacionais e a explosão de luz causadas pela colisão de estrelas de nêutrons, revelando a origem de elementos químicos raros como o ouro

Disputa entre universidades e editora pode ampliar acesso aberto a artigos

Robótica de enxame prevê colaboração entre máquinas

Finep faz 50 anos com orçamento restrito e múltiplas responsabilidades no apoio à inovação

Brasil e China teriam sido vizinhos há cerca de 2 bilhões de anos

Escravos e negros libertos eram sangradores e parteiras no século XIX


INDEPENDENTE, LINDA E INTELIGENTE PA R A A S S I N A R I M P R E S S A O U D I G I TA L

assine@revis tacult.com.br 11

3385 3385

• 11

999 989 728

R E V I S TA C U LT. C O M . B R

W H AT S A P P


fotolab

A beleza do conhecimento

fotos 1 Uticularia foliosa, Dasmiliá C. Arozarena / Unesp 2 Utricularia bremii, Bartosz Płachno

Sua pesquisa rende imagens bonitas? Mande para imagempesquisa@fapesp.br Seu trabalho poderá ser publicado na revista.

1

Relações perigosas? Quando pousa na planta carnívora, esta abelha mergulha flor adentro em busca do néctar e se cobre de pólen que carrega para outras flores, realizando um serviço de polinização. O inseto passa por um tapete de glândulas de função ainda desconhecida (que não a digestão), registrado em microscopia eletrônica de varredura pelo polonês Bartosz Płachno, da Universidade Jaguelônica. “Não seria bom para a planta comer seu polinizador”, brinca o biólogo Vitor Miranda. Nessas plantas aquáticas as armadilhas carnívoras estão presas aos caules submersos, onde 2

capturam pequenos animais como larvas.

Imagens enviadas por Vitor Miranda, professor no campus de Jaboticabal da Universidade Estadual Paulista (Unesp)

PESQUISA FAPESP 261 | 3


novembro  261

CAPA Astrônomos detectam colisão de estrelas de nêutrons, que emite ondas gravitacionais e luz p. 18 Choque de astros produz elementos químicos pesados, como ouro e platina p. 23 Telescópio velho e pequeno no Chile foi o primeiro a descobrir origem do fenômeno p. 26 Brasileira coordena busca da luz gerada por grandes eventos cósmicos p. 30

POLÍTICA DE C&T

TECNOLOGIA

38 Doação Herança de relações-públicas vai financiar pesquisa sobre células-tronco 42 Financiamento Congresso dos EUA mantém equilíbrio de orçamento para a ciência 46 Gênero Projetos estimulam interesse de garotas pelas ciências exatas

68 Computação Robótica prevê máquinas que executam tarefas em grupo

49 Periódicos Alemanha pressiona editora para ampliar acesso aberto a seus papers 52 Entrevista O físico Adam Brown defende suporte de políticas públicas à bioenergia CIÊNCIA 56 Ambiente Alterações climáticas ajudaram a formar lagoas do Pantanal

60 Geologia Rochas ricas em grafita indicam que partes do Brasil e da China já estiveram unidas

72 Engenharia automotiva Bateria de carro elétrico ainda perde em densidade energética para a gasolina

62 Cronobiologia Física, biologia e tecnologia se unem para desvendar ritmos circadianos de roedor 65 Divulgação científica Bióloga brasileira vence concurso promovido pela revista Science 66 Entrevista Divulgador de ciência Michel Shermer combate irracionalismos em voga

ENTREVISTA José Roberto Postali Parra Entomologista defende controle biológico para combater pragas da lavoura p. 32


www.revistapesquisa.fapesp.br Leia no site todos os textos da revista em português, inglês e espanhol, além de conteúdo exclusivo

SEÇÕES 3 Fotolab

vídeos youtube.com/user/pesquisafapesp

6 Comentários 7 Carta da editora

HUMANIDADES 78 História Escravos e libertos se ocupavam de assistência à saúde no século XIX 83 Teoria literária Livro de ensaios de Roberto Schwarz completa 40 anos de debates 87 Obituário Sociólogo e jornalista, Oliveiros Ferreira fez análise do papel das Forças Armadas 88 O filósofo Oswaldo Porchat foi mestre de várias gerações de pesquisadores

8 Boas Práticas Instituto Karolinska aplica medidas para prevenir casos de má conduta 11 Dados Jovens adultos, educação e emprego

Biógrafa mostra como a obra do escritor Lima Barreto tem um olhar permeado por questões raciais bit.ly/vLimaBarreto

12 Notas 74 Pesquisa empresarial Totvs desenvolve plataformas para gestão do conhecimento 90 Memória Finep faz 50 anos com tarefas múltiplas e financiamento em crise 94 Resenha Tropeços da medicina bandeirante: Medicina paulista entre 1892 e 1920, de André Mota. Por André Felipe Cândido da Silva 95 Carreiras Redes de contato estimulam parcerias em projetos de pesquisa

O linguista Ataliba Castilho comenta a dinâmica da transformação oral do português bit.ly/vLinguaFalada

podcast  bit.ly/PesquisaBr Pesquisadores falam sobre os 130 anos do Instituto Agronômico de Campinas bit.ly/PBr27out17

Ilustração da capa MARK GARLICK / SCIENCE PHOTO LIBRARY


Conteúdo a que a mensagem se refere:

comentários

cartas@fapesp.br

Revista impressa

Galeria de imagens Vídeo Rádio / podcast

contatos revistapesquisa.fapesp.br redacao@fapesp.br PesquisaFapesp PesquisaFapesp pesquisa_fapesp

Pesquisa Fapesp

pesquisafapesp cartas@fapesp.br R. Joaquim Antunes, 727 10º andar CEP 05415-012 São Paulo, SP Assinaturas, renovação e mudança de endereço Envie um e-mail para assinaturaspesquisa@ fapesp.br ou ligue para (11) 3087-4237, de segunda a sexta, das 9h às 19h Para anunciar  Contate: Paula Iliadis  Por e-mail: publicidade@fapesp.br Por telefone: (11) 3087-4212 Edições anteriores Preço atual de capa acrescido do custo de postagem. Peça pelo e-mail: clair@fapesp.br Licenciamento de conteúdo Adquira os direitos de reprodução de textos e imagens de Pesquisa FAPESP. Por e-mail: mpiliadis@fapesp.br Por telefone: (11) 3087-4212

6 | novembro DE 2017

Vídeos

Que delícia ouvir quem sabe muito e sabe também explicar (vídeo “A riqueza da língua falada”). Ataliba Castilho, um grande professor.

Incrível o vídeo “Canto silencioso”. A evolução fazendo o seu papel. A ecologia do canto dos anuros é fascinante, e pesquisas como essas tornam ainda mais relevantes os resultados envolvendo esse comportamento.

Ana Beatriz Demarchi Barel

Ricardo Santos Nagô

A relação e a comparação da língua falada com a escrita é importantíssima na tradução de livros e quadrinhos. Existe um momento posterior à tradução direta que é adequá-la à linguagem oral dos personagens para não soar ao leitor como algo engessado, formal demais, artificial. Interessante notar também como a simplificação do sujeito na linguagem falada – excluindo o “s” do plural ou trocando “tu” por “você” e promovendo o uso do verbo que vem a seguir na mesma forma (no exemplo, o verbo “falar” para tudo) – se aproxima das línguas de origem saxônica, como o inglês, e se afasta das latinas. São línguas que já foram tidas como mais “pobres” ou “bárbaras” no passado. Bacana. Quero mais entrevistas com este senhor!

Muitos insetos têm o aparelho auditivo desenvolvido a partir de um sistema de vibrações do solo, e talvez anfíbios como esses do vídeo tenham desenvolvido algum outro aparato para “sentir” as vibrações do som que eles produzem. De qualquer modo, é uma sorte “ver” um processo evolutivo tão claro.

Rafael Papa

Fred Hills

A natureza e suas funcionalidades. É por isso que amo a biologia. Tudo tem uma explicação, cada bicho evolui e se adapta. Maiara Elias

Maravilhoso o trabalho dessa galera que aparece no vídeo “Combate genético” sobre a cana transgênica. Tanto o trabalho da pesquisa quanto o de divulgação. Kelton Moraes

Sobre o vídeo “Floresta revigorada”. Como morador do Vale do Paraíba, vejo um desmatamento imenso e, no lugar de verdadeira floresta, o plantio de eucaliptos cada vez maior, tanto nas regiões da serra do Mar, serra da Mantiqueira como também na parte plaina. Verde não é sinônimo de preservação. Paulo Amaral

Estrelas de nêutrons

Muito boa a reportagem “Detectada pela primeira vez, colisão de estrelas de nêutrons inaugura nova era na astronomia”. Parabéns a todos os cientistas envolvidos nessa descoberta. Egidio Lessinger

Excelente vídeo. Parabéns ao pessoal do Nepam-Unicamp pelo trabalho. Espero ver mais iniciativas como essa pelo Brasil inteiro. Lola Vita

Sua opinião é bem-vinda. As mensagens poderão ser resumidas por motivo de espaço e clareza.

A mais lida no Facebook, pelo segundo mês consecutivo ciência

Homo sapiens no centro da América do Sul bit.ly/HomoAm

78.877 pessoas alcançadas 821 reações 31 comentários 567 compartilhamentos

reprodução

Reportagem on-line


fundação de amparo à pesquisa do estado de são Paulo

carta da editora

José Goldemberg Presidente Eduardo Moacyr Krieger vice-Presidente Conselho Superior Carmino Antonio de Souza, Eduardo Moacyr Krieger, fernando ferreira costa, João Fernando Gomes de Oliveira, joão grandino rodas, José Goldemberg, Marilza Vieira Cunha Rudge, José de Souza Martins, Pedro Luiz Barreiros Passos, Pedro Wongtschowski, Suely Vilela Sampaio

Mensagens do céu e da Terra Alexandra Ozorio de Almeida |

diretora de redação

Conselho Técnico-Administrativo Carlos américo pacheco Diretor-presidente Carlos Henrique de Brito Cruz Diretor Científico fernando menezes de almeida Diretor administrativo

issn 1519-8774

Conselho editorial Carlos Henrique de Brito Cruz (Presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Maria Hermínia Tavares de Almeida, Marisa Lajolo, Maurício Tuffani, Mônica Teixeira comitê científico Luiz Henrique Lopes dos Santos (Presidente), Anamaria Aranha Camargo, Ana Maria Fonseca Almeida, Carlos Américo Pacheco, Carlos Eduardo Negrão, Fabio Kon, Francisco Antônio Bezerra Coutinho, Francisco Rafael Martins Laurindo, José Goldemberg, José Roberto de França Arruda, José Roberto Postali Parra, Lucio Angnes, Luiz Nunes de Oliveira, Marie-Anne Van Sluys, Maria Julia Manso Alves, Paula Montero, Roberto Marcondes Cesar Júnior, Sérgio Robles Reis Queiroz, Wagner Caradori do Amaral, Walter Colli Coordenador científico Luiz Henrique Lopes dos Santos diretora de redação Alexandra Ozorio de Almeida editor-chefe Neldson Marcolin Editores Fabrício Marques (Política de C&T), Marcos de Oliveira (Tecnologia), Ricardo Zorzetto (Ciência), Carlos Fioravanti e Marcos Pivetta (Editores espe­ciais), Maria Guimarães (Site), Bruno de Pierro (Editor-assistente) repórteres Yuri Vasconcelos e Rodrigo de Oliveira Andrade redatores Jayne Oliveira (Site) e Renata Oliveira do Prado (Mídias Sociais) arte Mayumi Okuyama (Editora), Ana Paula Campos (Editora de infografia), Júlia Cherem Rodrigues e Maria Cecilia Felli (Assistentes) fotógrafos Eduardo Cesar e Léo Ramos Chaves banco de imagens Valter Rodrigues Rádio Sarah Caravieri (Produção do programa Pesquisa Brasil) revisão Alexandre Oliveira e Margô Negro Colaboradores Alexandre Camanho, André Felipe Cândido da Silva, Christina Queiroz, Estúdio Rebimboca, Domingos Zaparolli, Fabio Otubo, Igor Zolnerkevic, Haroldo Ceravolo Sereza, Nelson Provazi, Veridiana Scarpelli, Victória Flório, Renato Pedrosa É proibida a reprodução total ou parcial de textos, fotos, ilustrações e infográficos sem prévia autorização Tiragem 25.800 exemplares IMPRESSão Plural Indústria Gráfica distribuição Dinap GESTÃO ADMINISTRATIVA FUSP – FUNDAÇÃO DE APOIO À UNIVERSIDADE DE SÃO PAULO PESQUISA FAPESP Rua Joaquim Antunes, no 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP FAPESP Rua Pio XI, no 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP

Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia Governo do Estado de São Paulo

A

astronomia sempre exerceu fascínio sobre os homens. A conquista do espaço, entendida como a ampliação do nosso conhecimento sobre o Universo que habitamos, mobiliza cientistas há séculos e já foi objeto de momentos épicos, como o julgamento de Galileu ou a chegada do homem à Lua. A excitação dos pesquisadores que anunciaram em outubro que haviam conseguido observar ondas gravitacionais e, simultaneamente, ondas eletromagnéticas de uma colisão entre duas estrelas de nêutrons deixava transparecer a importância do momento. A narrativa de como essa observação foi possível, com uma corrida com dezenas de telescópios varrendo o céu até encontrar os sinais do evento cataclísmico que originou as ondas (ver reportagem na página 26), tem um quê de épico. Mostra o sucesso da pesquisa colaborativa – que nem por isso deixa de ser competitiva – e o início de uma nova era da astronomia, chamada de “multimensageira” por usar diferentes “mensageiros cósmicos” (ondas de vários tipos) para obter informações complementares sobre objetos e fenômenos celestes. Esta edição de Pesquisa FAPESP dedicou-se a explorar esse feito. Além do relato sobre os acontecimentos de 17 de agosto, que contou com lances de sorte – enquanto um observatório de ondas gravitacionais havia acabado de voltar a operar, o outro interromperia suas atividades para uma pausa programada oito dias depois –, reportagem na página 18 explica o que foi efetivamente observado e o que isso significa em termos de avanço de conhecimento. Em resumo, pode significar a identificação da origem da radiação dos raios gama de curta duração, detectada desde os anos 1960, e conhecer como é o interior das estrelas de nêutrons, objetos celestes extremamente densos – e misteriosos.

Dois dos principais desdobramentos dessa colisão são discutidos na página 23: a produção de elementos químicos pesados e o uso desse tipo de fenômeno para medir distâncias cósmicas e o cálculo da taxa de expansão do Universo. Para fechar, trazemos uma entrevista com Marcelle Soares-Santos, líder de um dos grupos de pesquisa que exploraram o céu em busca de sinais de emissão luminosa resultantes do choque das estrelas de nêutrons (ver página 30). Marcelle não é a única brasileira que se destaca nessa iniciativa. A astrofísica Claudia Mendes de Oliveira é a idealizadora do T80 Sul, um pequeno telescópio com um amplo campo de visão que permite cobrir vastas áreas do céu em pouco tempo. Instalado no Chile e construído com recursos da FAPESP, o T80 Sul foi um dos cerca de 70 instrumentos terrestres e espaciais que observaram a emissão de radiação eletromagnética desse evento. A busca por uma maior participação das mulheres nas ciências exatas e engenharias é objetivo de iniciativas relatadas na página 46. Mas esse envolvimento não precisa se resumir à bancada: reportagem na página 38 conta a história de May Rubião, que resolveu legar parte de sua herança para a pesquisa em células-tronco. Formada em letras e ciências sociais nos primeiros anos da USP, amiga de pintores e pesquisadores, foi uma precursora na área das relações públicas. Antes de morrer, procurou uma instituição sólida para levar adiante seu projeto, tendo escolhido a FAPESP por intermédio de seu ex-presidente Celso Lafer. Cabe à Fundação agora fazer jus ao notável legado, aplicando os recursos em pesquisas na fronteira do conhecimento, como queria May, e quiçá incentivando outras doações a instituições de ensino e pesquisa, ação bastante comum na Europa e nos Estados Unidos. PESQUISA FAPESP 261 | 7


Boas práticas

Um plano para promover a integridade Instituto Karolinska estabelece medidas para prevenir casos de má conduta como o do cirurgião Paolo Macchiarini

O Instituto Karolinska, em Estocolmo, Suécia, apresentou um balanço do primeiro ano de implementação de um plano concebido para corrigir falhas que colocaram em risco a integridade da pesquisa na instituição, uma das mais respeitadas da Europa e conhecida por selecionar os vencedores do Prêmio Nobel de Medicina ou Fisiologia. Um dos pilares da estratégia envolve as rotinas administrativas para o recrutamento de pesquisadores, com a introdução de mecanismos redundantes para obter referências e verificar os dados registrados em currículos de candidatos. A responsabilidade por apurar casos de má conduta passou a ser dividida pela vice-chancelaria e o escritório jurídico da instituição, com o apoio de um especialista designado para coordenar a investigação. O plano se baseou em recomendações feitas por uma auditoria interna e por um relatório produzido por um investigador independente, o jurista Sten Heckscher, a respeito de um caso de má conduta envolvendo o cirurgião italiano Paolo Macchiarini, pioneiro em transplantes de traqueia. As investigações concluíram que 8 | novembro DE 2017

o médico divulgou informações inverídicas em seu currículo e publicou dados enviesados sobre o desempenho dos transplantes em sete artigos científicos. A instituição foi criticada por manter o pesquisador em seus quadros mesmo quando já havia evidências de má conduta, por omitir-se na aplicação de regulamentos e no monitoramento de dados de pesquisa e por cometer falhas no processo de recrutamento. Três membros da direção do Instituto Karolinska renunciaram no ano passado em razão do escândalo. Macchiarini foi contratado em 2010 com dupla função: a de professor visitante do Instituto Karolinska, encarregado de conduzir pesquisa básica sobre células-tronco, e a de cirurgião no hospital de ensino da instituição. O italiano propunha testar uma cirurgia experimental utilizando traqueias artificiais recobertas com células-tronco extraídas dos pacientes. A técnica foi aplicada em 2012 em três pacientes que já haviam esgotado outros recursos terapêuticos e os resultados foram desanimadores: apenas um deles sobreviveu e, mesmo assim, está hospitalizado até hoje.


ilustracão  estúdio rebimboca  foto  ulf sirborn / Instituto karolinska

Em 2013, o hospital de ensino interrompeu os transplantes e dispensou Macchiarini, que seguiu trabalhando apenas como pesquisador no Karolinska. Ele anunciou, então, que levaria adiante as cirurgias com traqueias artificiais em uma escola de medicina em Krasnodar, na Rússia, e recebeu autorização da instituição sueca para essa atividade. Em 2014, Macchiarini enfrentou a primeira acusação de má conduta feita por um pesquisador belga, mas acabou inocentado pelo instituto. Em seguida, foi acusado em duas ações diferentes de publicar dados enviesados em sete artigos científicos, descrevendo de forma parcial o estado pós-operatório de pacientes e a funcionalidade dos transplantes. Os acusadores trabalharam no hospital de ensino com o cirurgião e alguns deles eram coautores dos papers sob suspeita. Uma análise do caso feita por Bengt Gerdin, professor emérito da Universidade de Uppsala, concluiu que havia indícios de má conduta científica, mas ainda assim o italiano foi absolvido, com a ressalva de que suas pesquisas não haviam cumprido os padrões de qualidade exigidos pela instituição. No final de 2015, o contrato de Macchiarini no Instituto Karolinska foi renovado. O caso ganhou contornos de escândalo no início de 2016, quando a revista norte-americana Vanity Fair publicou um perfil de Macchiarini mostrando que ele inflou seu currículo com cargos de prestígio em

universidades que, na verdade, nunca ocupou. Ao mesmo tempo, um documentário exibido na televisão sueca mostrou como pacientes transplantados sofreram e morreram depois da cirurgia e levantou questões sobre os cuidados e a ética dos experimentos. Um dos casos reportados foi o de uma jovem operada no hospital da Rússia, que morreu. Na Suécia, ela não seria elegível para a operação experimental por não correr risco de vida. Em fevereiro, o Instituto Karolinska decidiu abrir uma ampla investigação independente sobre a conduta do pesquisador. O biólogo Urban Lendahl renunciou à função de secretário do Comitê Nobel no Karolinska por estar sendo investigado. O vice-chanceler Anders Hamsten pediu demissão ao anunciar que um novo inquérito havia sido aberto, com base em indícios de que o cirurgião teria falsificado dados sobre um transplante pioneiro realizado na Islândia que embasava vários de seus artigos científicos. O pró-reitor de pesquisa Hans-Gustaf Ljunggren também deixou o cargo. Só então Macchiarini foi demitido. Comitê de ética

Os responsáveis pela aplicação do plano de ação dizem que a tarefa está levando mais tempo do que o previsto. “Começamos a implementar algumas medidas, melhorando a comunicação dentro do instituto e investigando o ambiente dos laboratórios, mas ainda há muito o que fazer”, disse ao site

Prédio do instituto sueco: conjunto de estratégias para superar escândalo

Science Business a vice-chanceler assistente do instituto, Karin Dahlman-Wright, que é professora de endocrinologia molecular da instituição. Uma das propostas que ainda não saiu do papel é a organização de um comitê de ética, encarregado não de investigar casos de má conduta, mas de atuar na promoção de boas práticas na instituição – seus membros serão indicados em breve. “Esse é um elemento vital para promover uma sólida plataforma ética e será implementado logo”, disse Dahlman-Wright. Desde 2010, está disponível um sistema eletrônico para registro de dados de pesquisa, cuja utilização, contudo, não era obrigatória – a partir do ano que vem será. A divisão de responsabilidades entre o instituto e seu hospital foi aperfeiçoada. Agora, respondem de forma solidária pela integridade das pesquisas clínicas o gestor do hospital de ensino, o líder do projeto no Instituto Karolinska e o chefe do departamento ao qual ele está vinculado. O treinamento de líderes é outro foco do plano. Chefes de departamento e gestores terão de fazer um curso obrigatório sobre ética e governança a partir de 2018, baseado em diretrizes que ainda estão sendo definidas. Outros tipos de treinamento serão implementados. Os novos pesquisadores e funcionários terão à disposição cursos de curta duração com foco em ética e gestão de dados de pesquisa. Um website com linguagem simples sobre regulamentos e boas práticas deverá ser criado para nortear o trabalho no instituto. Ao tomar posse como novo vice-chanceler, no final de setembro, o neurocientista Ole Petter Ottersen resumiu os desafios do Instituto Karolinska. “Há coisas fantásticas acontecendo na nossa instituição, como a construção de edifícios e a consequente abertura de novas oportunidades em pesquisa e educação. Mas os pré-requisitos para a excelência em pesquisa e educação são uma boa cultura de trabalho e a consciência ética”, disse, segundo consta no site do instituto. PESQUISA FAPESP 261 | 9


ilustracão  estúdio rebimboca

Comitê de Boas Práticas da USP investirá em educação e prevenção A Pró-reitoria de Pesquisa da Universidade de São Paulo (USP) criou em setembro seu Comitê de Boas Práticas Científicas. O órgão, composto por cinco membros, vai se reunir uma vez por mês e tem um duplo objetivo: promover ações educativas no campo da integridade científica e ajudar a prevenir casos de má conduta. O foco inicial são alunos de iniciação científica e estagiários de pós-doutorado, dois públicos atendidos pela pró-reitoria. Entre as iniciativas do comitê, destacam-se o lançamento previsto para este ano de uma plataforma de cursos on-line sobre boas práticas, a organização regular de palestras e eventos e a divulgação de textos e documentos de referência no site da pró-reitoria (prp.usp.br/ boas-praticas-em-pesquisa/). A percepção é de que há escassez de informações sobre integridade científica. “Existem má-fé e fraude, mas muitos desses problemas estão relacionados ao desconhecimento sobre boas práticas na pesquisa”, disse à Agência FAPESP o pró-reitor José Eduardo Krieger, da Faculdade de Medicina da USP. De acordo com Hamilton Varela, do Instituto de Química de São Carlos da USP e assessor da pró-reitoria, a disseminação das boas práticas exige uma mudança cultural. “Em uma universidade como a nossa, com quase 6 mil professores, precisamos de meios eficientes para auxiliar o trabalho das comissões de pesquisa. Em algumas unidades, há iniciativas maduras, mas em outras ainda não.” A oferta no site da pró-reitoria de documentos de referência e reportagens – entre os quais os mais de 150 textos publicados nesta seção de Pesquisa FAPESP desde 2011 – busca estimular a discussão em laboratórios e salas de aula. “É possível introduzir para os alunos temas relacionados 10 | novembro DE 2017

à integridade científica utilizando esse material”, diz Varela. A plataforma de cursos on-line terá produção própria e também deve usar vídeos e material didático de unidades e programas de pós-graduação da instituição. “Uma ideia é fornecer no site apostilas e exigir que alunos de iniciação científica façam provas on-line sobre aquele conteúdo como requisito para participarem de pesquisas”, conta Varela. Uma iniciativa experimental é o uso de um caderno de laboratório on-line, o SciNote, que guarda em uma nuvem computacional todas anotações sobre o andamento de um projeto. “A boa manutenção das anotações é essencial para acompanhar os resultados e garantir que eles possam ser reproduzidos por outros grupos.” A criação do comitê é parte do programa da atual gestão da pró-reitoria e atende a uma demanda da FAPESP em seu Código de boas práticas, lançado em 2011, segundo o qual as instituições com projetos financiados pela Fundação devem

dispor de órgãos encarregados de oferecer programas de treinamento e educação em integridade científica, além de estruturas voltadas para investigar e punir casos de má conduta. “A USP já dispunha de mecanismos para investigar denúncias, mas faltava organizar as ações de educação e prevenção”, afirma Varela.

Retratação demorada A revista Science anunciou a retratação de um artigo publicado em 2014 pelo grupo do imunologista norte-americano Bruce Beutler, vencedor do Nobel de Medicina ou Fisiologia em 2011. A novidade do paper eram as evidências de que elementos semelhantes a vírus presentes no genoma humano desempenham um papel na resposta do sistema imunológico a patógenos. Pesquisador do Scripps Research Institute em La Jolla, Califórnia, Beutler pedira a retratação em janeiro após tentativas fracassadas de repetir os resultados. Mas o primeiro autor, o estagiário de pós-doutorado da Universidade do Texas Ming Zeng,

sustentava que seus dados eram robustos. A Science decidiu aguardar mais uma tentativa de reproduzir os achados. Como os resultados foram inconclusivos, optou pela retratação. “Se soubéssemos que isso ia levar tanto tempo, poderíamos ter publicado antes uma expressão de preocupação”, disse ao site Retraction Watch o editor-chefe da Science, Jeremy Berg, referindo-se ao expediente usado para sinalizar que há dúvidas sobre resultados de um artigo. O paper havia recebido 50 citações, segundo a base Web of Science, sendo oito registradas depois de janeiro, quando Beutler pediu a retratação pela primeira vez.


Dados

Jovens adultos, educação e emprego

Situação de jovens adultos em relação à educação e ao emprego (Brasil, 2015) População 18-24 anos 22.329.740

42%

31%

27%

57%

43%

Só estudando/ em treinamento 3.907.704

19%

Estudando/ em treinamento (em %) 40

n n n n n

30 25

Brancos Mulheres Total Homens Pretos/pardos

n Mulheres n Pretos/pardos

10

10

5

5 0

2015

n Brancos

25

15

2013

n Total

30

15

2011

Matriculados no ensino médio 1.331.061

40

20

2009

Outros2 1.450.125

35

20

2007

22%

Nem estudando/ nem em treinamento/ nem trabalhando (em %)

35

2005

60%

Mas procurando Nem procurando trabalho trabalho 2.433.942 3.684.407

2.947.526

Matriculados no ensino superior 4.074.044

Evolução recente, segundo sexo, raça/cor3

40%

E trabalhando

59%

0

Nem trabalhando nem estudando/ em treinamento1 6.118.349

Estudando/ em treinamento 6.855.230

Só trabalhando 9.356.161

n Homens

2005

2007

2009

2011

2013

2015

População 18-24 anos segundo educação/ treinamento e emprego – Brasil e países escolhidos5

Comparações internacionais (2015) Comparando-se aos 35 países da OCDE4, os 31% de jovens estudando/em treinamento, em 2015, colocariam o Brasil5 na última posição. Para os que nem trabalhavam nem estavam estudando/em treinamento, o país, com 27%, estaria na antepenúltima posição.

n Estuda n Não estuda/ mas empregado n Não estuda/ desempregado n Não estuda/ inativo

65 61 58 54 53 53 52 50 48 47 44 43 40 36 32 31

Holanda Alemanha Espanha Portugal França Itália Média OCDE Chile Canadá Estados Unidos Rússia Reino Unido Turquia México Colômbia Brasil 0%

10%

20%

30%

18

19

28 27

3

28 29

4 15 12 12

14

32 6

29 38 38 40 43 28

7

41 44 42 40%

50%

60%

4 10 11 70%

80%

7

14

5 6 8 6 8 8

15

6 8 5 10 7 9 8 6 26 19 15 16 90%

100%

1 Na terminologia internacional, “neither employed nor in education or training (NEET)”. Esse grupo (os “nem-nem”, segundo a designação que se tornou comum) inclui jovens que não estudam e ou estão desempregados ou não estão procurando emprego (inativos). 2 Inclui ensino fundamental, na educação de jovens adultos, na pós-graduação, além de outras formas de educação/treinamento. 3 Os subgrupos considerados não têm cruzamentos, ou seja, mulheres (homens) correspondem a todas as mulheres (homens), sem relação com cor/raça, e pretos/pardos (brancos), a todos desses grupos, sem relação com sexo. 4 Organização para Cooperação e Desenvolvimento Econômico. 5 Os dados para o Brasil são de 2015 (PNAD). Para os demais países, 2016 ou ano mais recente disponível. Fonte Censo da Educação Básica (2015) e Censo da Educação Superior (2015) (INEP/MEC), Síntese de Informações Sociais 2016 – PNAD (IBGE) e Education at a Glance 2017 (OCDE).

PESQUISA FAPESP 261 | 11


Notas

1

Vazio misterioso no coração da Grande Pirâmide de Gizé Um enorme espaço vazio identificado no interior da

cerca de 200 vezes mais massivas. Essas partículas

pirâmide de Quéops, no Egito, está ajudando os pes-

viajam a uma velocidade próxima à da luz. À medida

quisadores a entender melhor como esse monumento

que atingem a superfície da Terra e atravessam objetos

foi construído (Nature, 2 de novembro). A Grande Pirâ-

perdem energia e se desintegram, sendo parcialmente

mide de Gizé, como também é conhecida, foi erguida

absorvidas pelas rochas. Na prática, podem funcionar

há 4,5 mil anos pelo faraó Khufu a partir de blocos

como raio X de uma estrutura. Em fins de 2015, os

de pedra calcária e granito. Com mais de 140 metros

pesquisadores instalaram detectores de múons na

(m) de altura, é a mais antiga das sete maravilhas do

pirâmide e registraram as partículas que passavam por

mundo antigo. Diferentemente de outras pirâmides,

ela. Ao analisar os dados, identificaram um excesso

a de Khufu abriga várias câmaras, incluindo a do rei,

de múons no centro do monumento. A cavidade se

com um sarcófago de pedra, e a da rainha. Descober-

estenderia por pelo menos 30 m acima da grande

tas no século XIX, essas galerias foram amplamente

galeria, um corredor ascendente que liga a câmara da

estudadas pelos arqueólogos. Mas restavam dúvidas

rainha à do rei. Essa é a primeira estrutura importante

sobre a existência de outras câmaras escondidas. Para

encontrada na pirâmide desde o século XIX. No en-

investigar esse mistério, um grupo de pesquisadores

tanto, não se sabe se o espaço é uma câmara ou um

coordenado pelo físico japonês Kunihiro Morishima, da

compartimento incorporado pelos construtores para

Universidade de Nagoya, usou uma técnica capaz de

evitar desmoronamentos, aliviando a tensão gerada

rastrear múons, partículas similares aos elétrons, mas

pelo peso de outras câmaras de pedra.

12 | novembro DE 2017

Representação em 3D do interior da pirâmide, com destaque para a nova cavidade (pontos brancos)

1


Seda reconstituída é mais forte que a natural As versões artificiais da seda nunca conseguiram apresentar a mesma resistência do filamento natural. Mas engenheiros do Instituto de Tecnologia de Massachusetts (MIT) e da Universidade Tufts, dos Estados Unidos, encontraram uma forma de produzir uma variedade de seda modificada com o dobro

2

Modelo aponta que cultivo da cana poderia crescer sem afetar áreas de preservação ambiental ou de outras culturas agrícolas

Etanol do Brasil poderia diminuir em 5% emissões de dióxido de carbono

da rigidez do tecido original e que pode ser usada para gerar estruturas mais complexas, como malhas e redes (Nature Communications, 9 de novembro).

O Brasil poderia expandir significativamente a área de

O segredo do processo

cultivo de cana-de-açúcar para a produção de etanol e

químico é quebrar apenas

contribuir para a redução de 5,6% das emissões mundiais

parcialmente a estrutura

de dióxido de carbono (CO2) até 2045, sem afetar áreas

molecular da seda

de preservação ambiental ou culturas agrícolas usadas

e depois reconstituir o

para alimentação (Nature Climate Change, 23 de outubro).

material. Dessa forma,

Isso seria possível se o país investisse no desenvolvimento

os casulos construídos

de variedades de cana resistentes à seca e em novos pro-

pelos bichos-da-seda são

cessos para a obtenção de etanol de segunda geração. A

dissolvidos até o ponto

conclusão é de um grupo internacional de pesquisadores,

em que sua disposição

entre eles o biólogo brasileiro Marcos Buckeridge, do

Novo material tem o dobro da rigidez do tecido original e é capaz de gerar estruturas mais complexas, como malhas e redes

Instituto de Biociências da Universidade de São Paulo (IB-USP). Eles conceberam um modelo computacional capaz de projetar o comportamento do crescimento da cana em diferentes cenários de mudanças climáticas, considerando fatores associados à capacidade das plantas

interna atinge uma forma intermediária composta por microfibrilas, que conferem maior resistência ao filamento.

de fazerem fotossíntese e crescer e às características do solo de cada região do país. O modelo também considerou dados sobre as terras que não podem ser usadas para o fotos 1 ScanPyramids 2 léo ramos chaves  3 MIT

cultivo de cana e a produção das principais culturas de alimentos no Brasil. Estima-se que aproximadamente 116 milhões de hectares poderiam ser convertidos para a produção de cana no país, sobretudo nas regiões Sul e Sudeste. Muitas dessas áreas não são aproveitadas ou são subaproveitadas. A pecuária extensiva, por exemplo, baseada na criação do gado solto, ocupa grandes áreas que poderiam ser usadas para a plantação de cana. Existem também, segundo os autores do estudo, algumas regiões florestais que não são consideradas de proteção ambiental e que poderiam legalmente ser convertidas em áreas para a produção do biocombustível.

3

PESQUISA FAPESP 261 | 13


Inglaterra escolhe novo conselheiro científico

Trump segue sem indicação para o cargo de conselheiro científico do governo americano. Segundo a revista científica Nature, Trump

Trufas negras de Périgord (Tuber melanosporum) teriam uma maior capacidade de se adaptar a novos hábitats 1

O farmacologista Patrick

se tornou em 23 de

Vallance, 57 anos, será

outubro o presidente que,

o novo conselheiro-chefe

em seu primeiro mandato

para assuntos científicos

na Casa Branca, mais tem

do governo britânico a

demorado para fazer essa

partir de abril de 2018,

nomeação desde 1976.

em substituição ao

Quase 300 dias depois de

imunologista Mark

ter sido eleito, Trump

Walport, que ocupava a

ainda não escolheu um

função desde 2013.

nome para o cargo.

Vallance é chefe de pesquisa e

Aquecimento climático faz trufa negra crescer no Reino Unido

desenvolvimento da farmacêutica GlaxoSmithKline (GSK), com sede no Reino Unido,

Um prêmio para estudos que deram errado

membro da Royal Society,

O Colégio Europeu de

Oriunda do Sul da França e encontrada majori-

a academia de ciências

Neuropsicofarmacologia

tariamente em lugares de clima mediterrâneo,

britânica. Ele irá assessorar

(ECNP) lançou uma

trufas negras de Périgord (Tuber melanosporum),

a primeira-ministra,

premiação para estimular

um dos ingredientes mais caros da alta gas-

Theresa May, e também

a publicação de estudos

tronomia, foram colhidas pela primeira vez no

comandará o Escritório

em neurociência que

Reino Unido (Climate Change, 2 de novembro).

de Governo para a

apresentem resultados

Depois de nove anos de espera, trufas dessa

Ciência, que promove

negativos. O vencedor do

espécie, cujo quilograma é cotado a R$ 7 mil

o uso de evidências

ECNP Preclinical Network

no mercado internacional, foram encontradas

científicas na

Data Prize receberá € 10

em março de 2017 em meio às raízes de um

formulação de políticas

mil. O objetivo é estimular

carvalho em Monmouthshire, no País de Gales.

governamentais. Um dos

a difusão de pesquisas

Seu descobridor foi uma cachorra treinada

temas mais urgentes com

cujos resultados não

para realizar essa tarefa, Bella. As trufas são

os quais Vallance terá

confirmem as hipóteses

fungos subterrâneos comestíveis que crescem

de lidar é com o impacto,

testadas. Para Thomas

espontaneamente ou podem ser cultivados no

para a ciência, da saída

Steckler, presidente do

entorno de árvores, a exemplo do que ocor-

do Reino Unido da União

Fórum de Dados

reu agora em solo britânico como resultado

Europeia, prevista

Pré-clínicos do ECNP,

de um programa coordenado pela empresa

para ocorrer em 2019.

resultados negativos são

Mycorrhizal Systems (MSL) com apoio da Uni-

Enquanto o Reino Unido

menos propensos a

anuncia antecipadamente

serem publicados, pois

o nome de Vallance, a

se acredita que geram

administração Donald

menos valor para

versidade de Cambridge e de produtores locais.

Farmacologista Patrick Vallance foi apontado para o cargo

Análises microscópica e genética confirmaram que se tratava de fato da iguaria de Périgord, o segundo tipo de trufa mais valorizado, atrás

pesquisadores,

apenas da trufa branca do Norte da Itália (Tuber

instituições e revistas

magnatum). Pesquisadores da Universidade

científicas. “No entanto,

de Cambridge atribuíram o sucesso do culti-

não publicá-los significa

vo da trufa negra em terras britânicas à sua

um desperdício de capital

capacidade de se adaptar a novos hábitats e

humano diante do desafio

às mudanças climáticas, que têm elevado as

da reprodutibilidade de

temperaturas em partes do Reino Unido. O

testes clínicos”, explica

aquecimento das ilhas britânicas também tem

Steckler, no site da

servido de impulso para a produção de vinhos

organização www.ecnp.

espumantes nos condados de Kent e Sussex, no

eu. As inscrições para o

Sul da Inglaterra, que têm solo calcário similar ao da região francesa de Champagne. 14 | novembro DE 2017

prêmio vão até 30 de 2

junho de 2018.

fotos 1 Varaine / wikipedia 2 GSK  3 léo ramos chaves  ilustraçãO  Flaticon

e neste ano foi eleito


Versão atualizada em 22/12/2017

Área urbana abrange menos de 1% do território brasileiro O exame minucioso de milhares de fotos de satélites mostrou que a área das cidades representa 0,63% do território nacional, ou 54.077 quilômetros

China censura acesso a revistas científicas

quadrados (km2), pouco mais do que a extensão do estado do Rio Grande do Norte. O município mais urbanizado é São Paulo, seguido do Rio de Janeiro e de Brasília (ver quadro ao lado). Segundo o estudo, feito ao longo de três anos e coordenado

O bloqueio do acesso

pelo geógrafo André Rodrigo Farias, da Embrapa

a artigos científicos

Gestão Territorial, de Campinas (SP), cerca de 175

na internet atingiu a

milhões de pessoas, ou 84% da população brasileira,

comunidade científica

vivem em cidades. A extensão agora contabilizada

na China. A pedido

é menor do que a encontrada pelo Instituto Brasi-

de Pequim, o grupo

leiro de Geografia e Estatística (IBGE) em 2010 no

editorial Springer Nature

censo demográfico (104.515 km2, equivalentes a

suspendeu o acesso a

1,2% do território nacional). A diferença se deve a

pelo menos mil artigos

questões metodológicas. O IBGE considera como

científicos em território

área urbana o perímetro delimitado por lei muni-

chinês. De acordo

cipal. No estudo da Embrapa, os pesquisadores

com o jornal inglês

usam como definição de cidade os trechos que de

Financial Times, os artigos

fato aparecem como zona urbana, com edificações,

removidos, que tinham

nas imagens de satélite de alta resolução. Assim,

sido publicados nos

eles eliminam segmentos sem construções que, no

periódicos Journal of

entanto, figuram como áreas do perímetro urbano

Chinese Political Science

municipal. O mapeamento do território das cidades

e International Politics,

é importante para subsidiar políticas públicas e

continham palavras-

mostrar os limites da expansão agrícola.

Município

área de cidade (km2)

São Paulo 950 Rio de Janeiro 925 Brasília 889 Manaus 427 Goiânia 422 Curitiba 412 Campinas 356 Campo Grande 332 Belo Horizonte 314 306 Porto Alegre

-chaves consideradas “politicamente sensíveis”, A capital paulista tem a maior área urbana do país

tais como “Taiwan”, “Tibete” e “Revolução Cultural”. Um comunicado divulgado pela Springer Nature reconhece que “a ação é profundamente lamentável, mas foi tomada para prevenir um impacto maior nos nossos clientes e autores”. A decisão do grupo, dono das revistas Nature e Scientific American, ocorre dois meses depois de a editora Cambridge University Press (CUP) vetar o acesso a mais de 300 artigos também por solicitação do governo chinês.

3

PESQUISA FAPESP 261 | 15


O quinto dos sete espelhos de 8,4 metros de diâmetro do Giant Magellan Telescope começou a ser moldado

1

Genoma de quilombolas é 98% africano

A construção do Giant Magellan Telescope (GMT),

encontrado em um estudo de geneticistas europeus e sul-americanos. Sob a coordenação de uma equipe francesa da

que deverá ser o primeiro supertelescópio a entrar

As atuais comunidades

Universidade Paul

em atividade na próxima década, continua avan-

quilombolas da Guiana

Sabatier, eles analisaram

çando. O quinto dos sete espelhos de 8,4 metros

Francesa e do Suriname

marcadores genéticos de

(m) de diâmetro do instrumento começou a ser

são uma das populações

ancestralidade em 231

moldado no início de novembro em um laboratório

de ascendência africana

indivíduos de origem

da Universidade do Arizona, nos Estados Unidos.

cujo DNA mais reflete sua

africana: 71 habitantes

Esse processo consiste em derreter quase 20 tone-

ancestralidade. Apenas

de quilombos da Guiana

ladas de vidro em um forno giratório. Depois de frio,

2% de seu material

Francesa e do Suriname,

o espelho é polido para chegar à sua forma final.

genético não veio do

16 afrodescendentes

Os sete espelhos vão funcionar em conjunto como

continente que, via

do Brasil e 20 da

se fossem um só espelho de 24,5 m e produzirão

tráfico negreiro, forneceu

Colômbia, além de 124

imagens 10 vezes mais nítidas que as do telescópio

7 milhões de escravos à

moradores da África

espacial Hubble. O GMT será instalado a 2.500 m

América do Sul entre os

Ocidental. A presença de

de altitude no sul da porção chilena do deserto

séculos XVI e XIX

DNA não africano entre os

de Atacama, em um sítio do Observatório de Las

(American Journal of

negros brasileiros e

Campanas. Seu custo estimado é da ordem de US$

Human Genetics, 2 de

colombianos da amostra,

1 bilhão. O projeto é bancado por um consórcio de

novembro). Esse índice

que não vivem em

sete universidades e instituições norte-americanas,

de origem africana no

quilombos e tiveram

dois centros de estudos astrofísicos da Austrália,

genoma de habitantes de

historicamente mais

o Instituto de Astronomia e Ciência Espacial da

quilombos, comunidades

contato com europeus e

Coreia do Sul e a FAPESP. Pelo acordo de US$ 40

originalmente formadas

índios sul-americanos,

milhões que a Fundação firmou com o projeto, as

por escravos fugidos que

foi elevada, mas bem

instituições de pesquisa do estado de São Paulo

se mantiveram isoladas

menor, de 24% e 29%,

terão acesso a 4% do tempo de observação do GMT.

por um longo período, foi

respectivamente.

16 | novembro DE 2017

fotos 1 Giant Magellan Telescope Organization (GMTO) 2 cdc  3 Nobu Tamura / wikimedia Commons

Mais um espelho para o supertelescópio GMT


Óleos naturais contra as larvas do Aedes aegypti Feito com óleos de castanha-de-caju e de 3

mamona, uma formulação biodegradável para

Novo round da polêmica sobre a genealogia dos dinossauros

eliminar as larvas do mosquito Aedes aegypti, transmissor dos vírus da dengue, zika e outras doenças, está em fase final de desenvolvimento. O produto é um

A árvore genealógica dos dinossauros continua

surfactante, espécie de

dividindo a opinião dos especialistas nesses répteis

detergente feito com os

extintos. Uma equipe de nove paleontólogos da Amé-

óleos que diminui a

rica do Sul e da Europa publicou um estudo-resposta

tensão na superfície das

a um trabalho polêmico que, em março deste ano,

células das larvas,

havia proposto uma classificação filogenética alter-

levando-as à morte.

nativa para as principais linhagens de dinossauros

“Experimentos mostram

(Nature, 2 de novembro). O novo artigo analisou os

que 0,2 miligrama do

dados do controverso artigo feito por três colegas

produto por litro de água

ingleses da Universidade de Cambridge e do Museu

mata 100% das larvas”,

de História Natural de Londres e recalculou as rela-

afirma o farmacêutico

ções de parentesco entre as linhagens mais antigas

Dênis Pires de Lima, da

de dinossauros conhecidos. “Ainda é muito cedo para

Universidade Federal de

reescrever os livros sobre dinossauros”, comenta o

Mato Grosso do Sul

paleontólogo Max Langer, da Universidade de São

(UFMS), em Campo

Paulo (USP), campus de Ribeirão Preto, principal autor

Grande, coordenador do

do estudo-resposta e coordenador da iniciativa que

grupo que criou o

reviu as ideias propostas pelo trio britânico. Langer

larvicida. Para terminar os

e oito colegas trabalharam com o mesmo conjunto

testes laboratoriais do

de informações que os ingleses haviam usado para

produto, Lima utilizou o

formular sua filogenia alternativa – 457 caracteres

prêmio de € 50 mil ganho

anatômicos de 74 espécies de dinossauros – e che-

pelo primeiro lugar no

garam à conclusão de que a genealogia tradicional

Desafio em Química

ainda é a mais provável. A divisão clássica separa os

Verde e Sustentável da

dinossauros em dois grandes grupos: Ornithischia,

Fundação Elsevier 2017,

que apresentavam a pélvis parecida com a de aves e

mantida pela editora

incluíam espécies majoritariamente herbívoras com

holandesa de revistas

chifres, armaduras ou bicos semelhantes aos dos

científicas. O concurso

patos; e Saurischia, que tinham a cintura semelhante

reuniu 780 participantes. O uso do larvicida está em testes em bairros de Campo Grande.

à de lagartos e eram formados pelos subgrupos dos

Larvicida é feito com óleos de castanha-de-caju e de mamona

terópodes (carnívoros bípedes) e dos saurópodes (herbívoros, geralmente quadrúpedes, de grande porte e pescoço alongado). Já a classificação filogenética alternativa dos britânicos mantinha o nome Saurischia, mas retirava os terópodes desse grupo, e juntava os Ornithischia e os terópodes em novo grupo batizado de Ornithoscelida. O estudo-resposta também ratifica a ideia predominante de que os dinossauros teriam surgido no hemisfério Sul, provavelmente na América do Sul, um ponto sobre o qual os ingleses lançavam dúvidas em seu artigo de março de 2017. 2

PESQUISA FAPESP 261 | 17


capa

cataclismo cósmico Colisão de estrelas de nêutrons emite ondas gravitacionais e luz e desperta uma corrida internacional para compreender evento inédito na astronomia

O

dia 17 de agosto de 2017 entrou para a história da astronomia. Eram 5h41 daquela quinta-feira na Costa Oeste dos Estados Uni­dos, quando os computadores de um laboratório em Hanford registraram a passagem de mais uma onda gravitacional pela Terra. Nessa pequena localidade do estado de Washington, onde foi produzido o material radiativo da bomba atômica lançada sobre Nagasaki, no Japão, funciona um dos mais precisos equipamentos já construídos para medir variações na distância: um interferômetro a laser projetado para detectar sutis deformações no espaço-tempo causadas pelas ondas gravitacionais. Uma fração de segundo antes de a unidade de Hanford captar essa onda gravitacional, um equipamento idêntico instalado em Livinsgton, no estado de Louisiana, havia detectado o mesmo sinal. A perturbação identificada pelos laboratórios gêmeos do Observatório Interferométrico de Ondas Gravitacionais (Ligo) também havia sido registrada quase simultaneamente por um equipamento semelhante – o interferômetro Virgo – em Pisa, na Itália. 18 | novembro DE 2017

Por 1 minuto e 40 segundos, os três detectores acompanharam os passos finais da aproximação e morte de duas estrelas quase apagadas. Atraídas pela gravidade, duas estrelas de nêutrons – as menores e mais densas conhecidas – rodopiaram uma ao redor da outra enquanto perdiam energia para o espaço na forma de ondas gravitacionais. Elas se fundiram em um evento explosivo chamado quilonova, que ocorreu a 130 milhões de anos-luz da Terra, na periferia da galáxia NGC 4993, na constelação de Hidra. As duas estrelas tinham massa um pouco maior que a do Sol e, com 12 quilômetros de diâmetro, eram invisíveis para os telescópios do planeta. Ao colidirem, liberaram uma nuvem de matéria incandescente que, por uma fração de segundo, brilhou mais que as estrelas da Via Láctea. Em seguida à detecção das ondas gravitacionais e à localização da região no espaço onde se originaram, telescópios na superfície e na órbita terrestre registraram a luz evanescente da quilonova para conhecer o destino da matéria que a explosão lançou ao espaço. “É a primeira vez que observamos as ondas gravitacionais e as ondas eletromagnéticas vindas

ilustraçãO Nsf / LIGO / Sonoma State University / A. Simonnet

Ricardo Zorzetto e Igor Zolnerkevic


Representação artística da colisão de um par de estrelas de nêutrons, como a detectada em 17 de agosto deste ano

PESQUISA FAPESP 261 | 19


A seta indica a região da galáxia NGC 4993 em que ocorreu a colisão das estrelas de nêutrons, observada em 17 de agosto (à esq.) e em 21 de agosto

de um mesmo evento astrofísico cataclísmico”, afirmou o físico David Reitze no anúncio oficial da descoberta, feito em 16 de outubro na sede da National Science Foundation, nos Estados Unidos. Ele é o diretor-executivo do Observatório Interferométrico de Ondas Gravitacionais (Ligo), uma colaboração científica com mais de 1.200 pesquisadores, alguns no Brasil, que opera os dois detectores em solo norte-americano. A detecção das ondas gravitacionais e eletromagnéticas emitidas por um mesmo fenômeno inaugura, segundo Reitze, a era da astronomia multimensageira. Os dois tipos de ondas fornecem informações diferentes sobre os objetos celestes. Enquanto as ondas gravitacionais são geradas por oscilações da matéria que deformam o espaço-tempo, as eletromagnéticas são produzidas por vibrações de partículas com carga elétrica e são percebidas como luz (visível e invisível). Ambas se propagam no espaço vazio a 300 mil quilômetros por segundo e revelam características complementares do objeto que as gerou. estado desconhecido

Há décadas os astrônomos observam a luz – em especial, ondas de rádio e raios X – emitida pelas camadas mais superficiais das estrelas de nêutrons. Essa luz permite ter uma ideia de como é a crosta dessas estrelas, mas revela pouco sobre seu interior. Físicos e astrofísicos imaginam que as camadas mais profundas estejam submetidas a densidades e pressões tão elevadas que, ali, a matéria assumiria um estado desconhecido. A solução para esse mistério poderia estar na investigação das ondas gravitacionais geradas no choque de duas estrelas de nêutrons. É que essas ondulações no espaço-tempo produzidas por elas dependem, em certa medida, de como a matéria no interior das estrelas se deforma e se despedaça durante a colisão. Observações da colisão desse tipo de estrela devem se tornar rotina nos próximos anos, com 20 | novembro DE 2017

Estrelas de nêutrons concentram massa equivalente à do Sol em esferas com cerca de 20 km de diâmetro

o aperfeiçoamento dos detectores do Ligo e do Virgo, que passam por mais uma fase programada de manutenção e aprimoramento. O Ligo, por exemplo, completou o seu segundo período de tomada de dados em 25 de agosto deste ano e deve voltar a operar em outubro de 2018, com a sensibilidade aumentada. Ao mesmo tempo, os pesquisadores esperam reduzir à metade o ruído que atrapalha o funcionamento dos detectores. “Assim, devemos registrar de cinco a 10 vezes mais colisões de buracos negros e de estrelas de nêutrons”, conta o físico italiano Riccardo Sturani, do Instituto Internacional de Física da Universidade Federal do Rio Grande do Norte (IIP-UFRN), que realiza cálculos analíticos sobre as ondas gravitacionais que o Ligo pode registrar. No Brasil, além dele, Odylio Aguiar e César Costa, ambos do Instituto Nacional de Pesquisas Espaciais (Inpe), integram a equipe do Ligo que trabalha para melhorar a precisão dos detectores. A primeira observação direta das ondas gravitacionais, em setembro de 2015, confirmou um fenômeno previsto pela teoria da relatividade geral, formulada em 1915 pelo físico Albert Einstein (1879-1955). Com essa teoria, Einstein modificou a lei da gravitação universal, proposta por Isaac Newton em 1687. Para Newton, a gravidade era uma força atrativa originada pela massa dos corpos. Einstein reformulou o entendimento sobre a força gravitacional, o espaço e o tempo na teoria


imagens  1 e 2 1M2H/UC Santa Cruz and Carnegie Observatories ilustração nasa

da relatividade geral. Segundo essa teoria, tanto a massa quanto a energia de um corpo produzem força gravitacional, que se manifesta como o encurvamento do espaço e uma desaceleração da passagem do tempo ao redor do corpo. Quanto maior a massa e a energia do corpo, maior a força gravitacional e a deformação no espaço e no tempo, vistos como uma só entidade, o espaço-tempo. Uma consequência é que o movimento dos corpos produz oscilações no espaço-tempo que se propagam como ondas gravitacionais. Deformações drásticas no espaço-tempo acontecem, por exemplo, quando uma estrela com massa algumas vezes superior à do Sol consome todo o seu combustível nuclear e o seu centro, formado por átomos de ferro, implode, gerando um buraco negro, o objeto no qual a gravidade é tão elevada que nem a luz escapa, ou uma estrela de nêutrons, as menores e mais densas conhecidas. Em ambos os casos, a curvatura do espaço-tempo é extrema, assim como a pressão e a densidade a que é submetida a matéria que restou. Uma estrela de nêutrons tem um pouco mais que a massa do Sol, concentrada em uma esfera com cerca de 20 quilômetros de diâmetro – o astro do Sistema Solar é 70 mil vezes maior. “Uma cumbuca de feijoada contendo uma porção de matéria das estrelas de nêutrons pesaria na Terra o mesmo que os 7 bilhões de pessoas que habitam o planeta”, compara Jorge Horvath, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP), estudioso dessas estrelas ultracompactas.

Representação artística dos jatos de matéria que teriam originado os pulsos curtos de raios gama (magenta) registrados pelo telescópio Fermi

De acordo com Horvath, as estrelas de nêutrons possuem uma crosta com algumas centenas de metros de espessura, composta por elementos químicos pesados, como o ferro. De 800 a 900 metros abaixo da crosta, a matéria alcança uma densidade tão alta que as partículas de carga negativa (elétrons) existentes na periferia dos átomos são pressionadas contra as de carga positiva (prótons) do núcleo atômico. Como resultado, elas se anulam e originam partículas neutras: os nêutrons, que permanecem espremidos uns contra os outros. Em regiões ainda mais profundas, a densidade aumenta e os nêutrons podem se desfazer em algo desconhecido. “O caroço central de uma estrela de nêutrons é um mistério”, diz Horvath. Vários modelos teóricos tentam prever como seria o interior dessas estrelas. Eles diferem na forma como a densidade da matéria varia sob efeito da pressão – essa relação entre densidade e pressão é definida por uma fórmula matemática chamada de equação de estado. “Obter a equação de estado das estrelas de nêutrons é um objetivo científico que certamente alcançaremos nas próximas décadas, com melhorias na observação das emissões de raios X e com a detecção de mais ondas gravitacionais”, diz a física Raissa Mendes, professora da Universidade Federal Fluminense (UFF). Onda de descobertas

Einstein previu a existência das ondas gravitacionais em 1916, mas só nos anos 1950 os físicos se convenceram de que, se a relatividade geral PESQUISA FAPESP 261 | 21


estivesse correta, certos corpos em movimento gravitacionais, comprovando a proposição (ver acelerado transmitiriam parte de sua energia para reportagem na página 26). Horas depois, telescópios em terra e no espao espaço vazio, na forma de ondas gravitacionais. Os cálculos mostravam, porém, que essas ondas ço vasculharam a região e identificaram o surseriam fracas. Só corpos com densidade de massa gimento de uma fonte de luz e de outras ondas e energia muito grandes, acelerados a velocidades eletromagnéticas na periferia da galáxia NGC próximas à da luz, emitiriam ondas gravitacionais 4993. Os pesquisadores propõem que esse brilho tenha sido emitido por uma porção da matéria das observáveis por instrumentos na Terra. Nos anos 1970, um pequeno grupo de físicos estrelas que, em vez de ser sugada, foi lançada ao se entusiasmou com o desafio de detectar essas espaço. Essa violenta explosão, chamada de quiondas. Rainer Weiss, do Instituto de Tecnologia lonova, gerou elementos químicos mais pesados de Massachusetts (MIT), nos Estados Unidos, que o ferro (ver reportagem na página 23). Nos foi um dos primeiros a esboçar os detectores que dias seguintes, os observatórios viram o brilho da quilonova diminuir e mudar de originariam o Ligo. Os trabacor, emitindo luz visível, infralhos teóricos de Kip Thorne, vermelha e ultravioleta. do Instituto de Tecnologia da “As emissões de rádio vinCalifórnia (Caltech), e de seus das da fusão dessas estrelas colaboradores demonstraram Ondas continuam a ser observadas”, que um detector desses podegravitacionais explica Jessica McIver, física ria registrar as ondas gravitado Caltech que coordena uma cionais emitidas na colisão de devem ajudar equipe do Ligo. “A observação buracos negros e de estrelas de coincidente das ondas gravinêutrons em galáxias distantes. a conhecer o tacionais com o surto de raios Coube a Barry Barish, do Caltech, organizar a colaboração comportamento gama confirma a hipótese proposta décadas atrás de que as científica internacional em torda matéria no GRB de curta duração são prono do Ligo, uma vez aprovada a duzidas na fusão de estrelas construção dos detectores nos interior das de nêutrons. As ondas gravitaanos 1990. O Prêmio Nobel de cionais, a GRB de curta duraFísica deste ano reconheceu o estrelas ção e a quilonova nos contam papel dos três na criação do Lia história completa da matéria go, que entrou em operação em de nêutrons ejetada durante a colisão e a 2002 e, desde setembro de 2015, fusão das estrelas de nêutrons.” observou as ondas gravitacioOs pesquisadores do Ligo nais de quatro colisões de pares de buracos negros, eventos que não emitem luz. também usaram as ondas gravitacionais regisO choque de estrelas de nêutrons, detectado em tradas em agosto para obter informação sobre a agosto, é diferente. Nos anos 1990, pesquisadores relação entre densidade e pressão no interior propuseram que esse evento poderia ser a origem das estrelas de nêutrons. Essa informação pode das misteriosas explosões de raios gama (gamma ser aprimorada por futuras observações que poray bursts ou GRBs) de curta duração observadas dem detectar a colisão de um buraco negro com por satélites desde os anos 1960. uma estrela de nêutrons. “O buraco negro exerce­ rá uma deformação muito maior, o que deverá reve­lar mais sobre o interior das estrelas de nêupulsos de raios gama Segundo a teoria da relatividade geral, a imensa trons”, prevê Jessica. Observações adicionais força gravitacional do objeto resultante da fusão devem ajudar a entender quão uniforme é a comdas estrelas atrairia a matéria ao redor, formando posição das estrelas de nêutrons e a calcular a um redemoinho. Essa matéria, girando a veloci- quantidade de elementos químicos pesados ejedades próximas à da luz, produziria em cada polo tada para o espaço. “Assim”, ela explica, “será magnético do redemoinho em torno da estrela possível descobrir quão próximo de uma fusão um jato que lançaria partículas eletricamente de estrelas de nêutrons o Sistema Solar teria de carregadas para muito longe. Esse jato duraria estar para explicar a quantidade de ouro e de oufrações de segundo e geraria os pulsos curtos de tros elementos observada na Terra”. n raios gama detectados na Terra. No dia 17 de agosto, menos de dois segundos Artigos científicos após as observações do Ligo e do Virgo, o telesABBOTT, B. P. et al. Multi-messenger observations of a binary neutron cópio espacial Fermi, da Nasa, registrou uma exstar merger. The Astrophysical Journal Letters. v. 848, n. 2. 16 out. 2017. plosão de raios gama de curta duração proveABBOTT, B. P. et al. Observation of gravitational waves from a binary niente da região do céu de onde vieram as ondas neutron star inspiral. Physical Review Letters. v. 119, 161101. 16 out. 2017. 22 | novembro DE 2017


Representação artística da quilonova observada em 17 de agosto, que lançou ao espaço uma nuvem de matéria com a massa de 21,5 mil planetas como a Terra

Fonte de ouro e

régua do universo Choque de astros produz elementos químicos pesados e permite medir a

nasa

taxa de expansão do Cosmo

A

colisão de estrelas de nêutrons registrada em 17 de agosto terminou em uma explosão chamada quilonova. O evento lançou ao espaço uma quantidade colossal de matéria incandescente que brilhou por dias. Mudanças no brilho e na cor da quilonova proporcionaram as evidências mais robustas de que a matéria e a energia liberadas em choques de estrelas de nêutrons produzem boa parte dos elementos químicos mais pesados do Universo. Não se sabe com precisão quais elementos foram gerados nem quanto deles foi forjado na explosão, mas é quase certo que houve uma grande produção de urânio, ouro e outros metais raros, como a platina. “O estudo da radiação emitida pela quilonova permitirá ter uma ideia de quais elementos foram sintetizados”, conta o físico nuclear Valdir Guimarães, professor do Instituto de Física da Universidade de São Paulo (IF-USP). Ele não participou das observações, mas acompanhou a publicação dos resultados. “Alguns trabalhos sugerem que o evento tenha produzido uma quantidade de ouro igual a massa da Terra.” Além de ouro e platina, estima-se que tenham se formado outros 60 elementos que constam da tabela periódica e, somados, correspondem a menos de 1% da matéria visível do Universo. PESQUISA FAPESP 261 | 23


“Esse evento forneceu um indício muito forte de que uma parte importante dos elementos químicos pesados encontrados na natureza é produzida em explosões do tipo quilonova”, conta o astrofísico brasileiro Vinicius Placco, professor na Universidade de Notre Dame, nos Estados Unidos. Ele estuda a abundância de elementos químicos em estrelas pobres em metais da Via Láctea e compara esses padrões com predições teóricas para um fenômeno mais energético chamado supernova, a morte explosiva de estrelas com massa dezenas de vezes superior à do Sol, que também produz elementos pesados. Com outros brasileiros, Placco integrou o grupo que observou a quilonova de agosto com o telescópio T 80 Sul, instalado no Chile (ver reportagem na página 26). Ele explica por que ainda não é possível A energia conhecer tudo o que foi produzido no liberada na evento. “Como o brilho na faixa da luz visível diminui 360 vezes em 10 dias, explosão é difícil fazer medições detalhadas da abundância dos elementos químicos produziu toda formados”, relata. “Será necessário observar mais eventos de quilonova uma gama para obter essas estimativas.” 21,5 mil terras

de elementos químicos pesados

A quilonova de 17 agosto não foi a primeira a ser descoberta. Em 2013, uma outra havia sido registrada pelo grupo do astrofísico Nial Tanvir, da Universidade de Leicester, no Reino Unido, com os telescópios espaciais Swift e Hubble. Mas o brilho era fraco e não havia informações sobre a causa da explosão – se o choque havia sido de duas estrelas de nêutrons ou de uma estrela de nêutrons e um buraco negro. Já o evento de agosto é um dos mais bem documentados pela astronomia nos últimos anos. Houve registro de sua luz em todas as faixas do espectro eletromagnético, e a análise das ondas gravitacionais emitidas na aproximação final das estrelas permitiu saber que uma tinha 30% e outra 60% mais massa que o Sol. O anúncio da detecção da quilonova ocorreu em 16 de outubro e nos dias seguintes uma enxurrada de artigos científicos detalhou o fenômeno. Depois de duas semanas, pesquisadores de quatro universidades norte-americanas consolidaram a primeira síntese das observações da quilonova e a tornaram disponível nos ArXiv, um repositório de artigos científicos. Medições feitas por 38 telescópios durante até um mês sugerem que o choque das estrelas lançou ao espaço matéria correspondente à massa de 21,5 mil planetas como a Terra. Da explosão, restou um buraco negro, um objeto escuro e extremamente denso, do qual nem a luz escapa. A energia do choque produziu em 24 | novembro DE 2017

menos de um segundo toda uma gama de elementos químicos pesados ao pressionar as partículas sem carga elétrica (nêutrons) liberadas pelas estrelas contra os núcleos de elementos químicos mais leves lançados ao espaço na explosão. Esse mecanismo, a captura rápida de nêutrons ou processo r, produz elementos tão pesados quanto o urânio, que contém em seu núcleo 92 prótons (partículas de carga elétrica positiva) e 146 nêutrons. Elementos mais pesados podem surgir, mas são instáveis e se desfazem rapidamente, liberando outras partículas e energia na forma de radiação eletromagnética – em especial, raios gama, uma luz invisível ao olho humano. A energia emitida pela conversão de elementos pesados e instáveis em outros mais leves e estáveis faz a cor da quilonova mudar. Nos primeiros dias, os telescópios captaram uma luz azulada, produzida por uma nuvem com massa de 5,3 mil Terras, rica em elementos mais leves que o lantânio (57 prótons e 139 nêutrons), que se afastava do local da colisão a 81 mil quilômetros por segundo, segundo o artigo, submetido para publicação na Astrophysical Journal Letters. À medida que esse material se expandia e esfriava, a região central da quilonova tornou-se primeiro púrpura e depois avermelhada. “A mudança de cor é consequência do decaimento radiativo dos elementos químicos mais pesados, com massa mais elevada que a do lantânio, concentrados em uma região da nuvem de matéria que se deslocava mais lentamente”, explica Placco. Estima-se que a colisão de estrelas de nêutrons seja rara no Universo – ocorreria uma a cada milhão de anos em nossa galáxia. Os astrofísicos esperam, porém, que o aumento da sensibilidade dos observatórios Ligo e Virgo torne a detecção desses eventos corriqueira. Essa perspectiva anima astrofísicos e cosmólogos. É que a observação conjunta das ondas gravitacionais e da luz produzidas na colisão de estrelas de nêutrons pode ajudar a resolver uma disputa na cosmologia: conhecer o valor da constante de Hubble, um número que indica a taxa de expansão do Universo e, por consequência, sua idade e composição. mais longe, mais rápido

Desde que medições feitas pelo astrônomo norte-americano Edwin Hubble confirmaram em 1929 que o Universo estava em expansão, vários grupos tentam calcular com precisão esse ritmo, que cresce com a distância. O próprio Hubble teria calculado que a velocidade de afastamento dos objetos celestes aumentava 500 quilômetros por segundo a cada megaparsec (3,3 milhões de anos-luz). Hoje se sabe que esse valor, medido por duas estratégias, é bem mais baixo. Um dos métodos consiste em estimar as distâncias a partir da luminosidade de cefeidas, estrelas


Origem cósmica Explosões estelares geraram os elementos químicos mais pesados da natureza 1

O hidrogênio (H) e a maior parte do hélio (He), os elementos mais abundantes da natureza, formaram-se pelo resfriamento do Universo logo após o Big Bang

3

Be

11

12

B 13

Na Mg 19

K

37

Rb 55

Fonte ligo e valdir guimarães / USP

5

4

Li

Cs A fusão de hidrogênio e hélio no interior de estrelas gera lítio (Li), carbono (C) e nitrogênio (N). Estrelas com massa maior que a do Sol formam ainda bário (Ba) e tântalo (Ta)

2

He

H

87

Fr

20

Al 21

Ca

Sc

38

39

Sr 56

Ba

Y

22

Ti 40

Zr 72

Hf

23

24

V

Cr

41

42

Nb Mo 73

Ta

74

W

25

Mn 43

Tc 75

Re

26

Fe 44

27

Co 45

Ru

Rh

76

77

Os

Ir

28

Ni 46

Pd 78

Pt

29

Cu 47

Ag 79

Au

30

Zn 48

Cd 80

Hg

31

Ga 49

In 81

Tl

6

7

8

C

N

O

14

15

16

Si 32

Ge 50

Sn 82

Pb

P

33

As 51

Sb 83

Bi

S

34

9

F 17

Cl 35

Se

Br

52

53

Te 84

Po

I

85

At

10

Ne 18

Ar 36

Kr 54

Xe 86

Rn

88

Ra 57

La 89

Ac

58

Ce 90

Th

59

Pr 91

Pa

60

62

63

Eu

64

Gd

65

Tb

66

Dy

67

Ho

68

Er

69

70

Tm Yb

71

Lu

92

U

Raios cósmicos fragmentam os núcleos maiores em lítio (Li), berílio (Be) e boro (B)

que pulsam com regularidade e têm brilho bem conhecido. Com essa técnica, obtém-se o valor de 73 quilômetros por segundo por megaparsec para a constante. Mas há problemas. “A técnica das cefeidas exige uma calibração do brilho dessas estrelas”, explica o astrofísico Luis Raul Abramo, professor do IF-USP. “Essa calibração é empírica, apesar de os modelos do interior dessas estrelas serem bastante sofisticados.” A outra forma de estimar o valor da constante é usando as medições que satélites na órbita terrestre fizeram da radiação cósmica de fundo, uma forma de luz invisível (na faixa de micro-ondas) que permeou o Universo 380 mil anos após o Big Bang. Essa luz estava distribuída segundo certo padrão naquela época, quando o Cosmo era mais denso. Conhecendo como variou a densidade e a geometria desse padrão, os físicos calculam a constante de Hubble – o resultado é 67 quilômetros por segundo por megaparsec. Essa forma também é indireta e pode gerar variações, pois depende do modelo usado para explicar o Universo – o mais aceito é que ele seja plano, formado por matéria comum, matéria escura e energia escura, e que se encontre em expansão acelerada. A diferença entre os dois valores para a constante de Hubble é pequena (10%), mas incomoda os cosmólogos. “Ou as medições feitas com as cefeidas precisam ser corrigidas ou há proble-

61

Nd Pm Sm

Explosões decorrentes da fusão de estrelas de nêutrons produzem boa parte dos elementos químicos pesados, do ouro (Au) ao urânio (U)

Em estrelas com até 10 massas solares, a fusão de hidrogênio, hélio e núcleos mais pesados pode produzir ferro (Fe), níquel (Ni) e zinco (ZNn)

Novas e supernovas, explosões de estrelas com massa mais de 10 vezes superior à do Sol, geram elementos químicos ainda mais pesados, como o gálio (Ga), o selênio (Se) e o rubídio (Rb)

mas com o modelo cosmológico mais aceito, o que teria consequências teóricas importantes na cosmologia”, afirma o astrofísico Jailson Alcaniz, do Observatório Nacional, no Rio de Janeiro. A expectativa é de que a disputa seja resolvida com mais medições de distância por meio das ondas gravitacionais emitidas em colisões de estrelas de nêutrons. A medição de agosto resultou em um valor intermediário da constante: 70 quilômetros por segundo por megaparsec, segundo artigo publicado na Nature. A imprecisão, nesse caso, ainda é grande. “As ondas gravitacionais permitem fazer uma medição mais direta dessas grandes distâncias, que, no caso das estrelas de nêutrons, podem ser associadas à análise da luz para verificar a velocidade de afastamento”, conta Abramo. “Na minha opinião, esse dilema será resolvido com mais observações de ondas gravitacionais.” n Ricardo Zorzetto

Artigos científicos ASHLEY VILLAR, V. et al. The complete ultraviolet, optical, and near-infrared light curves of the kilonova associated with the binary neutron star merger GW170817: Homogenized data set, analytic models, and physical implications. ArXiv. On-line. 31 out. 2017 (submetido para publicação à revista The Astrophysical Journal Letters). THE LIGO SCIENTIFIC COLLABORATION AND THE VIRGO COLLA­ BORATION. et al. A gravitational-wave standard siren measurement of the Hubble constant. Nature. v. 551, p. 85-8. 2 nov. 2017. On-line. 16 out. 2017.

PESQUISA FAPESP 261 | 25


A disputa por descobrir a origem do fenômeno envolveu 70 observatórios e foi vencida por um velho e pequeno telescópio

Em busca da

luz das estrelas de nêutrons Marcos Pivetta

A

o longo dos últimos 10 anos, grupos de astrofísicos de todo o mundo ligados a observatórios baseados em terra e no espaço, como satélites e telescópios de diferentes tipos, assinaram acordos com a colaboração científica Ligo-Virgo, os três grandes detectores de ondas gravitacionais em funcionamento na Terra. Assim que fosse registrado um sinal com boas chances de serem ondas gravitacionais, a rede de parceiros seria informada, via uma circular, da massa e luminosidade estimadas dos objetos celestes que poderiam ser a fonte do evento e receberia um mapa do céu com a provável localização do fenômeno. Sua missão seria procurar no espaço uma emissão de radiação eletromagnética, alguma forma de luz, liberada pelo mesmo evento cósmico que originou as ondas gravitacionais. 26 | novembro DE 2017

Até meados de agosto deste ano, quatro registros de ondas gravitacionais haviam sido confirmados. Todos foram provenientes de fusões de pares de buracos negros, um tipo de fenômeno que não deve produzir qualquer forma de luz. Em nenhum deles, como se suspeitava, a rede de parceiros do Ligo-Virgo observou a geração de radiação eletromagnética. O evento do dia 17 de agosto foi diferente dos precedentes. Teve características únicas, que favoreceram a sua detecção, localização e observação detalhada. Pela primeira vez, os astrofísicos registraram assinaturas cósmicas provocadas pela colisão e fusão de um par de estrelas de nêutrons. Segundo a teoria, esse fenômeno deveria produzir, e realmente produziu, dois tipos de emissão quase simultâneas: as tão procuradas ondas gravitacionais seguidas de uma explosão energética

Telescópio Swope, que tem um espelho de 1 metro de diâmetro e funciona desde 1971 no Chile, foi o primeiro a encontrar a galáxia em que o evento ocorreu


75 60 45 30 15

360

330

300

270

240

210

180

150

120

90

60

30

0

-15

-30 -45 -60 -75

FOTO  Carnegie Institution for Science

Fonte nasa / eso

visível na faixa dos raios gama. “Era esperado que fossem registradas as ondas gravitacionais antes da explosão de raios gama”, explicou o físico Salvatore Vitale, do Instituto de Tecnologia de Massachusetts (MIT), um dos pesquisadores do Ligo, no material de divulgação da descoberta. “Primeiro, as estrelas de nêutrons são esmagadas juntas, depois o material é aquecido e então surge a radiação.” Após a explosão de raios gama, primeiro tipo de luz que escapa do fenômeno, outras formas de radiação eletromagnética também deveriam ser produzidas, como luz visível, ultravioleta e ondas de rádio. Mas para flagrar essas outras manifestações de radiação era preciso antes localizar a origem do fenômeno no espaço. A pista inicial de que tinha havido uma colisão de estrelas de nêutrons em algum canto do Cosmo chegou à Terra às 12 horas, 41 minutos e 4 segundos de 17 de agosto, pelo fuso horário padrão internacional, que então se situava quatro horas à frente de Brasília. Os três detectores da cooperação Ligo-Virgo, dois localizados nos Estados Unidos e um na Europa, registraram um forte candidato a ser um sinal de ondas gravitacionais que aparentava ter sido originado pelo processo de fusão de duas estrelas de nêutrons. Situado nos arredores de Pisa, na Itália, o Virgo, que tinha acabado de passar por um processo de atualização e estava funcionando havia pouco mais de duas semanas, foi o primeiro a captar a anomalia, de forma muito fraca. Vinte e dois milissegundos depois, o detector do Ligo em Livingston, no estado da Luisiana, também registrou as ondas gravitacionais e, 3 milissegundos mais tarde, foi a vez do segundo detector-gêmeo do Ligo, em Hanford, no estado de Washington, flagrar a emissão. O observatório de Hanford, o

último a registrar o fenômeno, foi o que obteve o sinal de forma mais intensa e soltou o primeiro aviso automático de que um evento candidato a produzir ondas gravitacionais tinha sido flagrado. Uma breve explosão de raios gama

Enquanto os detectores de ondas gravitacionais processavam o sinal vindo do espaço, dois satélites especializados em registrar explosões de raios gama captaram um pequeno evento desse tipo. O Fermi, um telescópio espacial da Nasa que mapeia todo o céu a cada três horas, registrou uma explosão de raios gama 1,7 segundo após os detectores do Ligo-Virgo terem flagrado as ondas gravitacionais. Um alerta automático da medição foi expedido. Todo ano o Fermi detecta cerca de 240 explosões de raios gama, das quais 40 são de curta duração (menos de 2 segundos), como a de 17 de agosto. Essa breve explosão foi a mais próxima da Terra registrada por esse instrumento de observação. Igualmente dedicado a acompanhar esse tipo de evento energético, o satélite Integral, projeto da Agência Espacial Europeia (Esa) com norte-americanos e russos, também confirmou a explosão vista pelo Fermi. A quase concomitância dos dois tipos de registros obtidos, o das ondas gravitacionais e o da explosão de raios gama, deixava poucas dúvidas de que provavelmente ambos tinham sido originados pelo mesmo evento. Às 13h21, 40 minutos depois das detecções automáticas, uma circular postada em nome da colaboração Ligo-Virgo informou a comunidade de astrofísicos de que uma provável emissão de ondas gravitacionais tinha sido flagrada. O texto ainda fazia alusão à explosão de raios gama registrada pelo satélite Fermi. Esse era o aviso que os parceiros do Ligo-Virgo esperavam para iniciar

Mapa do céu mostrando a provável área em que ocorreu a colisão de estrelas, segundo os dados dos satélites de raios gama Integral (cinza escuro) e Fermi (vermelho) e dos detectores Ligo-Virgo (em laranja). A estrela dentro da área laranja representa a galáxia NGC 4993

PESQUISA FAPESP 261 | 27


ligo-virgo Frequência (Hz)

ondas gravitacionais 300

100

-6

-4

-2

0

2

4 segundos

-2

0

2

4 segundos

Fermi 1.500

1.000

500 -6

O detector do Ligo em Hanford identificou o sinal das ondas gravitacionais dois segundos antes de o satélite Fermi flagrar a explosão de raios gama

28 | novembro DE 2017

-4

a busca pelo lugar no Cosmo onde houve a fusão estelar. Ao longo das próximas horas, várias circulares atualizaram dados sobre o fenômeno. Ajuda do ponto cego

Mas, inicialmente, apenas com os dados dos satélites Fermi e Integral, a área do céu em que o evento teria ocorrido era enorme, um obstáculo para determinar sua localização exata. Quando as medições do Ligo-Virgo foram refinadas, a provável área de origem do fenômeno foi restringida a 28 graus quadrados, equivalente a 140 luas cheias vistas da Terra. A distância em que a colisão estelar ocorrera também se tornou rapidamente conhecida, cerca de 130 milhões de anos-luz. Apesar de ter registrado um sinal bastante fraco das ondas gravitacionais, o Virgo foi importante para estabelecer a porção do céu do hemisfério Sul em que o evento aconteceu. Com suas informações e as dos outros dois detectores, foi possível usar a técnica da triangulação para delimitar o local de origem do fenômeno. “A amplitude e o momento em que registramos o sinal foram usados para localizar sua fonte”, comenta o físico holandês Jo van den Brand, da Universidade Livre de Amsterdã, porta-voz do Virgo. As ondas gravitacionais foram captadas de forma tênue pelo detector europeu porque a fusão das estrelas de nêutrons ocorreu em um lugar que é um dos seus quatro pontos cegos. Essa também foi uma pista importante para se chegar à área final. “No momento, não sabemos dizer qual foi nossa contribuição mais importante, mas, sem o Virgo, teria sido mais difícil descobrir o local de origem das ondas”, destaca o holandês.

Com as melhores coordenadas possíveis para descobrir a fonte das ondas gravitacionais e da explosão de raios gama, os grupos de astrofísicos com acesso a telescópios no hemisfério Sul saíram à caça da origem do fenômeno. A corrida foi vencida pela equipe da colaboração One-Meter Two-Hemispheres (1M2H), coordenada pelo astrofísico Ryan Foley, da Universidade da Califórnia em Santa Cruz. A equipe, da qual 17 pessoas participaram da descoberta, é especializada em estudar a luz proveniente de supernovas, explosões de estrelas com muita massa. Menos de 11 horas depois da detecção das ondas gravitacionais, Foley e sua equipe fizeram a imagem de um novo ponto luminoso na periferia da galáxia NGC 4993, situada na constelação de Hidra. “Tínhamos uma estratégia bem definida: olhar apenas para onde há galáxias, pois é nelas que ficam as estrelas”, conta Foley. “A sorte favorece os preparados e nós estávamos prontos.” Havia cerca de 50 galáxias na área a ser vasculhada. O flagra foi obtido com o Swope, um pequeno e antigo telescópio óptico mantido pela Carnegie Institution, dos Estados Unidos, no Observatório Las Campanas, situado cerca de 600 quilômetros ao norte de Santiago, no Chile. Localizado no topo de uma montanha com quase 2.400 metros de altitude, o Swope foi inaugurado em 1971 e tem um espelho de 1 metro de diâmetro. O campo de visão de sua câmera, no entanto, é relativamente grande. Permite ver uma porção do céu equivalente a 0,25 grau quadrado, pouco mais do que uma lua cheia vista da Terra. “Não tinha como não ver [o ponto]. Era como se colocassem um dedo na frente do seu olho”, exagera Foley. Usando um telescópio

Ligo/Fermi

Contagem por segundo

raios gama


Uma emissão vista em diferentes cores A radiação eletromagnética decorrente da colisão das estrelas de nêutrons foi observada ao longo de duas semanas por dezenas de observatórios e telescópios

1

fotos  1 e 3 Robert Hurt (Caltech/IPAC), Mansi Kasliwal (Caltech), Gregg Hallinan (Caltech), Phil Evans (NASA) e colaboração GROWTH 2 Alberto Molino

Imagens do fenômeno na luz visível foram as primeiras a ser captadas

O satélite Swift, da Nasa, registrou a luz ultravioleta provocada pela explosão

bem mais potente, o Blanco, instalado em Cerro Tololo, no Chile, a equipe coordenada pela física brasileira Marcelle Soares-Santos, da Universidade Brandeis, demorou 10 minutos a mais do que o grupo 1M2H para encontrar o ponto luminoso na galáxia NGC 4993 (ver entrevista na página 30). Entre os cerca de 70 instrumentos terrestres e espaciais que conseguiram observar por duas semanas a emissão de radiação eletromagnética decorrente da fusão das estrelas de nêutrons em diferentes comprimentos de onda, outro pequeno telescópio, igualmente instalado no Cerro Tololo, contou com a participação de brasileiros. Trata-se do T80 Sul, que tem um espelho de 0,8 metro, mas uma câmera com campo de visão oito vezes maior do que a do Swope. Isso o torna ideal para varrer vastas áreas do céu em pouco tempo. “Obtivemos os dados como parte de uma rede de pequenos telescópios, a colaboração Toros, que tenta localizar emissões eletromagnéticas associadas a eventos que produzem ondas gravitacionais ”, explica a astrofísica Claudia Mendes de Oliveira, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP), idealizadora do T80 Sul. O telescópio localizou a emissão óptica produzida pela fusão das estrelas de nêutrons apenas na segunda noite, após a equipe receber as

O telescópio sul do Observatório Gemini, no Chile, fez medições no infravermelho

2

Telescópio T80 Sul, um projeto brasileiro instalado no Chile, também registrou o fenômeno

As emissões de rádio foram as últimas a ser flagradas, 16 dias após o evento

coordenadas do objeto por meio de várias circulares, cerca de 35 horas depois do primeiro aviso do Ligo-Virgo. “Tivemos má sorte. Na primeira noite, olhamos quase metade dessa área, mas começamos pelo lado oposto em que ficava a galáxia NGC 4993”, conta Claudia. Ainda assim, o T80 Sul realizou medições importantes e seus dados aparecem em dois artigos científicos publicados sobre as emissões eletromagnéticas produzidas pela colisão das estrelas de nêutrons. O T80 Sul funciona de forma robotizada e seu controle pode ser feito remotamente, a partir de qualquer lugar do planeta. O equipamento começou a funcionar regularmente há seis meses, custou pouco mais de US$ 2 milhões e foi financiado pela FAPESP e pelo Observatório Nacional (ON). Sua função principal é fazer um levantamento de objetos celestes presentes no hemisfério Sul em 12 bandas espectrais distintas, mas pode ser empregado igualmente para outros fins ou alvos de ocasião, como ocorreu na procura pela luz proveniente da colisão das estrelas de nêutrons. No segundo semestre de 2018, quando os três detectores de ondas gravitacionais, que no momento não estão funcionando, voltarem a operar, o T80 Sul e os demais parceiros do Ligo-Virgo poderão ter uma nova chance de encontrar a radiação eletromagnética produzida por eventos explosivos ocorridos em algum canto do Universo. n

Projeto EMU: Aquisição de um telescópio robótico para a comunidade astronômica brasileira (nº 09/54202-8); Modalidade Auxílio à Pesquisa – Programa Equipamentos Multiusuários; Pesquisadora responsável Claudia Mendes de Oliveira; Investimento R$ 5.075.402,98.

Artigo científico DÍAZ, M. C. et al. Observations of the first electromagnetic counterpart to a gravitational-wave source by the TOROS Collaboration. Astrophysical Journal Letters. v. 848, n. 2. 16 out. 2017.

PESQUISA FAPESP 261 | 29


Caçadora de colisões Física brasileira coordena grupo que procura emissões luminosas associadas à produção de ondas gravitacionais

N

a manhã de 16 de outubro, a física Marcelle Soares-Santos era a única brasileira entre os 16 líderes de grupos de pesquisa que anunciaram em uma entrevista na sede da National Science Foundation, nos Estados Unidos, a observação de um fenômeno que pode transformar o que se conhece sobre o Universo. Aos 36 anos, Marcelle é professora na Universidade Brandeis e pesquisadora no Fermi National Accelerator Laboratory, o Fermilab, um dos mais importantes laboratórios de física de partículas do mundo, ambos nos Estados Unidos. Nascida em Vitória, Marcelle graduou-se em física na Universidade Federal do Espírito Santo (Ufes) e fez mestrado e doutorado em astronomia na Universidade de São Paulo (USP). Chegou ao Fermilab em 2010 para um estágio de pós-doutorado e auxiliou na construção de um dos maiores detectores de luz já construídos: uma câmera de 570 megapixels que está instalada em um telescópio no Chile para mapear 300 milhões de galáxias no projeto Dark Energy Survey (DES). Hoje, ela coordena no DES uma equipe que busca a luz emitida por eventos que geram ondas gravitacionais. A seguir, ela fala sobre o fenômeno detectado e o potencial uso das ondas gravitacionais para calcular a taxa de expansão do Universo. 30 | novembro DE 2017

Qual foi seu papel nas observações ligadas à colisão de estrelas de nêutrons? Começou com minha participação no DES, que tem como objetivo observar 300 milhões de galáxias e estimar a contribuição da energia escura para a arquitetura do Universo. Entrei na fase de construção da câmera usada nas observações e ganhei a confiança dos meus colegas pelo trabalho, que era testar cada componente da câmera. Em setembro de 2012, quando a construção da câmera terminou, o DES começou a acumular a amostra de milhões de galáxias. Usei minha experiência em análise de dados e o conhecimento da câmera para fazer estudos sobre aglomerados de galáxias e rapidamente alcancei uma posição de liderança. Em julho de 2013, quando a colaboração que opera o Observatório Interferométrico de Ondas Gravitacionais, o Ligo, fez uma chamada para astrônomos, vi a oportunidade de nosso grupo do DES ter uma atuação importante. Onde estava quando os observatórios Ligo e Virgo informaram ter detectado a colisão das estrelas de nêutrons? No apartamento onde morava em Chicago. O evento foi detectado em 17 de agosto, no dia em que o caminhão de mudanças chegou para levar minhas coisas para Waltham, no estado de Massachusetts, onde fica a Universidade Brandeis, para

onde eu estava me transferindo. Eu tinha acabado de me deitar quando o telefone tocou por volta de 7h40 da manhã com o alerta automático do Ligo. Tinha passado a noite trabalhando, porque havia ocorrido uma colisão de buracos negros em 14 de agosto. Pensei que algo tivesse dado errado nas análises desse evento. Não imaginava que fosse um novo. Pulei da cama para o computador e, com meus colegas, iniciamos o planejamento para as observações no Chile após o pôr do sol. Havia um grupo no telescópio e outro no Fermilab. Nas horas seguintes meu apartamento ficou vazio. As últimas coisas que restaram foi meu laptop, uma cadeira e o roteador da internet. Fazia tempo que esperava observar a colisão de estrelas de nêutrons? Desde que o Ligo entrou em sua segunda fase de operação em 2015, a expectativa era de que os primeiros eventos fossem colisões de estrelas de nêutrons, e não de buracos negros. Na natureza se espera que os sistemas de massas menores, como os de estrelas de nêutrons, existam em maior quantidade. Seria, portanto, mais fácil observá-los. Foi uma surpresa verificar que buracos negros com massa de 10 a 30 vezes superior à do Sol são tão comuns [Rainer Weiss, do Instituto de Tecnologia de Massachusetts (MIT), e Kip Thorne e Barry Barish, do Instituto de Tecnologia da Califórnia (Caltech), receberam o Nobel de Física de 2017 pela detecção de ondas gravitacionais emitidas pela fusão de buracos negros]. Quais foram os passos seguintes ao alerta do dia 17? Por conta das buscas que fizemos após a detecção das colisões de buracos negros, já tínhamos exercitado o procedimento três ou quatro vezes. Primeiro, fizemos um mapa do céu e identificamos a região em que o evento provavelmente ocorreu. Com base na posição do telescópio no Chile e no número de horas que conseguimos observar por noite, calculamos a área a ser coberta e como varrer o máximo dela. Nesse evento, a distância era pequena e fizemos uma lista de galáxias. Toda vez que uma delas aparecia no campo observado, um grupo olhava as imagens antes de serem processadas por computador em busca de sinais de emissão luminosa. Fomos um dos primeiros grupos a detectar a luz da fonte de ondas gravitacionais. Logo depois de observar a

REIDAR HAHN

Entrevista Marcelle Soares-Santos


do Universo. A taxa de formação desses aglomerados depende da cosmologia. Se existir muita energia escura, a taxa de formação é menor. Desenvolvi algoritmos para encontrar os aglomerados nos dados do Sloan Digital Sky Survey, que varreu um terço do céu e observou 500 milhões de objetos. No pós-doutorado, continuei estudando os aglomerados. Voltei a me interessar pelas ondas gravitacionais quando o Ligo anunciou que iria iniciar uma nova rodada de observações.

Marcelle e a câmera que ajudou a construir, usada no projeto Dark Energy Survey

fonte, enviamos um e-mail comunicando o achado aos parceiros do Ligo e verificamos que outro grupo havia identificado a mesma fonte 10 minutos antes. Foi na primeira bateria de observação? Na primeira noite. As observações duraram cerca de uma hora. Depois de achar o candidato mais plausível, mudamos a estratégia para a noite seguinte. Focamos as observações nesse objeto para obter o máximo de informação sobre ele e monitorar sua evolução. Também fizemos uma segunda varredura na região em busca de outras possíveis fontes. A área indicada pelo Ligo e pelo Virgo tinha 30 graus quadrados [área ocupada no céu por 150 luas cheias]. Observamos 70 graus quadrados porque a experiência com os eventos anteriores mostrou que, após o mapeamento inicial, o Ligo faz uma análise mais refinada, o que pode mudar a posição do objeto no céu. Havia muitos objetos na área indicada? Os dados sugeriam que a colisão teria ocorrido a 40 megaparsecs ou 130 milhões de anos-luz. No volume formado por 30 graus quadrados e 40 megaparsecs, existem umas 50 galáxias. Em uma análise ignorando a distância, encontramos 1.500 possíveis fontes. Só uma passou pelos três critérios estabelecidos para excluir falsos candidatos.

Por que é importante associar a emissão de luz à da onda gravitacional? No caso de agosto, as ondas gravitacionais permitiram saber que eram duas estrelas de nêutrons, e não dois buracos negros, e que estavam a 40 megaparsecs. Mas não dá para saber se o resultado da colisão foi um buraco negro ou uma estrela de nêutrons. Nem se a colisão gerou elementos químicos pesados, se houve perturbação do ambiente ao redor ou se esse ambiente era diferente do encontrado com frequência nas galáxias. Só é possível conhecer isso com a combinação das ondas gravitacionais com a contrapartida óptica. Você estudou ondas gravitacionais no mestrado e estrelas de nêutrons no doutorado. Era uma preparação para observar um evento como esse? Eu planejava trabalhar em cosmologia. Na iniciação científica e no mestrado, fiz cálculos de como seria o espectro de ondas gravitacionais primordiais, que existiriam desde o início do Universo, e não dessas geradas em colisões. Um detector futuro como o Lisa, liderado pela ESA [Agência Espacial Europeia], para registrar ondas gravitacionais a partir do espaço, talvez tenha sensibilidade para observá-las. Era tudo muito teórico e sentia falta de algo observacional. No doutorado, fui trabalhar com aglomerados de galáxias, as maiores estruturas

O que as ondas gravitacionais podem revelar sobre a energia escura? Eventos como as colisões de estrelas de nêutrons podem ser usados em cosmologia de forma análoga às supernovas. Supernovas são explosões de estrelas com massa elevada. Elas são chamadas de velas-padrão porque emitem uma luminosidade conhecida, o que permite estimar a que distância estão de nós. Já as colisões de estrelas de nêutrons são conhecidas como sirenes-padrão, porque sua detecção é semelhante à de ondas sonoras [embora ondas gravitacionais sejam diferentes de ondas de som]. A intensidade das ondas gravitacionais detectadas na Terra depende da massa das estrelas, que pode ser calculada a partir do formato da onda detectada. Após identificar vários eventos como o de agosto, será possível medir distâncias em escala cosmológica. O evento de agosto permitiu calcular a taxa de expansão do Universo, a chamada constante de Hubble, com uma incerteza de 15%. É alta, mas, com mais eventos, deve diminuir. Isso é importante porque há uma dúvida: as supernovas são mesmo velas-padrão ou poderia haver variações entre elas que afetariam as medições? Medidas usando a radiação cósmica de fundo [radiação em micro-ondas emitida quando o Universo tinha 380 mil anos] dão valores discrepantes dos obtidos com as supernovas. As ondas gravitacionais podem ser uma alternativa para essas medições. Quais seus planos futuros? Usar as ondas gravitacionais para saber quanto há de energia escura no Cosmo. Queremos melhorar a detecção da luz de mais eventos, pois o número deve aumentar na próxima rodada de observações do Ligo-Virgo. E pretendo desenvolver uma estratégia de uso da próxima geração de câmeras e telescópios para o mapeamento de galáxias. n Ricardo Zorzetto PESQUISA FAPESP 261 | 31


entrevista José Roberto Postali Parra

Agricultor de insetos

Entomologista defende o uso do controle biológico para combater pragas da lavoura Marcos Pivetta e Marcos de Oliveira  retrato

Léo Ramos Chaves

N

o final de 2014, ao completar 70 anos, o engenheiro-agrônomo José Roberto Postali Parra aposentou-se compulsoriamente da Escola Superior de Agricultura Luiz de Queiroz (Esalq), unidade da Universidade de São Paulo (USP) em Piracicaba da qual fora diretor. Mas o especialista em controle biológico de pragas agrícolas nem cogitou abandonar suas pesquisas no Departamento de Entomologia e Acarologia da escola. “Batalhei a vida toda e não vou parar de trabalhar agora que chegou a vez de o controle biológico se firmar na agricultura brasileira”, comenta. Essa forma de combate a pragas que afetam as plantações usa os próprios inimigos naturais, como insetos, ácaros e até microrganismos, para atacar os problemas da lavoura. Em vez de lançar mão de um inseticida químico, cujo uso abusivo pode ser nocivo para o homem e o ambiente, o agricultor tenta destruir ou ao menos reduzir a presença do agente agressor com o auxílio, por exemplo, de uma pequena vespa ou de um fungo presente na natureza. Parra dedicou mais de quatro décadas de pesquisa para entender a biologia e a interação com o meio ambiente de inimigos naturais de pragas, como a broca-da-cana-de-açúcar e o greening dos laranjais, e desenvolveu métodos para reproduzir em laboratório insetos e ácaros que têm prestado um bom serviço ao homem do campo. Ponderado, admite que o controle biológico não é a solução para todas as pragas, mas pode ser útil e ajudar a diminuir o emprego de agroquímicos na lavoura. “O Brasil é

32 | novembro DE 2017

idade 73 anos especialidade Controle biológico de pragas na agricultura formação Graduação em engenharia agronômica (1968), mestrado (1972) e doutorado (1975) em entomologia pela Escola Superior de Agricultura Luiz de Queiroz da Universidade de São Paulo (Esalq-USP) instituição Esalq-USP produção científica 341 artigos científicos, 20 livros escritos ou organizados, orientou 61 mestres e 50 doutores


PESQUISA FAPESP 261 | 33


o campeão mundial no uso de produtos químicos na agricultura”, diz. “Nosso agricultor tem essa cultura.” Nesta entrevista, Parra conta histórias de insetos e de pragas da lavoura nacional e comenta sobre temas importantes da agricultura brasileira, como o emprego de variedades transgênicas e a adoção de práticas orgânicas. Em qual cultivo o controle biológico é mais empregado no Brasil? A cana-de-açúcar é o exemplo clássico. Hoje se planta entre 9 e 10 milhões de hectares de cana em São Paulo. Quase metade da área de cana paulista é controlada biologicamente. O combate à mariposa conhecida como broca-da-cana [Diatraea saccharalis] e à cigarrinha Mahanarva fimbriolata, uma praga que ataca a raiz da planta, é feito dessa forma. A lagarta da broca é destruída com a liberação da vespinha Cotesia flavipes, um inseto de Trinidad e Tobago que foi introduzido no país em 1971. A Cotesia é usada em 3,5 milhões de hectares de cana. A vespinha Trichogramma galloi, com que trabalho, tem sido utilizada para combater o ovo da broca em cerca de 500 mil hectares de cana. Podem ser empregados diferentes inimigos naturais para atacar diferentes fases dessas pragas. As fases de desenvolvimento dos insetos são ovo, lagarta, pupa e adulto. Para o controle da cigarrinha da cana, é usado um fungo chamado Metarhizium anisopliae. Quais outras culturas têm usado esse método? Tem uma história interessante que envolve o controle biológico do greening dos citros, doença também conhecida na Ásia como HLB ou Huanglongbing, que deixa amareladas as folhas da laranjeira, secando as plantas. O greening é causado pelas bactérias Candidatus Liberibacter que são transmitidas às plantas por um pequeno inseto, o psilídeo Diaphorina citri. Por causa do greening, os citricultores começaram a aplicar inseticida no pomar de 20 a 30 vezes ao ano, de forma desenfreada, para matar o psilídeo. Nós tentamos fazer o controle biológico por meio da soltura de vespinhas da espécie Tamarixia radiata, que é originária da Ásia, mas foi encontrada aqui em São Paulo. Liberávamos as vespas nos pomares, mas elas morriam. Os pomares tinham greening, mas não tinham o psilídeo Diaphorina citri. 34 | novembro DE 2017

Quase metade da área de cana em São Paulo é controlada biologicamente. O combate à broca e à cigarrinha é feito dessa forma

Por que então havia a doença? Descobriu-se que os focos primários da doença vinham de áreas que estavam fora dos pomares, de áreas orgânicas, de fundo de quintal, de murta, planta hospedeira do psilídeo, e de pomares abandonados. O Fundecitrus [Fundo de Defesa da Citricultura] estimou que essas áreas vizinhas chegavam a 12 mil hectares. Começamos então a liberar as vespas nessas áreas para evitar os focos primários. Deu resultado. Hoje a empresa Citrosuco tem cinco biofábricas de vespas, a Fundecitrus tem outra e há um agricultor começando a criação desses insetos. Agora, os citricultores põem na beirada do pomar iscas, armadilhas amarelas com cola, que detectam o momento em que o psilídeo chega no laranjal. Na Flórida, Estados Unidos, o greening praticamente acabou com a citricultura. Eles sabiam fazer o controle biológico, mas não o fizeram. Achavam que apenas melhorando a nutrição da planta conseguiriam combater a doença. Sozinho, o controle biológico não resolve todos os problemas. Ele é um dos componentes

do MIP, o Manejo Integrado de Pragas, que apareceu entre o fim dos anos 1960 e o início dos 1970. É preciso usar mudas sadias, erradicar as plantas doentes e aplicar o inseticida sem exageros. Os Estados Unidos não são fortes em controle biológico de pragas? Na verdade, eles não usam tanto o controle biológico como preconizam nos livros que publicam sobre o tema. A cultura deles também é de uso de produtos químicos. Isso vale até na Califórnia. O MIP foi uma política pública iniciada na era de Richard Nixon [presidente de 1969 a 1974]. Vieram outros presidentes e, no final do governo Clinton [1983-1992], ficou estabelecido que 75% dos agricultores americanos teriam de fazer MIP. Mas eles só atingiram de 4% a 8%. Não é fácil. Hoje há grandes empresas de controle biológico. A líder é a Koppert, holandesa. A segunda é a Biobest, belga. A terceira é a BioBee, de Israel. Atualmente as grandes multinacionais de inseticidas, como Bayer, Syngenta e Monsanto, também têm empresas de controle biológico. Onde se utiliza mais esse sistema é na Europa, sobretudo na Holanda e Espanha. O momento é mágico para o Brasil no controle biológico. Estou aposentado, fiz 70 anos no fim de 2014. Mas não paro de trabalhar por causa disso. Batalhei a vida toda e agora que é o momento de o controle biológico se firmar não vou parar. Mais recentemente uma vespa passou a ser usada para combater uma lagarta que ataca várias culturas no Brasil Central. A abordagem está dando certo? Em março de 2013, apareceu uma praga importante, a lagarta Helicoverpa armigera, em lavouras de Goiás. Ela ataca até 200 plantas hospedeiras e afeta cultivos como o de soja, algodão, laranja, café, entre outros. Não havia como controlar essa lagarta com produtos químicos. Os agricultores tiveram de usar o controle biológico, com o emprego de um vírus, o NPV, que combate a própria lagarta, ou de vespinhas do gênero Trichogramma, que atacam seus ovos. O problema é que, na ocasião, não havia disponibilidade de insetos para que todos usassem esse método. Agora começam a surgir empresas no Brasil dedicadas a fornecer produtos biológicos para esse mercado. Apenas dentro do programa Pipe [Pesquisa Inovativa em Pequenas Empresas]


arquivo Pessoal

Parra (à dir.) na Universidade de Illinois, nos Estados Unidos, em 1978, com Marcos Kogan, supervisor de seu pós-doutorado

da FAPESP, há 11 startups de controle biológico. A empresa Bug, de Piracicaba, saiu do meu laboratório. A ProMIP, que trabalha mais com ácaros, também se originou na Esalq, a partir dos trabalhos do professor Gilberto Moraes. Os jovens estão muito entusiasmados em montar empresas. Mas fico preocupado. Se as empresas não forem profissionalizadas, podem denegrir a imagem do controle biológico. Nosso trabalho tem de ser lento, mas seguro. Não se pode ter pressa. Quando há um erro, o agricultor demora para voltar ao controle biológico. Houve algum episódio emblemático nesse sentido no Brasil? Ocorreu algo assim na década de 1970 com o fungo Metarhizium. Um italiano que era assessor da FAO [Organização das Nações Unidas para a Alimentação e a Agricultura], Pietro Guagliumi, introduziu esse fungo no Nordeste, onde havia o problema da cigarrinha-da-cana-de-açúcar. Mas lá o problema era mais na folha da planta, enquanto em São Paulo era no sistema radicular. As cigarrinhas que causam esses problemas são muito parecidas. Começaram a usar o fungo no Nordeste e foi um sucesso. Mas logo surgiram empresas não sérias, que passaram a vender fungos contaminados. Depois disso, o controle biológico passou a não funcionar. Demorou anos para que o método voltasse a ser usado não só na região, mas em todo o Brasil. Que tipo de pragas agrícolas podem ser combatidas pelo controle biológico e quais não podem?

O MIP é como se fosse uma casa, que tem o alicerce composto por alguns itens. Tem que conhecer a influência do clima, a praga e o momento de controlá-la. Há quem confunda o inimigo natural com a praga agrícola. O inimigo natural também faz parte desse alicerce. É o responsável pelos níveis de mortalidade natural em um agrossistema. A praga tem um inimigo natural e este também tem ou­ tro ini­migo natural. Existe uma cadeia trófica. Tudo estaria em equilíbrio se não estivéssemos plantando um monte de soja, de cana, para atender as necessidades da alimentação humana. A monocultura causa desequilíbrios. Acima do alicerce da casa estão os métodos de controle das pragas, como o biológico, que podem usar também feromônios, o plantio de diferentes culturas agrícolas, produtos químicos e plantas transgênicas. Todas essas medidas visam manter as pragas em um nível abaixo do dano econômico, levando-se em conta, além do aspecto econômico, critérios sociais e ecológicos. Como disse, o controle biológico não é a solução para todos os problemas. Existem culturas em que pode ser mais utilizado e outras em que será menos. Em culturas em que há muitos insetos, é difícil usar o controle biológico. Nesse caso, a solução é usar produtos químicos seletivos, que matam a praga, mas não o inimigo natural. Há tabelas disponíveis para os agricultores com a recomendação desses produtos em diversas situações. Em algumas culturas, como batata, tomate e até algodão, os agricultores brasileiros empregam muito inseticida.

Essa é uma questão mais econômica ou cultural? O Brasil é o campeão no uso de produtos químicos na agricultura. O país tem uma cultura exclusivamente química, algo difícil de mudar. Esse é o grande problema. O agricultor diz que o avô e o pai sempre usaram inseticida. Ele quer ver o inseto que ataca a lavoura morto no chão depois de aplicar o veneno. Temos menos tradição de controle biológico que outros países da América Latina, como Peru, Colômbia e Venezuela, que foram muito motivados por pesquisadores da Califórnia. Nossa agricultura foi muito influenciada por quem trabalhava com produtos químicos. O DDT foi sintetizado em 1939 e se imaginou que todos os males da agricultura seriam resolvidos. Aí surgiu um grave problema. Houve desequilíbrios biológicos, poluição de águas. A bióloga americana Rachel Carson fez um livro famoso sobre esse tema em 1962, Primavera silenciosa. De 1940 aos anos 1960, houve um período negro para o controle biológico de pragas. Até que surgiu o MIP, que foi uma resposta da comunidade científica ao uso inadequado de defensivos, uma forma de controlar as pragas levando-se em conta os aspectos econômicos, que não podem ser deixados de lado, mas também os ecológicos e sociais. Quando surgiu o controle biológico? Ele é milenar. Os chineses usavam inimigos naturais para controlar pragas de citros antes de Cristo. O controle biológico como conhecemos hoje começou, na verdade, em 1888 na Califórnia. Riverside e Berkeley são os dois grandes centros. Existia ali uma praga séria de citros, o chamado pulgão-branco, que, na verdade, é uma cochonilha, a Icerya purchasi. Os americanos foram à Austrália, que era o provável local de origem do pulgão, pegaram a chamada joaninha-australiana (Rodolia cardinalis) e a introduziram na Califórnia. No ano seguinte, o caso foi considerado um sucesso. No Brasil, importamos o primeiro inseto em 1921. Foi introduzida em São Paulo uma vespa dos Estados Unidos, a Encarsia berlesei, que parasita a cochonilha-branca do pessegueiro. Mas a tentativa não deu certo. Houve vários episódios assim. Por volta de 1924, apareceu a broca-do-café, Hypothenemus hampei, um pequeno besouro de PESQUISA FAPESP 261 | 35


Parra com alunos na Esalq em 2004

origem africana que ataca essa cultura. Pesquisadores do Instituto Biológico e um professor da Esalq, Salvador de Toledo Piza Júnior, foram para a África e trouxeram uma vespa de Uganda, a Prorops nasuta, mas o controle da praga não deu muito certo. Por coincidência, há uns 20 anos me procuraram porque acharam essa vespa na região de Ribeirão Preto. Eles queriam multiplicá-la, já que hoje há técnicas para criá-las. Naquela ocasião, a técnica de criação dessa vespa também foi importada? Naquele tempo, não tinha técnica de criação. Era a época do chamado controle biológico clássico, em que tudo era feito de forma rudimentar, sendo possível criar alguns insetos de forma artesanal e sem nenhuma tecnologia. O pesquisador ia ao local de origem da praga, pegava seus inimigos naturais e os introduzia na plantação em que havia o problema. Como não existiam técnicas de criação dos insetos, eram introduzidos poucos inimigos naturais. Por isso, essa introdução é chamada de liberação inoculativa. Quando se libera uma pequena quantidade, não se tem uma resposta imediata. Os insetos precisam se multiplicar na natureza. Essa situação gerou uma imagem de que o controle biológico só dava resultado a longo prazo e em culturas perenes ou semiperenes. Hoje são usados mais os inimigos nativos, pois há muitas restrições para importar insetos. 36 | novembro DE 2017

O senhor tem a patente da produção de um semioquímico, um feromônio sexual usado no controle de uma praga de citros. Como isso foi obtido? Quem trabalha mesmo com feromônios é o José Maurício Simões Bento, meu colega de departamento na Esalq e vice-coordenador do Instituto Nacional de Ciência e Tecnologia de Semioquímicos na Agricultura, do qual sou coordenador. Temos uma patente do feromônio, que é usado no controle da mariposa Gymnandrosoma aurantianum, conhecida como bicho-furão dos citros. Essa mariposa coloca ovos no fruto e, quando eclodem, as lagartas penetram na laranja, que apodrece e cai. A fêmea dessa espécie produz uma substância, um feromônio, que atrai o macho para o acasalamento. Estudamos o comportamento sexual da fêmea para saber onde ela acasala na árvore e aprendemos a sintetizar em laboratório seu feromônio. Criamos uma armadilha com uma pastilha que libera aos poucos essa substância sintetizada e a colocamos na laranjeira. Assim, enganamos o macho e o atraímos para a armadilha. Essa pastilha foi criada por nossos parceiros da Universidade de Tsukuba, no Japão. Ela é envolta por um plástico – uma grande ideia tecnológica – que controla a liberação da substância por 30 dias. Se retirar o plástico, toda a liberação ocorre em um dia. Houve agricultores que arrancaram o plástico e vinham reclamar que o método não

Esses casos de controle com sucesso econômico estimulam a pesquisa na área? Outro dia estava falando com o presidente da Koppert, que está presente em 27 países e tem uma filial em Piracicaba. Ele me disse que usam controle biológico em 90% ou 95% das casas de vegetação da Holanda. São casas grandes, com 10 ou 20 hectares. Mas não dá para comparar com o Brasil. Aqui, no Centro-Oeste, apenas um produtor, por exemplo, pode ter 100 mil hectares de soja. Sempre digo em palestras que o Brasil é indiscutivelmente líder em agricultura tropical. Mas, em razão de nossas grandes extensões, a agricultura tropical é perversa para o controle biológico. Temos de desenvolver um modelo para o controle biológico tropical. Não dá para liberar insetos manualmente em 100 mil hectares. Tem de usar drone, avião. Não dá para andar em 100 mil hectares de soja para saber a hora certa de liberar os insetos. É necessário sensoriamento remoto para acompanhar essa questão. Ainda estamos engatinhando nisso. Mas nossos programas de controle biológico estão entre os maiores do mundo em termos de área manejada. Como surgiu seu interesse pela entomologia? Fiz o científico [uma das variações do antigo ensino médio, com ênfase nas ciências exatas e naturais], tinha uma tendência muito forte para a área biológica e imaginava ser médico. Morava em Campinas e era vizinho do IAC [Instituto Agronômico]. Minha casa era a primeira depois do IAC. No último ano do científico, participei de uma excursão à Esalq e me encantei pela escola. Fiz o cursinho e fui estudar agronomia lá em 1964, sempre com a ideia de ficar no IAC. Durante a faculdade, eu ia para o instituto nos fins de semana e nas férias, quando estava em Campinas. No segundo ano de agronomia, comecei a trabalhar com entomologia. Fui bolsista de iniciação

arquivo Pessoal

funcionava. Tivemos de fazer palestras e convencer o pessoal a não retirá-lo. Em 10 anos, com o uso desse método de controle biológico, que custou US$ 50 mil dólares para ser desenvolvido, os agricultores paulistas deixaram de gastar US$ 1,3 bilhão com a aplicação desnecessária de inseticidas.


científica do CNPq [Conselho Nacional de Desenvolvimento Científico e Tecnológico]. Quando me formei, em 1968, tinha até uns trabalhinhos publicados. Entrei no IAC meio ano depois de formado através de um concurso. No IAC já trabalhavam com controle biológico? Comecei em uma área um pouco diferente, que é a resistência de plantas a insetos, com a broca-do-algodoeiro [Eutinobothrus brasiliensis]. Fiz o mestrado lá, mas frequentava a Esalq. Eu buscava o genótipo do algodoeiro que é resistente à broca. Mas acabei saindo da área de entomologia e fui para a de climatologia do IAC estudar a influência dos fatores climáticos no desenvolvimento de insetos. Ainda trabalhando no IAC, fiz o doutorado também na Esalq sobre o bicho-mineiro-do-café, a mariposa Leucoptera coffeella, que ataca as folhas desse cultivo. Em 1974, fui convidado para ir à Esalq. Naquela época, não havia concurso na universidade. Fui a convite e comecei a trabalhar com biologia de insetos. Em seguida, entre 1977 e 1978, fiz pós-doutorado na Universidade de Illinois, nos Estados Unidos. Depois que voltei ao Brasil comecei a trabalhar com controle biológico. Na Esalq, já havia uma tradição de controle biológico em entomologia. O professor Domingos Galo, catedrático, já o usava no cultivo de cana-de-açúcar. Durante o pós-doc nos Estados Unidos, estudei dietas artificiais para insetos. Fui pioneiro nessa área no Brasil, que é a base para o controle biológico. Para criar o inimigo natural, é preciso saber como criar a praga. Desenvolvi essa área, que era tabu no Brasil, pois os componentes eram todos importados. Tive de desenvolver uma tecnologia de criação adaptada às nossas condições. Hoje existem leis que regulam o uso do controle biológico no país? Como existe muito desconhecimento, nossas leis são totalmente baseadas no uso de produtos químicos. Queriam pôr até caveira nos produtos biológicos como se faz com os químicos. O processo de aprovação é demorado, mas está melhorando. Hoje há 41 produtos biológicos à espera de aprovação dos três órgãos públicos responsáveis por esse processo, o Mapa [Ministério da Agricultura

O Brasil tem uma cultura de uso de produtos químicos. O agricultor diz que o pai e o avô usavam inseticida

Pecuária e Abastecimento], a Anvisa [Agência Nacional de Vigilância Sanitária] e o Ibama [Instituto Brasileiro do Meio Ambiente e dos Recursos Naturais Renováveis]. Há também uma entidade que reúne as empresas do setor, a Associação Brasileira de Controle Biológico, mais conhecida como ABCBio, da qual participo como integrante do comitê técnico. Damos conselhos sobre como fazer o controle de qualidade do setor. Não se pode deixar que as empresas cuidem disso, tem de ser feito por um órgão ligado a uma universidade ou a algum centro de pesquisa. Hoje ainda não existe um controle de qualidade independente para os produtos biológicos. O senhor participa de alguma dessas empresas? Não. Acompanhei e incentivei a formação da Bug. No Brasil todo, dizem que sou dono da empresa, mas é porque ela saiu de ex-alunos e de um técnico que trabalhou em meu laboratório. Hoje existem diversas empresas e tenho apenas ligações científicas com todas elas.

Qual sua opinião sobre a agricultura orgânica? Ela pode ter seu espaço. Hoje há até grandes grupos econômicos nesse setor. Mas acho que falta conhecimento de quem pratica esse tipo de agricultura. Não há muitas possibilidades para ser exclusivamente orgânico. As pessoas têm muitas dúvidas. Mas é um mercado interessante, com potencial. Falta pesquisa na área. Tem muito romantismo, poesia e ideologia. Os produtores orgânicos usam controle biológico? Que eu saiba, usam pouco. Falam muito, mas usam pouco. O senhor acha que a agricultura orgânica pode ser uma alternativa de produção em larga escala ou ela se presta a projetos pequenos? Essa questão tem a ver com os desafios de desenvolver um controle biológico tropical. Como as áreas orgânicas não são tão grandes, seria até mais fácil usar o controle biológico nessas propriedades. Mas, na agricultura orgânica, há questões problemáticas com relação ao crescimento da planta, pois não usam fertilizantes e o cultivo apresenta menos vigor. A não utilização de insumos os leva a lidar com outros problemas e o controle biológico acaba passando despercebido. Há pouca gente no mundo pesquisando a agricultura orgânica. O senhor é a favor dos cultivos transgênicos? Hoje na literatura científica não há, por enquanto, nenhum malefício atribuído aos transgênicos. Acho que eles são uma medida de controle como outra qualquer, mas têm um período de eficácia limitado. Em pouco tempo, há seleção de insetos resistentes ao transgênico e será necessário produzir outro transgênico. É como ocorre com as antigas variedades de cultivo que acabam sendo substituídas por novas variedades, mais resistentes a pragas. Não sou contra o transgênico; sou contra dizer que é a solução de todos os problemas. A cana transgênica não vai ser o fim do controle biológico no setor, como alguns dizem. Sempre “surgem” pragas resistentes. A soja transgênica controla a lagarta Helicoverpa armigera, mas não o percevejo e outras pragas. Para esses, será necessário adotar alguma outra medida biológica. n PESQUISA FAPESP 261 | 37


política c&T  Doação y

Leilão

pela ciência A relações-públicas May Rubião deixou parte de sua herança para a FAPESP financiar pesquisas sobre células-tronco Fabrício Marques

Em primeiro plano, Natureza morta, de Aldo Bonadei; ao lado, A grande cidade azulada, de Antonio Bandeira, e Fachada, de Alfredo Volpi


A

fotos  léo ramos chaves

doação de um conjunto de 70 obras de arte, joias, móveis e objetos de decoração vai ajudar a financiar a pesquisa em genética no país. O testamento da relações-públicas May Nunes de Souza Rubião, que morreu em fevereiro aos 94 anos, legou à FAPESP uma parte de seus bens avaliada em cerca de R$ 3 milhões, com a condição de que fossem leiloados e os recursos revertidos para um fundo de endowment de apoio a pesquisas com células-tronco com foco na prevenção e no tratamento de doenças degenerativas. O leilão aconteceu na noite de 24 de outubro, conseguiu vender mais da metade dos lotes ofertados e arrecadou cerca de R$ 540 mil. O item mais caro arrematado foi uma natureza-morta pintada em 1970 pelo artista paulistano Aldo Bonadei (1906-1984), que tinha preço mínimo de R$ 180 mil e, após 26 lances em um duelo de interessados, foi adquirido por R$ 305 mil. May Rubião fora a única dona do quadro, comprado de Bonadei, de quem também tinha outras obras. As peças mais baratas leiloadas foram um paliteiro de prata, um candelabro e um tapete, por R$ 1 mil cada um. Entre os lotes mais disputados, destacaram-se um adereço em prata do século XVIII, vendido por R$ 7,5 mil, e uma escultura em bronze de um cavalo, arrematada por R$ 3,3 mil. Nos dias seguintes ao leilão, várias peças não vendidas foram negociadas com antiquários e galerias de arte. No início de novembro, 57 das 70 peças haviam sido compradas, inclusive a mais valiosa delas: o óleo sobre tela A grande cidade azulada, obra do pintor cearense Antonio Bandeira (1922-1967), exibida na 2ª Bienal de São Paulo, em 1953, adquirida por R$ 1,67 milhão. No total, foi arrecadado pouco mais de R$ 3 milhões. Como ainda há peças à venda, a expectativa é de que até fevereiro se tenha uma ideia exata dos recursos arrecadados. A quantia vai determinar a forma de aplica-

Na segunda metade do século XX, universidades recebiam o patrimônio de quem não deixava herdeiros

ção de recursos. “O ideal seria criar um fundo de longo prazo, administrado pela FAPESP, em que apenas os dividendos fossem revertidos na concessão de duas ou três bolsas ou projetos de pesquisa, sem mexer no montante principal. Mas para tanto seria necessário arrecadar um volume superior a R$ 5 milhões”, diz o arquiteto José Moraes, sobrinho de May Rubião e responsável pelo inventário. Segundo o procurador-chefe da FAPESP, Gustavo Mônaco, foi a primeira vez que a FAPESP recebeu uma doação em testamento. “Não há registro, desde a criação da Fundação, em 1962, de alguma outra doação desse tipo”, afirma o procurador. A FAPESP é financiada por recursos do Tesouro Estadual – a Constituição de 1989 determina que 1% da receita tributária paulista seja destinado à Fundação –, além de receitas próprias e de repasses de agências, instituições e empresas com as quais mantém acordos e convênios. Em 2016, foi investido R$ 1,137 bilhão em mais de 24 mil projetos de pesquisa.

Cavalo, escultura de bronze patinado em negro, obra de Caetano Fraccaroli pESQUISA FAPESP 261  z  39


Nos Estados Unidos e na Europa não é incomum que empresários e filantropos destinem parte de seu patrimônio à pesquisa na forma de doações a universidades ou instituições científicas ou na criação de fundações que administram grandes dotações. No Brasil, já há alguns exemplos, mas ainda são isolados (ver Pesquisa FAPESP nº 219). O caso mais significativo, pelos valores envolvidos, é do Instituto Serrapilheira, criado neste ano para administrar um fundo patrimonial de R$ 350 milhões doado pelo casal João e Branca Moreira Salles para investir em projetos de pesquisa de diversas áreas do conhecimento (ver Pesquisa FAPESP nº 254).

D

ois projetos de lei que tratam de fundos de endowment tramitam no Congresso Nacional. Um deles, aprovado no Senado em setembro e enviado à Câmara dos Deputados, busca regulamentar a gestão de doações a universidades. O texto original, de autoria da senadora Ana Amélia (PP-RS), estabelecia que recursos doados a instituições públicas de ensino e pesquisa seriam administrados por fundos de endowment, como os que já existem em algumas universidades e recebem dotações de ex-alunos. Mas o modelo foi alterado em um projeto substitutivo do 40  z  novembro DE 2017

Dois projetos de lei que tramitam no Congresso propõem regular o funcionamento de fundos de endowment

senador Armando Monteiro (PTB-PE) e incorporou a possibilidade de fundações administrarem os recursos. O segundo projeto fez o caminho inverso: foi aprovado na Câmara também em setembro e enviado ao Senado. De autoria da deputada Bruna Furlan (PSDB-SP), o texto trata de fundos de endowment em universidades federais. Prevê que fundos serão criados em cada instituição para administrar recursos de doações ou outras fontes e esse dinheiro será utilizado obrigatoriamente no financiamento de pesquisa e extensão universitária. A possibilidade de as doações serem direcionadas para setores ou atividades a pedido do doador foi retirada na proposta. No século passado, chegou a haver uma tradição no país de legar a universidades públicas o patrimônio de pessoas que morrem sem deixar herdeiros. Um decreto-lei de 1945 estabeleceu que


fotos  léo ramos chaves

Anjo barroco português (à esq.); aparador do século XVII com objetos da coleção; broche e brincos em platina e brilhantes (acima); e escultura em bronze patinado, obra de Bruno Giorgi (abaixo)

as chamadas heranças vacantes cabiam aos estados e deveriam ser investidas no ensino superior. No caso de São Paulo, a USP começou a receber esse tipo de patrimônio em 1957 e, a partir de 1985, dividiu a primazia com as estaduais de Campinas (Unicamp) e Paulista (Unesp). Em 1990, contudo, houve uma mudança na lei e os municípios tornaram-se os beneficiários das heranças vacantes. A doação de acervos e de obras de arte a universidades é relativamente comum e esse tipo de patrimônio acaba revertido para museus e bibliotecas. Um dos exemplos mais conhecidos foi a doação, em 1962, das coleções dos mecenas Yolanda Penteado e Ciccillo Matarazzo, que hoje compõem o acervo do Museu de Arte Contemporânea (MAC) da USP. Há quatro anos, a USP inaugurou a Biblioteca Brasiliana Guita e José Mindlin, composta por uma coleção de 32 mil livros, obras raras na maioria, legada pelo empresário José Mindlin (1914-2010). May Rubião trabalhou durante mais de 40 anos como relações-públicas da Metal Leve, empresa fundada por Mindlin. Segundo o sobrinho José Moraes, ela se inspirou no exemplo do empresário. “Minha tia era uma mulher de vanguarda, que se formou em letras e em ciências sociais nos primeiros anos da USP. Numa época em que as mulheres ainda

não trabalhavam, ela se interessou pelas relações públicas, tornando-se uma precursora dessa área no Brasil, e fez estágios em Washington, Londres e Paris”, conta. Casou-se com o advogado João Álvares Rubião Neto (1915-2010), de uma família de cafeicultores do município de Bananal – alguns móveis oferecidos no leilão pertenciam à Fazenda Resgate, que pertenceu a seus antepassados. O casal não teve filhos. A ideia de deixar parte do patrimônio para estudos sobre células-tronco, diz o sobrinho, tem a ver com o interesse da relações-públicas em incentivar a pesquisa na fronteira do conhecimento. “Ela considerava uma causa nobre ajudar a sociedade a vencer o ônus das doenças degenerativas”, afirma.

M

oraes tentou convencer a tia a fazer a doação ainda em vida. “Ela tinha uma personalidade forte e não queria se desfazer da coleção que reuniu de forma cuidadosa ao longo da vida”, explica, lembrando que ela foi amiga do pintor Antonio Bandeira quando ambos moraram em Paris. Segundo ele, May Rubião tomou a decisão de reverter sua coleção para pesquisas em células-tronco e, em busca de referências, foi pedir orientação a Celso Lafer, então presidente da FAPESP, com quem conviveu na Metal Leve – os Lafer eram

sócios da empresa. “Ela me consultou e eu recomendei a FAPESP, que poderia administrar os recursos de forma mais eficiente”, lembra Celso Lafer. “A doação é um bom precedente e pode servir de exemplo para outras pessoas.” Segundo Lafer, a ciência, a tecnologia e a universidade eram referências importantes para May Rubião. “Quando estudou na USP, ela conviveu com pesquisadores como Mário Wagner Vieira da Cunha e Juarez Brandão Lopes. Na Metal Leve, acompanhou de perto a criação de um centro pioneiro de desenvolvimento tecnológico e também era cunhada do físico e professor da USP Abrahão de Moraes”, afirma. Há dois anos e meio, May Rubião informou a FAPESP de que ela era parte de seu testamento. De acordo com o procurador Gustavo Mônaco, o exemplo de May Rubião talvez não seja por muito tempo um caso isolado na história da FAPESP. Ocorre que, recentemente, a Fundação foi informada de que será beneficiária do testamento de uma mulher que não tem herdeiros. “Não conhecemos os detalhes, mas sabemos que tem alguns imóveis e que decidiu deixá-los para a Fundação por considerar nobre a destinação dos recursos para pesquisa. E essa senhora não foi influenciada pelo testamento da May Rubião, pois não sabia de sua existência”, diz Mônaco. n pESQUISA FAPESP 261  z  41


Financiamento y

3 Equilíbrio no 1 0 9 3 Parlamento 1 0 Influência do Congresso na definição do orçamento de pesquisa dos Estados Unidos evita cortes drásticos no investimento científico Bruno de Pierro

P

erto de completar um ano, o governo do presidente dos Estados Unidos, Donald Trump, ainda não conseguiu aprovar o orçamento para o ano fiscal que se iniciou no dia 1º de outubro. O atraso ocorre porque a proposta de Trump enviada em fevereiro ao legislativo permanece em discussão no Congresso. Um sinal de avanço foi dado no dia 19 de outubro, quando o Senado aprovou um projeto de orçamento de US$ 4 trilhões. Agora em análise na Casa dos Representantes – a Câmara dos Deputados do país –, o plano mantém os níveis do ano anterior, embora amplie os recursos para o setor de defesa. No caso do desembolso em pesquisa e desenvolvimento (P&D), a proposta de Trump previa um corte de aproximadamente 5% em relação ao orçamento anterior. O Congresso, porém, já sinalizou que não deve aceitar tamanha redução. Em outubro, a Casa dos Representantes havia proposto um orçamento de US$ 164 bilhões para P&D – cerca

42  z  novembro DE 2017

de US$ 15 bilhões superior ao proposto por Trump e US$ 12 bilhões a mais em relação ao montante executado em 2016. Matthew Hourihan, diretor do Programa de Orçamento e Política em Pesquisa e Desenvolvimento da Associação Americana para o Avanço da Ciência (AAAS), explica que a distribuição dos recursos de pesquisa nos Estados Unidos apresenta uma especificidade importante. “Os investimentos públicos em ciência e tecnologia são conduzidos analisando cada departamento, como defesa, energia e saúde, e a repartição do orçamento de pesquisa é negociada em comitês setoriais no Congresso”, diz. Essa característica contribui para que o processo de definição do orçamento norte-americano restrinja o poder discricionário do Executivo, analisa Fernanda De Negri, economista do Instituto de Pesquisa Econômica Aplicada (Ipea), que atualmente faz estágio de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT). “O Congresso exerce um papel central na


A definição do orçamento federal nos EUA em 6 etapas

1 O presidente envia ao Congresso uma proposta de orçamento na primeira semana de fevereiro. Ela estabelece os gastos em

3

todas as áreas da administração

2

federal no ano fiscal que começa

Os comitês de orçamento da

Casa dos Representantes e do

no dia 1º de outubro

Casa dos Representantes e do

Senado são discutidas em 12

As propostas do governo, da

Senado apresentam e votam

subcomitês no Congresso, como

propostas de orçamento.

defesa, educação, saúde e P&D.

As resoluções fixam limites de

Em audiências, líderes de

gastos, mas não definem

agências governamentais

verbas específicas para cada

defendem seus orçamentos

programa de governo

5 4

A

Aprovar um Omnibus Bill, um projeto de lei que

Na prática, poucas dessas

incorpora, ao mesmo

leis são votadas em um

tempo, várias Leis de

Cada subcomitê submete um

primeiro momento.

Apropriação. O objetivo

projeto de lei estabelecendo limites

Em geral, por falta de

é aprovar, de uma só vez,

de gastos e repasses de verbas

consenso. Para que o

um conjunto de propostas

para seu respectivo setor.

governo possa dar início ao

setoriais

Um comitê analisa as propostas e

ano fiscal, o Congresso pode

as envia para o Congresso.

usar duas estratégias:

B Aprovar uma Resolução

No total, devem ser votadas

de Continuidade, que

12 leis, as Leis de Apropriação

autoriza o governo a iniciar o ano fiscal mantendo, temporariamente,

6

os gastos nos níveis do ano fiscal anterior

ilustraçãO nelson provazi

Depois que as casas do Congresso aprovam seus projetos, um comitê especial se reúne para resolver as diferenças entre as duas versões do orçamento. Após a fase de conciliação, é aprovada uma versão final, que segue para a sanção presidencial pESQUISA FAPESP 261  z  43


Robert Lightfoot, chefe interino da Nasa, discute o orçamento da agência em evento realizado em maio

destinação dos recursos federais”, observa Fernanda, autora de um estudo sobre o orçamento científico nos Estados Unidos. Nessa dinâmica, os orçamentos das agências federais podem ser discutidos separadamente nos comitês do Congresso. “As negociações permitem, por exemplo, que o diretor da Agência de Pesquisa Avançada de Defesa [Darpa] vá ao Congresso e defenda seu orçamento. Essa abertura ajuda a Casa dos Representantes e o Senado a ter uma visão mais realista das demandas dos órgãos federais”, explica ela. Esse modelo é diferente do adotado no Brasil, onde o orçamento é autorizativo, observa a pesquisadora. “O Congresso brasileiro autoriza o teto do que pode ser gasto pelo governo. Mas a definição referente a contingenciamentos, limites de pagamentos e divisão dos recursos fica restrita a uma discussão interna do poder Executivo.” aumento para poucos

Segundo Matthew Hourihan, apenas algumas grandes agências norte-ameri44  z  novembro DE 2017

canas, como os Institutos Nacionais de Saúde (NIH) e a espacial, a Nasa, deverão ter algum aumento de recursos neste ano fiscal. “Já o orçamento da maioria das outras agências e programas científicos será mantido ou declinará um pouco”, adverte. Ele observa que o reconhecimento da população e dos congressistas conquistado ao longo das décadas por instituições como os NIH e a Nasa tem sido determinante para impedir que sofram restrições orçamentárias. “A pesquisa em saúde sempre teve alcance social e a Nasa é uma agência que está no imaginário dos eleitores, servindo como fonte de prestígio nacional.” Os impasses costumam surgir, conta Hourihan, no momento de definir as verbas no âmbito das aplicações da ciência. Por exemplo, programas de pesquisa em tecnologias na área de energia algumas vezes são acusados pelos parlamentares de subaproveitar o investimento privado. Já programas de pesquisa em meio ambiente realizados pela Environmental Protection Agency (EPA) enfrentam re-

sistências crescentes no governo Trump, que costuma minimizar o impacto das mudanças climáticas. No caso dos NIH, um subcomitê do Senado já aprovou um aumento de US$ 2 bilhões, elevando o orçamento para US$ 36,1 bilhões no ano fiscal de 2018. Essa proposta representa um crescimento de 6% em relação ao ano anterior e contrasta com o corte de 22% que a administração Trump propusera para a agência. O projeto do Senado também bloqueou uma proposta para reduzir verbas dos NIH destinadas a cobrir custos de pesquisa nas universidades. “Nos Estados Unidos, o poder Legislativo é protagonista na definição orçamentária”, avalia Hourihan. “O país tem um sistema presidencial com divisão de poderes que confere ao Legislativo um poder substancial no processo orçamentário, em comparação com outros sistemas nos quais o Executivo tem mais controle.” Nem sempre foi assim. Até 1974, o Congresso não tinha um processo formal para estabelecer o orçamento federal. No início de seu mandato, em 1969, o presidente Richard Nixon (1969-1974) recusou-se a gastar parte dos fundos atribuídos pelos congressistas. Diante do impasse, foi criado o Escritório de Orçamento do Congresso, como forma de aumentar o controle parlamentar sobre a execução dos recursos. Desde então, os gastos são definidos por categorias, tais como saúde, educação, energia e defesa. O processo segue um fluxo que se inicia em fevereiro. “Nesse mês, o presidente apresenta uma proposta ao Congresso para o próximo ano fiscal, que começa em outubro e vai até setembro do ano seguinte”, explica Geraldo Zahran, professor do Departamento de Relações Internacionais da Pontifícia Universidade Católica de São Paulo (PUC-SP) e pesquisador do Insti-

Bill Ingalls / NASA

A polarização política nos Estados Unidos contribui para tornar sinuoso o processo de definição do orçamento


prorrogações

“Em tese, cada comitê deve aprovar os projetos nas suas respectivas áreas, para que eles possam ser votados e, uma vez aprovados, sigam para sanção ou veto presidencial ainda no primeiro semestre. Mas, na prática, poucas dessas leis são votadas”, diz Zahran. Quando isso acontece, os congressistas têm duas opções. A primeira é aprovar um omnibus spending bill, um projeto que incorpora várias Leis de Apropriação de uma só vez, como forma de definir um pacote antes do início do ano fiscal em outubro. A segunda opção é o que ocorreu este ano: diante da demora em aprovar uma proposta de orçamento, os congressistas votaram um acordo provisório que mantém temporariamente o orçamento nos níveis do ano anterior. “O acordo dura até dezembro e foi necessário para que o governo pudesse começar o ano fiscal sem o risco de um apagão orçamentário”, sublinha Hourihan. Segundo o diretor da AAAS, a polarização política nos Estados Unidos, sustentada por um sistema baseado em dois partidos – o Democrata e o Republicano –, contribui para que o processo orçamentário se torne sinuoso. Em 2011, por exemplo, um corte que prometia ser dramático acabou reduzido depois de um acordo entre o governo

Visões divergentes A evolução dos valores do orçamento para Pesquisa e Desenvolvimento (P&D) propostos pelo executivo e pela Casa dos Representantes para o próximo ano fiscal em relação ao orçamento executado em 2017 (em %)

Pesquisa básica

Pesquisa aplicada

Desenvolvimento

Infraestrutura de P&D (facilities)

Orçamento total em P&D

5%

0%

5%

10%

15%

n n

Proposta do governo Proposta da Casa dos Representantes

e os parlamentares. Mas, para chegar a esse acerto, o Congresso aprovou uma lei conhecida como Budget Control Act. “Essa lei encerrou a crise orçamentária causada pela disputa entre democratas e republicanos sobre o nível aceitável de gasto público e instituiu novos mecanismos de controle dos gastos por parte do Congresso”, recorda Fernanda De Negri, do Ipea. Entre os mecanismos, foi estabelecido um teto para os gastos em cada área do orçamento. O acordo poupou agências de fomento à pesquisa de grandes sacrifícios. Houve uma redução de US$ 38,5 bilhões do orçamento da União de 2011 em relação ao nível de 2010. Uma proposta aprovada pelos deputados em fevereiro de 2011, mas rejeitada pelo Senado, havia previsto um corte geral bem maior, de US$ 61 bilhões, que ameaçava causar grande prejuízo, principalmente à pesquisa básica. Um dos dispositivos criados pelo Budget Control Act, chamado de budget sequestration, ou “sequestro”, passou a permitir o contingenciamento automático dos gastos públicos. Por meio dessa ferramenta, sempre que o Congres-

Fonte aaas

so aprovar um orçamento que exceda o nível máximo estabelecido em determinada área, todos os departamentos e programas dessa categoria sofrem um corte linear e automático dos recursos. “A queda nos gastos do governo e a criação do budget sequestration afetou os investimentos em pesquisa em 2011”, diz Fernanda. No final, a perda de recursos das agências científicas ficou em torno de 1% – de todo modo, o maior corte já registrado nas décadas anteriores (ver Pesquisa FAPESP nº 183). Na avaliação de Geraldo Zahran, a possibilidade do sequestro hoje é remota. A Casa dos Representantes propôs um grande aumento, por exemplo, nos gastos de defesa, cerca de US$ 72 bilhões a mais do que o orçamento anterior. Hourihan adverte, no entanto, que o Congresso teria de votar uma lei que autorizasse o aumento dos limites dos gastos. Se isso não ocorrer e a proposta da Câmara se tornar lei, um “sequestro” seria desencadeado para as despesas de defesa a fim de atender a legislação de 2011. “Mas isso não afetaria programas de pesquisa em outras áreas”, observa Hourihan. n pESQUISA FAPESP 261  z  45

versão atualizada em 8/12/2017

tuto Nacional de Ciência e Tecnologia para Estudos sobre os Estados Unidos. Em seguida, o Congresso inicia as discussões sobre o orçamento. “Entre março e abril, os debates chegam aos comitês setoriais tanto da Casa dos Representantes quanto do Senado. É nesse momento que o orçamento começa a ser debatido para cada área”, pontua Zahran. Ao final desse processo, os comitês precisam aprovar as chamadas Leis de Apropriação, cada uma correspondendo a uma ou mais áreas. No total, devem ser aprovadas 12 leis: Agricultura, Desenvolvimento Rural e Administração de Alimentos e Medicamentos; Comércio, Justiça e Ciência; Defesa; Energia e Águas; Serviços Financeiros e Governo Geral; Segurança Interna; Meio Ambiente; Trabalho, Serviços Humanos e de Saúde e Educação; Poder Legislativo; Construção Militar e Assuntos dos Veteranos; Operações Estaduais e Estrangeiras; Transporte, Habitação e Desenvolvimento Urbano.


Gênero y

Para desafiar estereótipos Projetos buscam estimular interesse de alunas do ensino médio pelas ciências exatas

46  z  novembro DE 2017

crições já estão concluídos e receberam cada um R$ 30 mil. As propostas foram submetidas por grupos de mulheres, coletivos feministas, grupos de pesquisa, associações de pais e mestres e outras organizações, em parceria com escolas públicas de ensino médio. Umas das exigências do edital era que os projetos envolvessem a comunidade escolar. “Na educação pública há uma enorme diferença entre meninos e meninas quando se trata de ciências exatas”, afirma a cientista política Kelly Kotlinski Verdade, conhecida como K. K. Verdade, coordenadora executiva do Fundo ELAS, que é apoiado por empresas, como a Chevron, e fundações do país e do exterior, como a Fundação Ford. Ela menciona como exemplo a última edição do Programa Internacional de Avaliação de Estudantes (Pisa), segundo o qual as meninas apresentaram desempenho pior que o dos meninos em disciplinas como química, física e matemática. “Isso tem reflexo na pesquisa científica. Nessas áreas, a proporção de mulheres já é baixa na graduação e tende a cair ao longo da pós-graduação e da carreira docente”, observa K. K. Verdade. Dados divulgados no início do ano pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) mostram que a participação das mulheres não ultrapassa 30% das bolsas financiadas

1

pelo órgão nas áreas de ciências exatas e da Terra, engenharias e computação. Em São Paulo, um levantamento da FAPESP indica que, embora o número de submissões de projetos por pesquisadoras tenha quase dobrado entre 2000 e 2016, o menor índice de participação feminina ocorre nas ciências exatas e nas engenharias (ver Pesquisa FAPESP nº 259). Um novo edital do Elas nas Exatas foi lançado no dia 24 de outubro e recebe projetos até 28 de novembro. “Não queremos, com isso, criar uma pressão para que todas as meninas escolham fazer graduação em exatas, mas apenas que elas saibam que as exatas são uma opção viável”, esclarece a cientista política. De acordo com os organizadores, os projetos alcançaram mais de mil alunas do ensino médio. Embora o número

fotos  1, 2 e 4  fundo elas 2 e 5  roberto ribeiro

B

árbara Gomes, aluna do último ano de engenharia de produção da Universidade Federal de São João del-Rei (UFSJ), em Minas Gerais, criou com colegas, no ano passado, o projeto Mulheres na Engenharia, que envolveu mais de 100 alunas de ensino médio de uma escola estadual da cidade na construção do protótipo de um carro para competir na Fórmula SAE, uma prova de veículos elétricos desenvolvidos por estudantes de graduação e promovida pela Sociedade dos Engenheiros da Mobilidade (SAE). “Quando eu era criança, não gostava muito de bonecas e sempre me interessei por matemática. A escolha por engenharia foi inevitável”, conta Bárbara. Aos 23 anos, a universitária está convencida de que a baixa participação de mulheres em carreiras científicas e tecnológicas ocorre por falta de estímulos desde a educação básica. “Crescemos ouvindo aquele estereótipo de que meninas não são boas em raciocínio lógico”, comenta. O projeto de São João del-Rei foi um dos contemplados pelo edital Elas nas Exatas, lançado em 2015 pelo Instituto Unibanco, o Fundo ELAS e a Fundação Carlos Chagas, com o objetivo de financiar iniciativas que reduzam o impacto da desigualdade de gênero nas escolhas profissionais das estudantes. Os 10 projetos selecionados entre mais de 170 ins-


Alunas participam da construção de um carro de competição na Universidade Federal de São João del-Rei, em Minas Gerais

2

seja limitado, a organização estima que mais de 12 mil pessoas, entre familiares e amigos, tenham se envolvido de forma indireta com as iniciativas apoiadas pelo edital. Em São João del-Rei, o intuito do projeto Mulheres nas Engenharias foi apresentar o ambiente de pesquisa às estudantes do ensino médio. Os R$ 30 mil do edital foram destinados à compra de materiais como cilindros de aço, fibra de vidro e gás para soldagem. As atividades práticas ajudaram a desmistificar o universo da engenharia. “As meninas aprenderam a soldar ligas de metal, além de acompanhar as etapas de montagem de um carro”, conta Bárbara. O trabalho na oficina da UFSJ encorajou as estudantes a conversar sobre assuntos como assédio sexual e igualdade de gênero no espaço acadêmico. “Percebemos que muitas adolescentes temem o assédio. E o medo de não serem respeitadas pode levar muitas delas a evitar profissões predominantemente masculinas”, avalia.

Atrizes encenam peça sobre mulheres cientistas para estudantes em Florianópolis

Outro projeto apoiado pelo Elas nas Exatas recorreu ao passado da ciência para discutir o papel das mulheres na construção do conhecimento. Em salas de aula do Instituto Estadual de Educação de Santa Catarina, em Florianópolis, estudantes do segundo ano do ensino médio foram instigados a citar nomes de cientistas que entraram para a história da ciência. O físico alemão Albert Einstein (1879-1955), o matemático inglês Isaac Newton (1643-1727) e o astrônomo italiano Galileu Galilei (1564-1642)

são alguns dos personagens lembrados. Quando perguntados se também conheciam mulheres cientistas, nenhum nome era mencionado pelos estudantes, que participaram de uma peça interativa encenada pela (Em)Companhia de Mulheres, um coletivo de pesquisa teatral feminista. Durante uma hora e meia, as atrizes e pesquisadoras Rosimeire Silva, Drica Santos e Priscila Mesquita interpretam mulheres que se destacaram na ciência em diferentes épocas, entre elas a matemática inglesa Ada Lovelace (1815-1852), a química polonesa Marie Curie (1867-1934) e a astronauta norte-americana Mae Carol Jemison. A ideia é dar visibilidade a pesquisadoras de destaque nas ciências exatas. “Trata-se de uma oportunidade de promover essa reflexão, utilizando a potência da linguagem lúdica do teatro, e de mostrar às jovens que elas podem ser o que quiserem”, diz Rosimeire. Os recursos disponibilizados pelo edital foram utilizados pela equipe do (Em) Companhia de Mulheres para realizar a pesquisa, produzir o figurino das atrizes e comprar material para cenário. Em um ano, foram feitas 12 apresentações para mais de 600 alunos do Instituto Estadual de Educação de Santa Catarina. Atualmente, a peça esteve em cartaz no Sesc Prainha, no centro de Florianópolis. “O público também é formado por meninos. É importante que todos façam parte dos debates”, argumenta Rosimeire. No Rio de Janeiro, o Elas nas Exatas ajudou a impulsionar o projeto Tem Me-

2

4

5

pESQUISA FAPESP 261  z  47


fotos  fundo elas

Coletivo feminista de São Paulo produziu uma websérie sobre a participação de mulheres negras na ciência

nina no Circuito, uma colaboração entre um grupo de professores do Instituto de Física da Universidade Federal do Rio de Janeiro (UFRJ) e a Escola Estadual Alfredo Neves, em Nova Iguaçu. Cerca de 20 alunas do ensino médio participaram de oficinas de eletrônica e programação. “As adolescentes aprenderam a montar circuitos elétricos e alguns conceitos de mecatrônica”, relata Thereza Cristina Lacerda Paiva, professora da UFRJ e coordenadora do projeto. Nessas oficinas, ela explica, as estudantes chegaram a desenvolver sistemas mais complexos, como um motor cujos movimentos, programados por softwares, são ativados por sensores. As atividades ocorreram na escola e em laboratórios da UFRJ. “Foi importante levar as garotas para conhecer a universidade e ver de perto alguns equipamentos utilizados em pesquisas”, salienta Thereza, lembrando que a escola está localizada em uma área pobre de Nova Iguaçu. “A tendência dos estudantes da Escola Estadual Alfredo Neves é terminar o ensino médio e não prosseguir para a graduação.” As alunas visitaram ainda o Museu de Astronomia e Ciências Afins (Mast) e foram à Fundação Oswaldo Cruz (Fiocruz) assistir a uma palestra sobre genômica. Diferenças assinaladas

Entre fevereiro e junho de 2016, os projetos selecionados no edital receberam a visita de pesquisadoras da Fundação Carlos Chagas, que avaliaram o perfil dos estudantes das escolas envolvidas. 48  z  novembro DE 2017

As atividades práticas ajudam a desmistificar o universo das engenharias para as meninas

Foram aplicados questionários a 2.569 estudantes. Do total de meninas que responderam, a maioria (29%) indicou medicina como primeira opção de carreira. Entre os meninos, a maior parte (24,8%) gostaria de seguir carreira militar. Os entrevistados foram estimulados a também sinalizar quais eram as disciplinas de que mais gostavam. Entre os meninos, as favoritas foram educação física, matemática e história. Já entre as meninas, a mais citada foi biologia, seguida por educação física e português. De acordo com a socióloga Sandra Unbehaum, pesquisadora da Fundação Carlos Chagas, houve uma preocupação em distinguir os resultados do estudo segundo o gênero. “Na maioria das vezes

os dados sobre desempenho escolar por sexo não chegam às escolas. Com isso, muitos professores não se dão conta das diferenças de gênero presentes nas relações em sala de aula e na escola como um todo”, assinala Sandra. “Os estereótipos acabam sendo reproduzidos até sem ser percebidos, como desconsiderar a capacidade das meninas para a matemática.” A avaliação indicou que 64% dos meninos que responderam ao questionário eram negros. No caso das meninas, a proporção foi de 62%. Sandra chama a atenção para a necessidade de incluir no debate sobre mulheres na ciência a questão racial. “Quando falamos da participação da mulher negra na ciência, a situação é ainda mais alarmante”, afirma. Um dos projetos apoiados tocou nessa questão. Em São Paulo, o grupo Empoderadas desenvolveu um projeto de webséries com alunas de ensino médio sobre as histórias de vida de mulheres negras na ciência e na tecnologia. O projeto incluiu ainda rodas de conversa e a exibição de vídeos. Para mudar a mentalidade nas escolas e também na sociedade em geral, Sandra Unbehaum sugere que iniciativas como o Elas nas Exatas continuem com mais participação dos professores. “O envolvimento deles gera oportunidades de aprendizagem em gênero e amplia a chance de criar uma cultura escolar sensível para perceber os estereótipos e discriminações. Assim, pode-se contribuir para romper com o viés de gênero na pedagogia”, diz. n Bruno de Pierro


Tobias Möller-Walsdorf

Periódicos y

Biblioteca da Universidade de Gottingen, na Alemanha, uma das 60 do país que deixaram de ter acesso às revistas da Elsevier em janeiro passado

Barulho na biblioteca Alemanha trava duelo com editora científica para ampliar acesso aberto a papers do país e reduzir custos

U

niversidades da Alemanha travam com a editora holandesa Elsevier uma queda de braço cujo desfecho pode influenciar o modo de divulgação de artigos científicos no mundo. No ano passado, um grupo de 150 instituições de ensino e pesquisa liderado pela Associação dos Reitores da Alemanha (HRK) procurou três grandes editoras científicas responsáveis por mais de 50% dos orçamentos de suas bibliotecas propondo um novo tipo de contrato. Em vez de fazer assinaturas para ter acesso a títulos, as universidades passariam a pagar uma taxa básica pela publicação de cada artigo e isso garantiria acesso aberto e irrestrito na web a todos os papers assinados por autores alemães. As negociações prosperaram com as editoras Springer e Wiley, que devem celebrar novos acordos em 2018. Mas chegaram a um impasse com a Elsevier, a maior empresa de periódicos médicos e científicos do planeta, cujos representantes argumentaram que o modelo proposto não cobre seus custos. Os dirigentes das instituições alemãs se mantiveram irredutíveis e 60 universidades não renovaram os contratos com a Elsevier na virada do ano. Durante janeiro de 2017 elas perderam acesso aos 2,4 mil periódicos da editora, entre os quais publicações pESQUISA FAPESP 261  z  49


consagradas como The Lancet, Cell, Neuron e Current Biology. Segundo dados da empresa, os pesquisadores dessas instituições tentaram fazer, sem sucesso, o download de 124 mil artigos naquele período. Mas a Elsevier decidiu restaurar o acesso em fevereiro, propor a reabertura das negociações e fazer uma contraproposta, que, de acordo com ela, previa valores mais vantajosos para as assinaturas e soluções que permitiriam a oferta de 100% dos artigos em acesso aberto. “Infelizmente, nos foi negada a oportunidade de apresentar tais propostas. A HRK encerrou a discussão dizendo que só valia a pena voltar à mesa se atendêssemos exatamente as suas demandas”, criticou a editora em um comunicado publicado em março. Agora, outras nove instituições, entre as quais as universidades Humboldt e a Livre de Berlim, anunciaram que não renovarão os contratos com a editora holandesa que expiram no início de 2018. A Elsevier lamentou e voltou a pedir a reabertura das negociações: “Somos o parceiro certo para ajudar a Alemanha em sua transição para o acesso aberto de modo sustentável”.

R

esponsável no ano passado por 5,8% de toda a produção científica indexada no mundo, atrás dos Estados Unidos (22%), da China (10%) e do Reino Unido (6%), a Alemanha obteve o engajamento de vários setores da comunidade científica nesse movimento. No mês passado, cinco cientistas do país renunciaram a seus postos nos comitês editoriais de revistas da Elsevier, solidários com a estratégia das universidades. “Pesquisadores e revistas científicas têm uma relação simbiótica e devem tratar uns aos outros de forma justa. A proposta das universidades é justa”, disse à revista Science o cientista da computação Kurt Melhorn, do Instituto Max Planck de Ciência da Computação, em Saarbrücken, que renunciou ao posto de editor-chefe da Computational Geometry Theory and Applications. O meteorologista Martin Köhler, pesquisador do Instituto de Tecnologia Karlsruhe que participou das negociações em nome da Associação Helmholtz de Centros de Pesquisa da Alemanha, disse que as instituições cujos contratos com a Elsevier ainda não terminaram vêm ajudando as que já cortaram as assinaturas. Da mesma forma, pesquisadores têm compartilhado uns com outros as cópias de seus

50  z  novembro DE 2017

1

Em agosto, as bibliotecas das universidades Humboldt (acima) e Livre de Berlim (à dir.) anunciaram que vão romper contrato com a Elsevier

artigos. “É possível sobreviver sem usar o Sci-Hub”, observou ele ao site da Times Higher Education (THE), referindo-se ao serviço registrado nas Ilhas Cocos que franqueia cópias piratas de milhões de artigos científicos. Segundo uma estimativa da Sociedade Max Planck, as bibliotecas acadêmicas do mundo gastam com assinaturas € 7,6 bilhões (o equivalente a R$ 28,8 bilhões) para ter acesso a 1,5 milhão de novos papers publicados anualmente e aos arquivos das revistas. É esse mercado que está em jogo. Outros países com menor poder de negociação aguardam com interesse o desfecho do duelo. A Associação das Universidades da Holanda fez um plei-

to semelhante ao da Alemanha em 2015, mas o máximo que conseguiu obter da editora foi a oferta de 30% dos artigos de pesquisadores holandeses em acesso aberto até 2018. No Brasil, os responsáveis pelo Portal de Periódicos da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) também acompanham a disputa. “Trabalhamos em conjunto com entidades da Alemanha, da Califórnia [Estados Unidos] e do Canadá para verificar como elas estão renegociando seus contratos”, anunciou em junho a coordenadora-geral do portal, Elenara Chaves Edler de Almeida, segundo o site da Capes. “Queremos utilizar a expertise para remodelar nossos acordos com uma nova ótica.” O Portal de Periódicos oferece a pesquisadores e estudantes de universidades brasileiras acesso a um conjunto de 38 mil periódicos – em 2016, o orçamento aprovado para custear as assinaturas e o acesso foi de R$ 334 milhões. De acordo com Elenara, o objetivo da Capes é gastar menos com assinaturas e instituir um


vado os custos de publicação. A Elsevier adota o modelo híbrido em suas revistas: as taxas cobradas para disponibilizar um artigo on-line vão de US$ 500 a US$ 5 mil por paper, dependendo do periódico.

D

fotos 1 Andreas LEvers 2 Bernd Wannenmacher

2

programa para financiar a publicação de artigos. “Conforme os contratos se encerrarem, queremos renegociar levando em consideração o volume de artigos produzido por autores brasileiros”, informou. A expectativa dos alemães é de que o embate se torne um ponto de inflexão do processo que teve início em meados dos anos 2000 e, de forma lenta, vem modificando o modelo de negócios das editoras científicas. A inspiração é o movimento Acesso Aberto, lançado com o objetivo de franquear na web e sem custo para os leitores o acesso à produção científica. A ideia de que artigos científicos resultantes de pesquisas financiadas com recursos públicos devem estar disponíveis para qualquer pessoa sem cobrança de taxas vem sendo incorporada por vários países, agências de fomento e instituições que financiam a ciência. No ano passado, por exemplo, a União Europeia anunciou que irá disponibilizar de forma livre e gratuita a partir de 2020 todos os papers produzidos em seus estados-membros.

No mundo, universidades gastam € 7,6 bilhões com assinaturas de revistas científicas Muitas revistas funcionam hoje em acesso aberto e se financiam cobrando taxas de publicação dos autores. Outras operam em um sistema híbrido, em que os artigos ficam disponíveis para assinantes, mas o autor pode pagar uma taxa extra para que seu trabalho seja divulgado sem restrições no site do periódico antes mesmo do lançamento da edição. Isso tem ele-

ante Cid, vice-presidente de rela­ ções acadêmicas da Elsevier na América Latina, afirma que a transição para um novo modelo precisa ser negociada de forma ampla, e não país por país. “Existe uma demanda de países europeus pela migração para um modelo de acesso aberto com pagamento de taxas de publicação por artigo. Mas essa tendência não é observada em outros países com grande produção científica, como Estados Unidos, China e Japão, que ainda seguem um modelo tradicional”, afirma. “Por isso, instituímos o sistema híbrido, no qual é possível, a critério do autor, publicar um artigo em acesso aberto no site de qualquer uma das nossas revistas pagando uma taxa por isso. Além disso, se passássemos a operar em acesso aberto com cobrança por artigo publicado, limitaríamos o acesso a nossas revistas de autores de países que não dispõem de verbas para pagar taxas ou não desejam arcar com esses custos de publicação”, afirma. Em meio à transformação, as editoras adotaram uma estratégia que tem um olho no futuro e outro no passado. De um lado, apostam em novos modelos – caso da própria editora holandesa, que se tornou uma fornecedora de indicadores sobre a produção científica e investiu em novos negócios como repositórios eletrônicos de preprints e serviços na internet para pesquisadores. De outro, tentam preservar algumas das bases do modelo antigo. No mês passado, uma coalizão de cinco empresas que publicam periódicos e dados com direitos protegidos – American Chemical Society, Brill, Elsevier, Wiley, Wolters Kluwer – notificou o Research-Gate, a maior rede social acadêmica, com 13 milhões de membros, pedindo a remoção de 7 milhões de artigos divulgados em perfis de pesquisadores que estão infringindo direitos – estão disponíveis para download por iniciativa dos autores, mas sem a autorização das revistas que os publicaram. Ao mesmo tempo, as editoras entraram com uma ação em um tribunal de Berlim, onde fica a sede do ResearchGate, solicitando medidas para evitar que a rede volte a divulgar esse tipo de artigo no futuro. n Fabrício Marques pESQUISA FAPESP 261  z  51


Entrevista Adam Brown y

Roteiros para vencer obstáculos Especialista britânico diz que setor de bioenergia teve desaceleração e precisa de mais apoio de políticas públicas Bruno de Pierro

A

Agência Internacional de Energia (IEA) elaborou entre 2010 e 2012 uma série de análises do conhecimento científico sobre diferentes tópicos relacionados ao uso de energias renováveis, que apontou diretrizes para superar desafios tecnológicos em diferentes cenários. Tais publicações, os chamados roadmaps, estão sendo atualizadas e uma nova versão sobre bioenergia será lançada ainda neste ano, fruto de um processo de revisão da literatura científica que contou com pesquisadores do Programa FAPESP de Pesquisa em Bioenergia (Bioen). O físico inglês Adam Brown, coordenador da área de bioenergia da IEA, apresentou uma prévia da nova edição durante a terceira 52  z  novembro DE 2017

edição do Brazilian BioEnergy Science and Technology Conference (BBest), realizado entre 17 e 19 de outubro em Campos do Jordão, interior de São Paulo. Em entrevista à Pesquisa FAPESP, Brown disse que o setor de bioenergia atualmente cresce em um ritmo considerado lento no mundo. Um dos motivos é a falta de políticas públicas capazes de garantir a expansão dos biocombustíveis, avalia Brown, que é doutor em física pela Universidade de Cambridge, no Reino Unido, e tem mais de 35 anos de experiência trabalhando com governos e o setor industrial. Fundada em 1974 e com sede em Paris, na França, a IEA é ligada à Organização para a Cooperação e Desenvolvimento Econômico (OCDE) e é uma das princi-

pais referências na produção de dados globais sobre energia. No dia 31 de outubro, foi anunciado que o Brasil passa a integrar o grupo de países associados à instituição, junto com China, Índia, Indonésia, Marrocos, Cingapura e Tailândia. Com o acordo, o Brasil e a agência planejam trabalhar em conjunto em vários projetos, entre eles a implementação da Plataforma para o Biofuturo, iniciativa que reúne representantes dos setores público e privado de diversos países para promover o uso de biocombustíveis. A seguir, a entrevista de Adam Brown. Quais são os objetivos do roadmap e as novidades da nova edição em relação às anteriores?


"O Brasil fez muito para incentivar a produção de bioenergia. Por isso, ainda é um líder no setor"

eduardo cesar

O objetivo é analisar o que seria necessário para viabilizar a bioenergia no futuro. O roadmap lançado agora também tem essa meta, com a diferença de que nos baseamos em uma atualização feita a partir de artigos científicos sobre novas tecnologias em bioenergia publicados em 2017. Desde a publicação dos primeiros roadmaps, muita coisa mudou. Por exemplo, os veículos elétricos estão sendo desenvolvidos rapidamente. O fato é que a bioenergia tem crescido, mas em um ritmo mais lento nos últimos anos. Novas tecnologias e novos métodos desenvolvidos no setor, como a produção de etanol de segunda geração, não estão crescendo tão rapidamente como esperávamos. Por quê? A produção de veículos elétricos, como eu disse, está crescendo e é promissora, embora ainda seja incipiente. No ano passado, havia 2 milhões de carros elétricos no mundo. Na minha avaliação, um dos principais fatores que contribuem para a desaceleração do setor de bioenergia é a falta de políticas públicas para orientar iniciativas em alguns paí­ses. Nós falamos da Europa, onde há uma enorme incerteza política quanto ao futuro da bioenergia. Essa incerteza tem levado muitos países a não implementar políticas capazes de incentivar a produção de bioenergia. Consequentemente, a falta de incentivos políticos faz com que os investimentos privados se retraiam. Outro fator é que os preços dos combuspESQUISA FAPESP 261  z  53


tíveis fósseis caíram consideravelmente. Um barril de petróleo, que custava US$ 120 há alguns anos, hoje está em torno de US$ 55. O fato é que o petróleo ainda é barato, o que torna difícil a vida de quem produz biocombustível. No setor elétrico, o custo de outras tecnologias renováveis diminuiu muito. Em alguns casos, a eletricidade gerada por bioenergia é mais cara. Portanto, o contexto em que a bioenergia está operando é muito mais complicado do que antes. O problema é que as novas tecnologias em bioenergia que estão sendo pesquisadas e desenvolvidas ainda não conquistaram os tomadores de decisão? Para alavancar os biocombustíveis, a bioenergia e outras tecnologias de baixa emissão de poluentes, é necessário ter um contexto político que apoie essas iniciativas. Além disso, há uma grande diferença entre um combustível fóssil, em que a maior parte das despesas está na extração e no refino, e a maioria das tecnologias renováveis, que depende muito mais de novos investimentos, principalmente em pesquisa e desenvolvimento. Se há políticas que criam um ambiente confiável e seguro para os próximos 10 ou 15 anos, os investidores se sentirão estimulados porque poderão pegar dinheiro emprestado a taxas de juros mais baixas. Isso reduziria os custos da produção de biocombustíveis. Portanto, há correlação entre a estrutura política e o custo da energia produzida. Se um país deseja aumentar a participação dos biocombustíveis na matriz energética, o cenário político precisa ser favorável a essa proposta. Nos últimos anos, a extração de petróleo e gás da camada pré-sal no litoral brasileiro rivalizou com os investimentos em biocombustíveis no país. Esse seria outro fator de enfraquecimento dos biocombustíveis? No Brasil, existe uma experiência de longo prazo no mercado de biocombustíveis. O país fez muito para incentivar a produção de bioenergia. Existem estruturas políticas e uma história de criação de mercado de biocombustíveis, o que garante investimentos. Esse quadro não se observa em outros países. Acredito que é por isso que o Brasil ainda é um líder no setor. Há muita inovação sendo desenvolvida em bioenergia aqui. 54  z  novembro DE 2017

A incerteza na Europa tem levado muitos países a não implementar políticas para promover a bioenergia

O roadmap faz projeções para 2060. Poderia dar exemplos? No cenário de redução da emissão de gases do efeito estufa para 2060, avaliamos que a bioenergia irá desempenhar um papel cerca de cinco vezes maior do que hoje, em termos de produção final de energia. Esse uso será concentrado no setor de transportes, em que deve passar dos 3 exajoules [3% da demanda para transporte] por ano atuais, para 30 exajoules por ano em 2060, um aumento de 10 vezes. Para isso, a bioenergia e particularmente os biocombustíveis não poderão ser utilizados só em alguns países. É preciso considerar que as economias emergentes vão crescer nas próximas décadas, o que leva a pensarmos que será necessário diversificar mais a produção de energia, ampliando a bioenergia para outros lugares do mundo. Por isso, mais países precisam desenvolver capacidade técnica para produzir biocombustíveis e implementar as políticas corretas. Em sua apresentação no BBest, o senhor falou das controvérsias que ainda pairam sobre a produção de bioenergia. Qual é a base delas? A bioenergia ainda é considerada controversa devido a preocupações sobre se ela é, de fato, sustentável. Em primeiro lugar, questiona-se se a bioenergia realmente promove o sequestro de carbono. Há também preocupações em relação a possíveis mudanças no uso da terra para a produção de biocombustíveis, como a derrubada de florestas tropicais. O corte de florestas tropicais ocasiona o que se chama de dívida de carbono, provocada pela conversão de ecossistemas naturais em áreas para cultivo de culturas utilizadas na produção de biocombustíveis. Portanto, há uma série de questionamentos sobre os reais benefícios desse tipo de energia. Algumas perguntas: a produção de bioenergia irá competir com a produção de alimentos? Haverá impacto na vida selvagem e também na biodiversidade? Na Europa, essas questões são mais presentes. Em Bruxelas, na Bélgica, certamente você irá encontrar muitas pessoas que não consideram a bioenergia algo bom. Elas precisam ser convencidas de que a bioenergia pode ser produzida de forma sustentável. Em países como Brasil e Estados Unidos, o clima já é outro e a bioenergia tem mais aceitação.


eduardo cesar

Plantação de cana-de-açúcar em fazenda na cidade de Olímpia, interior de São Paulo

Mas mesmo nos Estados Unidos e no Brasil há grupos cujo discurso é de que a bioenergia pode ameaçar a segurança alimentar e também promover o avanço da monocultura. O que acha disso? Não dá para afirmar que a bioenergia é totalmente boa ou má. É possível produzi-la de maneira que tenha impactos positivos ou negativos. Está claro que alguns procedimentos são condenáveis. Não se pode, por exemplo, derrubar florestas, não importa qual seja o motivo. O segredo é identificar as maneiras pelas quais podemos produzir bioenergia e ter resultados positivos. Isso significa que há, sim, coisas que não devem ser feitas, mas há também muitas oportunidades para executar técnicas e metodologias que não promovam a concorrência com a produção de alimentos, por exemplo. É possível haver uma sinergia entre a produção e a oferta de alimentos e a energia elétrica sustentável. Em 2015, foi lançado o relatório internacional Bioenergy & Sustainability: Bridging the gaps, fruto de uma parceria entre a FAPESP e o Comitê Científico para Problemas do Ambiente (Scope). Esse documento já apresenta experiências bem-sucedidas e outras que não deram certo. Exatamente. Atualmente, por exemplo, há uma preocupação com a produção de óleo de palma em partes da Ásia, porque se acredita que a oportunidade de pro-

duzir esse óleo leva ao desmatamento. É amplamente aceito que não se deve utilizar terras de florestas tropicais em que há um grande estoque de carbono. Mas há exemplos positivos em lugares como o Brasil. As pastagens têm usado a terra de forma mais produtiva e liberado áreas que podem ser utilizadas para a produção de cana-de-açúcar em um esquema que também aproveite resíduos para gerar energia elétrica. Um dos objetivos da IEA é indicar esses bons exemplos? Nós tentamos identificar maneiras pelas quais é possível produzir bioenergia sem causar problemas, como prejudicar a segurança alimentar. Nos últimos anos, a IEA vem produzindo uma série de roadmaps que cobrem mais de 30 tecnologias em bioenergia. Em 2011, foi lançado um sobre biocombustíveis para o transporte e, em 2012, um que tratou da utilização da bioenergia em sistemas de distribuição de aquecimento. Como o senhor avalia a postura do presidente norte-americano, Donald Trump, de revogar o plano de energia limpa implementado durante o governo de Barack Obama? Não tenho condições de comentar muito sobre isso. Ainda não está claro o que os norte-americanos irão enfrentar nos próximos anos. Até agora, a administração de Trump parece apoiar a produção

de etanol de celulose, por exemplo. Mas precisamos esperar para ver o desenrolar dos fatos. Só assim será possível avaliar os rumos da bioenergia nos Estados Unidos. Com base no novo roadmap da IEA, que recomendações o senhor pode dar para o Brasil? Observo que cada vez mais a bioenergia precisa estar integrada com o sistema agrícola como um todo. Isso significa articular a produção de alimentos com a de biocombustíveis e outros produtos agrícolas. E o Brasil já vem colocando em prática ideias desse tipo. Quando olhamos para o futuro, em que a bioenergia pode desempenhar um papel de maior destaque, particularmente no transporte rodoviário, percebemos que será necessário produzir uma variedade mais ampla de biocombustíveis, para além do etanol e do etanol de segunda geração. Os biocombustíveis ainda têm potencial de utilização na aviação e no transporte marítimo, e isso deve ser um foco crescente no Brasil. Portanto, é necessário se concentrar em formas de otimizar a eficiência com a qual produzimos biocombustíveis. A adição de 50% de etanol à gasolina seria ótima, mas, se pensarmos em um cenário de redução das emissões de carbono, o alcance dos biocombustíveis precisa ser maior ainda. É mais do que necessário um grande esforço de pesquisa nesse setor. n pESQUISA FAPESP 261  z  55


ciência  Ambiente y

Lagoas moldadas pelo tempo Alterações climáticas ocorridas nos últimos 5 mil anos ajudaram a formar a paisagem de Nhecolândia, no Pantanal Rodrigo de Oliveira Andrade

C

erca de 10 mil lagoas formam uma paisagem única e instigante no sul do Pantanal. Com formato circular ou elíptico, elas têm em média 2 metros (m) de profundidade e até 1.000 m de extensão. Estão espalhadas por uma área de 24 mil quilômetros quadrados conhecida como Nhecolândia, próximo ao município de Corumbá, em Mato Grosso do Sul. Há outras regiões no mundo, como Canadá e Finlândia, com paisagens compostas por múltiplas lagoas. Nenhuma, porém, com características químicas e biológicas tão diversas quanto as de Nhecolândia. Ali, a maioria das lagoas é de água doce, abastecida principalmente Rodrigo de Oliveira Andrade pela água das chuvas. Outras, de cor preta ou esverdeada, são de água salina e extremamente alcalina. Há décadas geólogos tentam explicar como essas lagoas se formaram e como algumas se tornaram ricas em sais. Agora, um grupo de pesquisadores brasileiros e norte-americanos coordena56  z  novembro DE 2017

Vista aérea das lagoas de Nhecolândia, próximo ao rio Negro


lucas leuzinger

do pelo geólogo Mario Assine, do Instituto de Geociências e Ciências Exatas da Universidade Estadual Paulista (Unesp), campus de Rio Claro, parece ter encontrado algumas respostas para a paisagem peculiar de Nhecolândia. Em dois artigos publicados este ano nas revistas Quaternary Research e Hydrobiologia, eles propõem que as lagoas daquela região tenham surgido há cerca de 5 mil anos e que algumas tenham se tornado salinas há aproximadamente 900 anos. Assine e seus colaboradores estudam há duas décadas as transformações pelas quais passaram as paisagens do Pantanal, maior planície inundável do mundo. Durante esse período, verificaram que as lagoas salinas de Nhecolândia, diferentemente das de água doce, são cercadas por cordões

de areia com 3 a 5 m de altura cobertos por vegetação de savana. Conhecidos como cordilheiras, esses imensos bancos de areia funcionam como barreiras que impedem as lagoas de água salina de se conectarem às de água doce durante as cheias e de serem abastecidas pelas vazantes que drenam as águas das chuvas. “Durante a estiagem, quando a evaporação é mais intensa e o nível da água diminui, os íons de magnésio, potássio e cálcio ficam mais concentrados, deixando as águas ainda mais salinas e alcalinas”, explica o geólogo. Quando volta a chover, as lagoas passam a ser alimentadas pela água que vem do lençol freático, com mais sais. Ao longo dos últimos 70 anos, muitas hipóteses foram propostas na tentativa de explicar a formapESQUISA FAPESP 261  z  57


pelas áreas adjacentes (ver Pesquisa FAPESP nº 227). No entanto, apesar das pesquisas feitas nas últimas décadas, era difícil verificar qual das hipóteses seria a mais consistente, uma vez que os estudos sobre a formação das lagoas se baseavam apenas na interpretação de imagens de satélite e de radar. Faltavam dados que indicassem a origem dos sedimentos das lagoas.

A Durante a estiagem, o nível da água diminui, expondo sedimentos ricos em matéria orgânica (cinza escuro e preto)

Lagoa salina Coração, na fazenda Barranco Alto: suas águas costumam atingir temperaturas de até 40 ºC

fotos  lucas leuzinger

ção das paisagens de Nhecolândia, assim batizada em referência a um dos primeiros proprietários de terra na região, o Nheco, apelido de Joaquim Eugênio Gomes da Silva (1856-1909). Uma dessas hipóteses sustenta que as lagoas de Nhecolândia surgiram a partir de depressões moldadas pelo acúmulo de grãos de areia fina transportados pelo vento em períodos secos do final do Pleistoceno, entre 20 mil e 15 mil anos atrás. Outra propõe que a formação das lagoas teria sido desencadeada no início do Holoceno, há aproximadamente 11 mil anos, a partir de mudanças bruscas e constantes no curso dos rios da região, fenômeno conhecido como avulsão fluvial. Segundo Assine, o acúmulo de sedimentos mais grossos e pesados frequentemente bloqueia o leito dos rios, fazendo com que as águas rompam as barrancas e se espalhem

nos atrás, Assine e o geógrafo Renato Lada Guerreiro, então seu aluno de doutorado, decidiram coletar amostras de sedimentos de três lagoas salinas, batizadas por eles de salina da Ponta, salina Babaçu e salina Máscara, situadas no norte de Nhecolândia. Entre março e novembro de 2014 e em março de 2015, eles percorreram o Pantanal sul-mato-grossense em tratores, em carros adaptados para atravessar áreas alagadas e em pequenos aviões. Entravam na água, não raro sob o olhar de jacarés que repousavam nas margens, e, com a ajuda de uma marreta, fincavam um cilindro de alumínio de 1,70 m no fundo da lagoa. Ao ser retirado, o cilindro vinha carregado com uma espessa camada de sedimento, material que ajuda a recontar a história da formação dessas lagoas. Os sedimentos se acumulam em camadas horizontais no fundo das lagoas — as superiores são mais recentes, e as inferiores, mais antigas. Cada camada contém registros (isotópicos, geoquímicos, sedimentares ou fósseis) de como era o ambiente quando ocorreu a sua deposição. “Por meio da análise desses sedimentos é possível estudar as mudanças biogeoquímicas pelas quais aquele ambiente passou ao longo de milhares de anos”, explica Guerreiro, hoje professor do

58  z  novembro DE 2017


Mosaico de águas

mapa ana paula campos  ilustraçãO fabio otubo

Milhares de lagoas dão forma a uma paisagem única entre os rios Taquari e Negro, na porção sul do Pantanal

durante a transição do Pleistoceno para o Holoceno, um período predominantemente seco. Um dos microfósseis de esqueletos de esponjas identificados pelos pesquisadores é da espécie Heterorotula fistula, típica de lagoas efêmeras de água doce expostas a longos períodos de estiagem, similar às encontradas em ambientes semiáridos do interior da Austrália. A presença de fósseis desse microrganismo indica que as lagoas salinas de Nhecolândia eram preenchidas por água doce e frequentemente submetidas a períodos sazonais de seca com grandes variações no nível d’água. “Já nas camadas superiores, as esponjas também eram de água doce, mas de espécies típicas de condições estáveis, com pouca variação no nível de água, sugerindo que houve uma alteração no padrão de chuvas no Holoceno Médio, há aproximadamente 5 mil anos”, explica Guerreiro.

À Fonte Mcglue, m. m. et al. Quaternary Research. 2017

Pantanal

Período de clima úmido ocorrido há 900 anos tornou salinas as lagoas de Nhecolândia

Instituto Federal de Educação, Ciência e Tecnologia do Paraná. A camada mais profunda dos sedimentos era composta de areia fina, recoberta por uma camada de lama rica em matéria orgânica, contendo microfósseis dos esqueletos de esponjas de água doce e paredes celulares de algas microscópicas que vivem, sobretudo, em água salina. Esses dois grupos de organismos vivem em ambientes bem específicos e suas ecologias são conhecidas. Em laboratório, os pesquisadores realizaram a caracterização geoquímica e granulométrica dos sedimentos e a identificação dos microfósseis. Usaram uma técnica chamada luminescência opticamente estimulada para fazer a datação dos grãos de areia. Já as amostras com matéria orgânica, dispostas nas camadas mais superficiais, foram datadas por meio do método do carbono 14. As análises indicaram que as camadas mais profundas dos sedimentos eram compostas de uma areia fina que começou a ser depositada na região de Nhecolândia há cerca de 11,5 mil anos,

medida que eles analisaram as camadas mais superficiais dos sedimentos, verificaram uma significativa diminuição das esponjas de água doce e um aumento expressivo de fósseis de diatomáceas, possivelmente decorrente da mudança para um ambiente com água mais salina e alcalina. “O padrão de deposição e preservação dessas esponjas nos sedimentos funciona como um registro das condições ambientais e hidrológicas e sugere ter havido uma mudança nas características hidroquímicas dessas lagoas, que se tornaram mais salinas e alcalinas”, explica Guerreiro. Segundo ele, isso teria acontecido há cerca de 900 anos, quando houve um aumento das temperaturas e da umidade no Pantanal. As conclusões apresentadas no estudo indicam que mudanças ambientais ocorridas ao longo do Holoceno parecem ter sido consideravelmente mais importantes para a formação das paisagens de Nhecolândia do que se pensava. “Verificamos que os indicadores de água doce nos sedimentos mais antigos das lagoas salinas datam de um período reconhecidamente mais seco do Pantanal, enquanto os registros sedimentares salinos e alcalinos preservam as marcas de uma fase de climas úmidos em toda a América do Sul, incluindo o Pantanal”, ressalta Guerreiro. n

Projeto Mudanças paleo-hidrológicas, cronologia de eventos e dinâmica sedimentar no quaternário da Bacia do Pantanal (nº 14/06889-2); Modalidade Auxílio à Pesquisa – Regular. Programa Pesquisa sobre Mudanças Climáticas Globais (PFPMCG); Pesquisador responsável Mario Luis Assine (Unesp); Investimento R$ 255.277,50.

Artigos científicos McGLUE, M. M. et al. Holocene stratigraphic evolution of saline lakes in Nhecolândia, southern Pantanal wetlands (Brazil). Quaternary Research. On-line. ago. 2017. GUERREIRO, R. et al. Paleoecology explains holocene chemical changes in lakes of the Nhecolândia (Pantanal-Brazil). Hydrobiologia. On-line. 9 nov. 2017.

pESQUISA FAPESP 261  z  59


GEOLOGIA y

Brasil vizinho da China Rochas ricas em grafita sugerem que porções dos dois países e da África já estiveram

1

unidas há quase 2 bilhões de anos Victória Flório

E

m 2016, durante uma expedição ao norte da China, o geólogo Wilson Teixeira, professor do Instituto de Geociências da Universidade de São Paulo (IGc-USP), notou uma semelhança entre as rochas ricas em grafita da região de Jiao-Liao-Ji e as do município de Itapecerica, no estado de Minas Gerais. De volta ao Brasil, ele e outros quatro geólogos confirmaram sua conclusão. Os depósitos de grafita brasileira e a chinesa se formaram há cerca 2 bilhões de anos, durante o período geológico Proterozoico, quando surgiram organismos unicelulares mais evoluídos. Detalhadas em um artigo publicado em maio deste ano na revista Precambrian Research, a idade da grafita e as características das rochas em que ela está incrustrada levaram os pesquisadores a propor que a região de Itapecerica e a de Jiao-Liao-Ji, hoje separadas por quase 17 mil quilômetros de distância, já foram vizinhas naquele passado distante, quando integraram um dos mais antigos supercontinentes da Terra, o Colúmbia. Os geólogos estimam que o ápice da formação do Colúmbia ocorreu entre 60  z  novembro DE 2017

1,9 bilhão e 1,8 bilhão de anos atrás como resultado da colisão do que hoje são partes dos atuais continentes. O supercontinente teria existido até por volta de 1,4 bilhão de anos atrás, quando começou a se desfazer em consequência do movimento de placas tectônicas, os imensos blocos que compõem a camada rochosa mais externa do planeta. No artigo da Precambrian Research, Teixeira e os geólogos Maria Helena Hollanda, da USP, Elson Paiva Oliveira, da Universidade Estadual de Campinas (Unicamp), Elton Luis Dantas, da Universidade de Brasília (UnB), e Peng Peng, da Academia de Ciências da China, propõem que uma região que inclui parte dos estados de Minas Gerais e da Bahia, na América do Sul, e da região do Congo, no oeste da África, poderia estar soldada no passado remoto ao norte da China no interior do Colúmbia. A principal evidência dessa união são as idades das rochas ricas em grafita e as condições geológicas em que foram geradas em Minas Gerais e na China. “Esse mineral se forma em condições de elevada temperatura e pressão e, por isso, sina-

liza regiões onde ocorreram gigantescas colisões entre continentes pretéritos”, explica Teixeira. Segundo ele, o fato de a grafita brasileira e a chinesa terem idades semelhantes indica que se originaram de processos de colisão ocorridos ao mesmo tempo ou em tempos próximos. O Brasil detém 27% das reservas mundias de grafita e a China, 56%. Segundo Teixeira, caso o que é hoje parte da América do Sul tenha há 1,9 bilhão de anos de fato se avizinhado da região que corresponde ao norte da China, é quase certo que ali também estivessem partes do que seria a África. Nas últimas décadas, acumularam-se evidências de que Minas Gerais e Bahia estiveram unidas no passado remoto ao continente africano, formando uma estrutura geologicamente estável chamada cráton do São Francisco-Congo. “Muito se debate sobre a configuração do Colúmbia”, conta o geofísico Manoel D’Agrella, professor do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP. Ele é especialista em paleomagnetismo, área da geofísica que estuda a intensidade e a orientação

fotos 1 Daniel Schwen / Wikimedia 2 Wilson Teixeira  infográficO ana paula campos

Análises de grafitas como estas ajudam a reconstituir a formação e a fragmentação de supercontinentes


​​Fragmentos do passado

Proposta alternativa Trechos do que viriam a ser o Brasil e

Duas propostas para explicar como partes dos atuais continentes se reuniram entre 1,9 bilhão e 1,4 bilhão de anos

o Norte da China teriam estado próximos há cerca de 1,9 bilhão de anos

Uma das propostas mais aceitas

Cordilheira de Jiao-Liao-Ji (Mina de Nanshu)

Sul da China Tarim

Sibéria

Cordilheira de Minas (Mina de Itapecerica)

Cordilheira do norte da China

Kalahari

Báltica Austrália

Norte da China

Índia

S. Francisco Angola

Leste da Antártida

Oeste da África

Laurentia

Norte da China Amazônia

2

Congo

n Área de colisões entre os blocos com idade entre 2,1 bilhões e 1,8 bilhão de anos (cinturões orogênicos)

São Francisco

Fontes  Adaptado de G. Zhao (mapa maior) e Wilson Teixeira (mapa menor)

A amostra de rocha rica em grafita foi retirada da parte escura da cavidade desta mina de Itapecerica​, em Minas Gerais

do campo magnético da Terra que permanecem registradas nas rochas – as informações magnéticas registradas nelas revelam sua localização no planeta no momento em que se formaram. Nos últimos anos, D’Agrella e sua equipe tentam estabelecer as posições sucessivas que a região norte da América do Sul, o chamado cráton Amazônico, teria ocupado ao longo da existência do Colúmbia, como detalhado em um artigo de 2016 na revista Brazilian Journal of Geology. Ele começou a analisar rochas de Minas Gerais para verificar se as características magnéticas correspondem às da posição sugerida por Teixeira e seu grupo para os crátons São Francisco-Congo e Norte Chinês no Colúmbia. Muitos modelos propostos para explicar a disposição de partes dos atuais continentes no Colúmbia não consideram a formação São Francisco-Congo justa-

posta ao norte da China, que, em muitos casos, aparece unido ao que corresponde à atual Austrália. A existência do Colúmbia foi sugerida em 2002 pelos geólogos John Rogers, da Universidade da Carolina do Norte, no Estados Unidos, e Madhava Santosh, da Universidade de Geociências de Beijing, na China, e, com base em semelhanças entre as formações rochosas da Índia e da região do rio Colúmbia, no estado norte-americano de Washington. Com o rompimento do Colúmbia, seus fragmentos teriam se rearranjado por volta de 1,1 bilhão de anos, formando o supercontinente Rodínia, que depois também se fragmentou. Dos fragmentos de Rodínia originaram-se a Laurásia, formada pela América do Norte, Groelândia, Europa e o norte da Ásia, e o Gondwana, que reu­ niria América do Sul, África, Austrália,

Índia, Antártida e Madagascar. Por causa da movimentação das placas tectônicas, que se afastam ou se aproximam umas das outras com velocidades da ordem de centímetros por ano, os geólogos esperam que nos próximos 250 milhões de anos um novo supercontinente deva surgir: a Amásia, resultado da aproximação da América do Norte com a Ásia. n

Projetos 1. Evolução de terrenos arqueanos do Cráton São Francisco e Província Borborema: Implicações para processos geodinâmicos e paleoambientais globais (nº 12/158246); Modalidade Projeto Temático; Pesquisador responsável Elson Paiva de Oliveira (Unicamp); Investimento R$ 3.696.059,08. 2. Caracterização tectônica dos greenstore belts rio das Mortes, Nazareno e Dores de Campo: Implicações para a evolução crustal do cinturão mineiro (nº 9/53818-5); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Wilson Teixeira (USP) Investimento R$ 357.590,53.

Artigos científicos TEIXEIRA, W. et al. U-Pb geochronology of the 2.0 Ga Itapecerica graphite-rich supracrustal succession in the São Francisco Craton: Tectonic matches with the North China craton and paleogeographic inferences. Precambrian Research. v. 293, p. 91-111. mai 2017. D’AGRELLA FILHO, M. et. al. Paleomagnetism of the Amazon craton and its role in paleocontinents. Brazilian Journal of Geology. v. 46, n. 2, p. 275-99. 2016.

pESQUISA FAPESP 261  z  61


Cronobiologia y

Um relógio que funciona no escuro Física, biologia e tecnologia se unem para desvendar ritmos

Escavação: um dos raros momentos em que os tuco-tucos aparecem na superfície

circadianos de roedor subterrâneo Maria Guimarães

N

a natureza, as condições são um tanto inconstantes. Alimentos podem estar disponíveis ou não, predadores são mais abundantes em determinadas situações, os elementos climáticos são, por vezes, um desafio. Convém antecipar algumas dessas condições para entrar em ação quando é mais produtivo ou seguro. Aí entra o relógio biológico, um mecanismo interno para regulação de atividade cujo controle genético vem sendo desvendado nos últimos 30 anos – feito reconhecido pelo Prêmio Nobel de Medicina deste ano. Essa capacidade de previsão é especialmente preciosa para animais que não têm acesso fácil às indicações ambientais, como é o caso dos roedores subterrâneos conhecidos como tuco-tucos. Trata-se de um ambiente extremo do ponto de vista da luz, também uma realidade para animais polares, abissais ou cavernícolas, e por isso precioso para estudos de cronobiologia. “Estamos comparando os ritmos biológicos na natureza e no laboratório”, conta a física Gisele Oda, coordenadora 62  z  novembro DE 2017

do Laboratório de Cronobiologia do Instituto de Biociências da Universidade de São Paulo (IB-USP). “A linha de campo é pouco usual na cronobiologia, tradicionalmente estudada em ambientes controlados”, afirma ela, que chegou à biologia pelo caminho da física, estudando oscilações em sistemas dinâmicos. A comparação entre as duas situações logo acrescentou elementos a serem desvendados quando os tuco-tucos, diurnos na natureza, no laboratório passaram a ser noturnos. Essa mudança já tinha sido observada em outros animais, entre eles os parentes chilenos dos tuco-tucos conhecidos como coruros. A bióloga Patricia Tachinardi, do grupo de Gisele, concentrou-se nesse aspecto e concluiu que traz o benefício de economizar energia, conforme relata em artigo publicado no ano passado na revista científica Physiological and Biochemical Zoology. Como parte de seu doutorado, defendido este ano, Patricia pôs tuco-tucos em câmaras que medem a atividade metabólica por meio do consumo de oxigê-

nio na respiração. Nesses experimentos foi possível definir que temperaturas entre 23 graus Celsius (°C) e 33 °C são ideais para esses animais e estimar quanta energia eles economizam sendo diurnos ou noturnos. O estudo contou com a parceria do fisiologista norte-americano Loren Buck, da Universidade do Norte do Arizona, especialista em balanço energético nas condições naturais. Um percalço surpreendente foi que três dos nove animais sujeitos ao experimento, notívagos no laboratório, instantaneamente passaram à atividade diurna nessas caixas. “A umidade aumenta e a concentração de oxigênio é menor do que nas condições normais do laboratório, precisamos controlar essas condições para investigar o que incita a mudança no padrão de atividade.” Acontece que no inverno, quando o aconchego do ninho subterrâneo seria bem-vindo, os tuco-tucos na natureza precisam estar mais ativos. Eles têm que comer mais para obter a energia suficiente para enfrentar o frio e o alimento,


nessa época, é mais escasso. Torna-se então crucial restringir a atividade às horas em que o Sol ameniza a temperatura. Para estudar em detalhe o consumo energético em campo, o grupo de Gisele esbarra em limitações técnicas. “Os acelerômetros que temos ainda são muito grandes para serem acoplados aos animais livres”, diz a física. Ela se refere a aparelhos que, presos a coleiras ou implantados, poderiam registrar com precisão o movimento e o dispêndio de energia dos animais.

fotos  patricia tachinardi / usp

Orçamento energético

É curioso constatar a capacidade adaptativa do horário de atividade como se as condições ambientais acionassem um interruptor que instantaneamente muda o padrão. “Ser noturno ou diurno costuma ser associado à identidade de cada espécie, como um rótulo imutável”, comenta Gisele. As observações se encaixam no modelo “trabalhando por comida” do cronobiólogo holandês Roelof Hut, da Universidade de Groningen, onde Patricia passou um período durante o doutorado. Ele mostrou, em camundongos, que o aumento da dificuldade para obter comida os transforma de noturnos em diurnos. “Quanto mais eles precisam fazer esforço para comer, mais diurnos ficam”, explica a bióloga. Seria, de acordo com a hipótese, o que acontece com os tuco-tucos quando precisam cavar túneis para encontrar escassas folhagens. “O orçamento energético na natureza é bem justo, enquanto no laboratório eles têm alimento à vontade.”

No inverno, é crucial restringir a atividade às horas em que o Sol ameniza a temperatura

Na mordomia calórica do cativeiro, esses animais reverteriam ao modo noturno – supostamente o padrão nos ancestrais dessa espécie. Desde o início, avaliar a atividade dos tuco-tucos não foi uma tarefa trivial. Um problema é eles passarem boa parte do tempo em galerias subterrâneas no solo desértico na região de Anillaco, na Argentina, um povoado de 1.400 habitantes mais conhecido por abrigar a casa do ex-presidente Carlos Menem, que nasceu ali. Ainda durante seu governo, em 1998, foi inaugurado na cidade o Centro Regional de Pesquisas Científicas e Transferência Tecnológica (Crilar), como parte de uma iniciativa para estabelecer polos científicos em áreas distantes. É o cenário ideal para estudar esses

roedores, talvez uma espécie ainda não descrita. Enquanto sua taxonomia está indefinida, os pesquisadores os identificam como Ctenomys knighti, a espécie conhecida na região. “Está cheio deles no jardim do Menem e são considerados pragas pelos vinicultores na propriedade vizinha ao centro de pesquisa”, conta Gisele. Mesmo assim, o maior indício do período ativo dos tuco-tucos eram as vocalizações que emitem o dia inteiro, de dentro de suas tocas. Gisele começou a estudar esses animais há oito anos em parceria com a bióloga argentina Verónica Valentinuzzi, do Crilar, que conheceu durante estágio de pós-doutorado no IB-USP. Desde o começo, contou com a ajuda de Patricia, Danilo Flôres e Barbara Tomotani, à época estudantes de graduação em biologia. Para monitorar os tuco-tucos era preciso capturar os animais, conseguir sensores que os acompanhassem sem perturbar suas atividades, além de desenvolver arenas seminaturais para experimentos de onde eles não conseguissem fugir cavando, entre outros desafios. Depois de várias tentativas e erros, conseguiram construir muros subterrâneos de concreto abaixo das cercas, instalar coleiras com sensores de luz e movimento nos animais e implantar sensores de temperatura em seu corpo. Com esses equipamentos em oito animais durante os invernos de 2014 e 2015, foi possível verificar que todos se expunham à luz solar por breves períodos, quando jogam terra para fora durante escavações de túneis, quando buscam pESQUISA FAPESP 261  z  63


patricia tachinardi / usp

folhas das plantas que comem ou ficam parados à entrada, talvez se aquecendo. A exposição à luz acontece pelo menos uma vez por dia, mas em geral várias vezes, como mostrou artigo publicado em 2016 na Scientific Reports como parte do doutorado de Danilo, encerrado em 2016. Dia no laboratório

O grupo então buscou entender como se dá a regulação do ciclo circadiano. Se deixados em escuro permanente no laboratório, com a atividade registrada pelo uso de uma daquelas rodas comuns em gaiolas de roedores de estimação, os tuco-tucos mantêm um ritmo de atividade que corresponde a 25 horas, um desvio comum em outros animais. Para sincronizar o relógio biológico às 24 horas de rotação da Terra bastaria um pulso de luz de poucos segundos por dia, mesmo que em horário variável, de acordo com um modelo computacional elaborado pelo grupo da USP simulando um oscilador circadiano: o mecanismo central que controla o relógio biológico. Surpreso com a previsão, Danilo fez o teste na realidade. Com apenas uma hora de luz acesa por dia, o tempo de executar tarefas como alimentar os animais e limpar suas instalações no laboratório, nove tuco-tucos passaram a exibir atividade coerente com um dia de 24 horas. Isso acontecia quando a luz era acesa em horários aleatórios (dentro dos limites das horas em que é dia fora do laboratório) ou predeterminados. 64  z  novembro DE 2017

Cercas instaladas junto ao centro de pesquisa permitem experimentos em condições seminaturais

Reunindo experimentos em laboratório, no ambiente natural e medições em campo, os resultados estão contribuindo para definir os fatores mais centrais para o ciclo circadiano. Também arbitram a discussão teórica sobre como se daria essa regulação. No modelo conhecido como paramétrico, a luz teria um efeito contínuo na sua sincronização. “É como se um balanço fosse impulsionado continuamente”, compara Gisele. No modelo não paramétrico, o balanço se mantém em movimento graças a pancadas periódicas. Essas pancadas, no caso do relógio biológico, seriam as mudanças abruptas no aporte de luz que acontecem na alvorada e no crepúsculo. Os tuco-tucos contam outra história, híbrida entre os dois modelos, na qual as pancadas podem acontecer em qualquer ponto da trajetória do balanço. O enfoque de modelagem matemática também foi o que guiou a descoberta dos mecanismos moleculares por trás dos ritmos circadianos, que rendeu o Prêmio Nobel de Medicina este ano aos norte-americanos Jeffrey Hall, Michael Rosbash e Michael Young. “O feito importante para o prêmio foi identificar quais elementos participam da regulação do

ritmo de 24 horas”, explica Gisele. A proteína PER, produzida pelo gene period, identificado nos anos 1980, acumula-se no núcleo das células, inibindo a ação do gene. “Mas o modelo indicava que as etapas bioquímicas desse processo não chegavam a 24 horas, assim foi matematicamente previsto que deveria haver algum elemento de atraso.” Isso acontece graças a outra proteína que degrada a PER, retardando o acúmulo. Pulsos de luz também atuam na degradação de outra proteína do relógio, levando a uma sincronização explicada por modelagem matemática. “O sistema que oscila tem a dinâmica regida por equações diferenciais”, afirma Gisele, prevendo que o sistema revelado pelo modelo subterrâneo deve valer para ratos e até para pessoas. “O oscilador é o mesmo para todos”, conclui, com seu olhar de física. n

Projeto Cronobiologia de roedores subterrâneos sul-americanos, em laboratório e em campo (nº 14/20671-0); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Gisele Akemi Oda (USP); Investimento R$ 162.935,51.

Artigos científicos FLÔRES, D. E. F. L. et al. Entrainment of circadian rhythms to irregular light/dark cycles: A subterranean perspective. Scientific Reports. v. 6, 34264. 4 out. 2016. TACHINARDI, P. et al. The interplay of energy balance and daily timing of activity in a subterranean rodent: A laboratory and field approach. Physiological and Biochemical Zoology. v. 90, n. 5, p. 546-52. set.-out. 2017. TACHINARDI, P. et al. Nocturnal to diurnal switches with spontaneous suppression of wheel-running behavior in a subterranean rodent. PLOS ONE. v. 10, n. 10, e0140500. 13 out. 2015.


Divulgação científica y

A

bióloga brasileira Natália Cybelle Lima Oliveira, 28, foi uma das vencedoras da edição 2017 do Dance Your Ph.D, concurso promovido pela revista Science e a Associação Americana para o Progresso da Ciência (AAAS) que desafia pesquisadores a explicarem os resultados de seus trabalhos por meio da dança nas categorias Biologia, Ciências Sociais, Física, e Química. Criada há 10 anos, a iniciativa busca desmistificar a imagem dos cientistas usando bom humor e criatividade. Natália concluiu seu doutorado este ano na Universidade Federal de Pernambuco (UFPE). Ela foi a única brasileira a participar do concurso, que reuniu outros 53 pesquisadores de diferentes partes do mundo. Com referências ao seriado norte-americano CSI e ao vogue, um estilo de dança urbana, ela transformou a sua tese sobre biossensores no videoclipe Pop, Dip and Spin: The legendary biosensor for forensic sciences. O biossensor concebido por ela é capaz de identificar vestígios biológicos, como sangue, sêmen e saliva, em áreas limpas com álcool, detergente ou água sanitária, podendo ser usado por investigadores forenses em cenas de crime. O dispositivo se vale de uma sonda — sequências de bases de DNA que complementam e se encaixam nas moléculas procuradas — imobilizada na superfície de um eletrodo. Ao se ligar à sequência-alvo, o aparelho produz um sinal eletroquímico que é registrado e processado

Dançando pela ciência Pesquisadora brasileira vence concurso Dance Your Ph.D, promovido pela revista Science

Com referências ao seriado CSI e à dança vogue, videoclipe explica pesquisa sobre biossensor forense

por um software. O dispositivo está em fase de protótipo. O vídeo foi todo gravado na UFPE. O roteiro e a coreografia foram elaborados pela própria pesquisadora, que também é atriz e dançarina, e pelos membros do grupo Vogue 4 Recife. A peça audiovisual também conta com legendas que resumem os principais pontos da pesquisa. “A principal dificuldade foi mostrar os resultados obtidos, já que falar de picos eletroquímicos comparativos entre si não faz parte das discussões do cotidiano do público geral, mas conseguimos fazer isso de forma lúdica e prática, mostrando qual seria a aplicação na vida real desses resultados”, explica Natália. Ela conta que resolveu se inscrever na competição por indicação de um colega do Laboratório de Imunopatologia Keizo Asami (Lika), da UFPE, onde atualmente faz estágio de pós-doutorado. “Percebi que a convergência entre ciência e arte poderia ser uma importante ferramenta de comunicação e educação científica”, diz a pesquisadora. “Encarei a competição como uma oportunidade de unir a pesquisa acadêmica com a dança e o teatro, com os quais estou envolvida e, assim, dar visibilidade ao meu trabalho.” O videoclipe produzido por Natália venceu na categoria Química pelo voto do júri. Com 78% dos votos populares, ela também foi a eleita, entre os 12 finalistas, a autora do melhor videoclipe. Segundo ela, o prêmio de US$ 500 (cerca de R$ 1.600) será dividido entre os dançarinos do vídeo ou investido em produções futuras, como espetáculos de dança e outras produções audiovisuais com as quais está envolvida. Para assistir ao videoclipe, acesse bit.ly/DYPhd2017. n pESQUISA FAPESP 261  z  65


Entrevista Michael Shermer y

A favor da razão Divulgador de ciência norte-americano combate irracionalismos e fundamentalismos em voga Marcos Pivetta

C

olunista desde 2001 da edição norte-americana da revista Scientific American, o californiano Michael Shermer, 63 anos, dedica-se a divulgar explicações científicas que refutam a existência de fenômenos supostamente extraordinários ou sobrenaturais, como a possibilidade de ressurreição, e a combater ideias pseudocientíficas. Formado em psicologia, com doutorado em história da ciência, é autor de livros sobre ciência, moral e religião e editor da revista Skeptic. Também leciona um curso básico sobre ceticismo na Universidade Chapman, uma instituição regional de ensino superior do sul da Califórnia mantida pela denominação protestante Discípulos de Cristo. Shermer, que já foi religioso e hoje é ateu, esteve em São Paulo no início de outubro para participar de um evento sobre divulgação da ciência. O senhor acredita que ser religioso e fazer ciência é incompatível? Muitos cientistas profissionais são pes­ soas religiosas. Então, aparentemente, isso é possível. Mas é lógico proceder assim? Acho que na maioria das vezes não. Os cientistas que são religiosos ado66  z  novembro DE 2017

tam uma estratégia para lidar com ciência e religião: colocam esses temas em diferentes categorias mentais e não os deixam se sobrepor. A maioria das afirmações religiosas pode ser testada pela ciência. Se os religiosos dizem que a Terra tem 10 mil anos de idade e os geólogos, que ela tem 4,5 bilhões de anos, não se pode somar essas duas idades e dividir por dois para encontrar a verdade. Uma dessas afirmações está simplesmente errada. No caso, a dos religiosos. Mas, quando se trata de determinar valores morais, a espiritualidade, o sentido da vida, o que é certo e o que é errado, a maioria das pessoas acha que isso só pode ser obtido por meio da religião. Não concordo com isso. Acho que podemos usar o método científico para abordar esses temas. Devemos trabalhar e nos esforçar mais para proceder assim. Como o método científico pode ajudar nesse tipo de questão? Vou dar um exemplo. Podemos usar a ciência para determinar qual é o melhor sistema político para se viver. Há muitos dados sobre isso, acumulados ao longo de uns 500 anos. A democracia é melhor do que teocracias, ditaduras, monarquias

Escritor se dedica a divulgar explicações científicas para fenômenos supostamente extraordinários ou sobrenaturais


Léo ramos chaves

Por que as pessoas acreditam em pode­ res sobrenaturais e explicações religio­ sas para fenômenos naturais? O cérebro humano está biologicamente preparado para acreditar nessas coisas. As pessoas podem encontrar padrões em certos eventos e tentam estabelecer causas e conexões entre eles. As pessoas acham que esses padrões não são aleatórios, inanimados. Os eventos ocorreriam por uma razão. Elas acreditam que há uma entidade por trás deles, um espírito, uma força, alguém manipulando as cordinhas. Daí é um passo para chamar essa força de Deus, espírito, fantasma, alienígena, anjo ou demônio. O mundo sempre viveu assim até o momento em que a ciência desbancou essas ideias. Não é que as pessoas sejam ignorantes ou pouco instruídas. Apenas é mais fácil seguir esse caminho. As teorias sobre conspirações modernas também se alimentam dessa lógica.

e estados comunistas. Estes últimos são estados falidos. É possível medir as consequências dos sistemas políticos em termos dos níveis de sobrevivência da população e do desenvolvimento. Esse é um argumento utilitário. As sociedades em que foram implantados esses sistemas políticos são experimentos naturais que foram conduzidos pelo homem. Quando houve o desmembramento da Coreia em dois países [em 1948], o norte e o sul eram iguais. Hoje os dois países não são nem remotamente parecidos. Cada um tem um sistema político, legal e econômico diferente. Por que a antiga Alemanha Ocidental era mais desenvolvida do que a Oriental? Essas perguntas podem e devem ser respondidas por cientistas políticos e econômicos. Isso é ciência. O senhor acha que a ciência social deve ser encarada da mesma forma que as

chamadas ciências duras? Não é mais difícil fazer previsões no campo da ciên­ cia social do que em química ou na ma­ temática? Sim. Mas, na verdade, acho que as ciências duras, no sentido de que são mais difíceis de fazer, são as sociais. Nelas, há muito mais variáveis envolvidas. Átomos, moléculas, gases, rochas, planetas e estrelas, todos esses objetos de estudo apresentam um número limitado de variáveis. São sistemas mais previsíveis. Como disse, o comportamento dos seres humanos, da economia, envolve muito mais variáveis. Mas essa ciência pode ser feita. Aliás, tem sido feita há séculos. Adam Smith [17231790] fez isso no seu livro Uma investigação sobre a natureza e as causas da riqueza das nações. Ele é o Newton [1643-1727] da economia. Mas essa minha posição é minoritária entre os cientistas. Eles não sabem nada das “ciências moles”.

Por que o criacionismo é tão forte nos Estados Unidos? Vejo duas razões. Somos, de longe, a nação mais religiosa entre as industrializadas do Ocidente. Nenhum país da Europa chega nem mesmo perto. E não se trata de qualquer tipo de religião. Os Estados Unidos são protestantes, batistas. A maioria dos católicos, até o papa, fez as pazes com Darwin [1809-1882] e a teoria da evolução. Para eles, a evolução foi a forma que Deus encontrou para criar as espécies. Newton também achava que a gravidade era o jeito de Deus criar planetas. Já os protestantes, sobretudo os fundamentalistas, precisam crer que a Bíblia está certa. Eles fazem uma leitura literal, não de forma metafórica, da Bíblia. Se a Bíblia fala em dias, entendem que se trata literalmente de dias – não de uma figura de linguagem que se refere a uma noção de tempo. Outra razão diz respeito a uma tensão entre religião e política na arena pública, a despeito da existência da divisão entre Igreja e Estado. Não há, por exemplo, um conselho geral que dite o currículo para todas as escolas públicas do país. Cada estado, cada condado, às vezes cada distrito, tem os seus próprios conselhos. Às vezes, há uma maioria de religiosos fundamentalistas nesses conselhos e eles decidem ensinar criacionismo ao lado da teoria da evolução, ou até no lugar dela. n pESQUISA FAPESP 261  z  67


tecnologia  computação y

Enxames de robôs Ramo da robótica prevê máquinas que

executam tarefas em grupo

Marcos de Oliveira

I

nspirada na organização de insetos sociais, como formigas, abelhas e cupins, e na formação dos cardumes de peixes e de aves em voo, a robótica de enxames é um campo de estudo que procura os melhores caminhos computacionais para que robôs possam trocar informações entre si e agir em conjunto, de acordo com um objetivo comum para o qual foram programados. São soluções computacionais que estão no campo de estudo de vários grupos de pesquisadores do mundo. Ainda sem exemplos comerciais, a robótica de enxame tem perspectiva de uso tanto em locais fechados quanto abertos, como no mar, na inspeção e no reparo de plataformas submarinas, na vigilância marítima e no ar, com drones dotados de sistemas para vigiar fronteiras, por exemplo. Embora o conceito exista desde os anos 1980, nos Estados Unidos, somente no início desta década, com a evolução da engenharia eletrônica e da computação, com circuitos eletrônicos menores e mais potentes, das facilidades da comunicação sem fio e montagem de robôs baratos, além da implementação de sistemas de inteligência artificial, é que esse ramo da robótica conseguiu avançar.

68  z  novembro DE 2017

“Esse tipo de tecnologia está ficando cada vez mais barato, mas ainda não é suficiente e existe a necessidade de muita pesquisa e desenvolvimento para os enxames de robôs serem comercializados em um futuro não muito distante”, analisa o engenheiro eletricista Marco Terra, coordenador do Instituto Nacional de Ciência e Tecnologia (INCT) para Sistemas Autônomos Cooperativos (InSAC), sediado na Escola de Engenharia de São Carlos da Universidade de São Paulo (EESC-USP). “Essa categoria de robôs, para se popularizar, depende fundamentalmente do barateamento de sensores e demais componentes.” O Laboratório de Pesquisa do Exército dos Estados Unidos anunciou em outubro deste ano um grande projeto nessa área, com duração de cinco anos, no valor de US$ 27 milhões. Sob a liderança da Universidade da Pensilvânia, um grupo de pesquisadores pretende desenvolver equipes autônomas, inteligentes e resilientes de robôs com diferentes habilidades para atuar com seres humanos na busca e resgate de reféns, coleta de informações após ataques terroristas, nos desastres naturais e no apoio a missões humanitárias em áreas de confli-

to. Também fazem parte do projeto o Instituto de Tecnologia de Massachusetts (MIT), Instituto de Tecnologia da Georgia (Georgia Tech), Universidade do Sul da California e as universidades da Califórnia em San Diego e Berkeley. No anúncio conjunto das instituições participantes do projeto, os pesquisadores explicam que a procura por pessoas desaparecidas acontece em grupo e a robótica de enxame prevê que, se algumas dessas máquinas forem danificadas, as demais podem se reconfigurar e se reorganizar para continuar a trabalhar em conjunto, mesmo sem sinal de GPS ou nuvem computacional. Cada robô trabalha com os outros em um objetivo comum, mas cada um pode ter tarefas diferentes e ganhar outras funções ao longo da missão, conforme as necessidades. Um dos maiores experimentos em robótica de enxame aconteceu no Instituto Wyss de Engenharia de Inspeção Biológica da Universidade Harvard, nos Estados Unidos, e foi publicado na revista Science em 2014. Foram reunidos 1.024 microrrobôs, com poucos centímetros de altura e largura, chamados de kilobots, fáceis de montar e muito usados em experimentos de robótica.


EESC-USP

Drones voando em formação e dotados de sistemas de robótica de enxame podem ser utilizados para vigiar fronteiras, localizar desastres ambientais e agir conforme a necessidade e a programação

Sob a liderança do engenheiro eletricista Michael Rubenstein, atualmente na Universidade Northwestern, os pesquisadores conseguiram fazer os robôs trocarem mensagens – de modo análogo a formigas e abelhas que se tocam ao longo do caminho ou em voo para troca de informações – entre eles por meio de luz infravermelha formando, com o conjunto de seus corpos, imagens como uma estrela ou a letra K. Cada robô, de acordo com a programação, participou da construção das imagens apenas com as informações transmitidas pelos vizinhos. “A capacidade dos robôs em resolver problemas é uma possibilidade aberta pelo aprendizado de máquina em que o artefato é programado para reconhecer o ambiente e tudo o que está a sua volta”, explica a cientista da computação Esther Luna Colombini, professora do Instituto da Computação da Universidade Estadual de Campinas (IC-Unicamp) e presidente, entre 2012 e 2016, da Robocup no Brasil, que organiza olimpíadas de robôs em todo o mundo. O aprendizado de máquina é um sistema computacional que permite aos robôs aprender com base em padrões e processar informações com a absorção de experiências

adquiridas. “De maneira geral, eles podem ‘aprender’ durante a execução de uma tarefa. Há muito espaço para uma redefinição do que os robôs vão fazer em cada situação”, explica Terra. “Eles são capazes de aprender com pouca informação. Cada robô pode identificar uma garrafa de Coca-Cola dentro de uma casa, mesmo sem ter sido preparado para reconhecer aquilo. Basta ele jogar a imagem na internet que conseguirá reconhecer”, conta Esther, que também é integrante da Sociedade de Automação e Robótica (RA Society) que faz parte da entidade norte-americana Instituto de Engenheiros Elétricos e Eletrônicos (IEEE). Ela lembra que nas competições de robôs, principalmente as de futebol robótico, a tecnologia de enxame normalmente não está presente porque cada jogador está programado para tarefas predeterminadas e não para atuar em grupo. “É possível simular estratégias de equipe que envolvam comportamentos dos robôs e características diferentes do programado para mudar um esquema tático durante o jogo, mas isso não é o normal nessas competições.” Os robôs de enxame podem ser mais baratos e simples do ponto de vista espESQUISA FAPESP 261  z  69


fotos 1 iscte-iul 2universidade harvard  3 mit

1

Experimento com grupo de robôs-barcos no rio Tejo, em Portugal, testa sistemas para ações coletivas como localização, agrupamento e dispersão

trutural do que aqueles mais frequentes nos meios de comunicação, semelhantes a humanos, com cabeça, tronco, pernas e braços. As máquinas na robótica de enxame precisam ter vários sensores e devem ser construídas com base na missão a cumprir. Dependendo do local de atuação, utilizam-se esteiras ou rodas multidirecionais para locomoção ou ainda pequenos barcos ou drones.

Características da robótica de enxame

Ação marinha

Homogeneidade do grupo

70  z  novembro DE 2017

De dezenas a milhares de robôs, cada um com identificação própria para cooperação e comunicação Controle descentralizado e autônomo Cumprem a tarefa sem um controle centralizado ou líder. Os membros do enxame interagem entre si e com o ambiente

Independentemente do tamanho do enxame, os robôs têm estrutura física e tecnológica bem parecida, que não pode ser alterada durante a tarefa Alta flexibilidade Devem atuar em tarefas diferentes com o mesmo hardware e pequenas alterações no software. Dentro dessa estrutura existem as especializações para ar, mar e terra Adaptabilidade Precisam ser capazes de se adaptar ao ambiente por meio de aprendizados e podem estabelecer estratégias para a tarefa Movimento em todas as direções As tarefas para um enxame de robôs podem abranger grandes áreas proporcionais ao tamanho das máquinas. A capacidade de ação deve ser multidirecional Aplicações extremas Podem ser usados em tarefas perigosas ou inacessíveis para seres humanos, como identificação de vítimas em acidentes ou desarme de minas. O enxame também atua na localização de jazidas minerais, segurança em empresas, detecção de gases e vazamentos de água, exploração de planetas, navegações marítima e aérea

fonte  Ying Tan e Zhong-yang Zheng, Defense Technology (2013)

Dois experimentos mostram o potencial da robótica de enxame para uso em ambientes aquáticos. O projeto Seaswarm, do MIT, prevê veículos robóticos autônomos de 4,8 metros de comprimento por 2,1 m de largura atuando em conjunto para extrair óleo da superfície do mar, principalmente em estuários e baías. São como barcos e se movem por meio de energia solar gerada por painéis fotovoltaicos instalados na parte superior do robô. Com isso, podem ficar vários dias no mar sem precisar voltar à terra. Uma esteira rolante na parte traseira do robô coleta o óleo na superfície. Quando a esteira se move para a parte da frente do robô, o óleo se solta e fica armazenado ali até o veículo voltar para a terra ou entregar a carga a um barco de coleta no caminho (ver imagem na página 71). Apresentado em 2010, o projeto Seaswarm ainda não foi transformado em um produto comercial. Em Portugal, pesquisadores do Instituto Universitário de Lisboa (ISCTE-IUL) e de outras instituições fizeram

Grande número de indivíduos


3

2

um experimento com pequenos barcos de 60 centímetros de comprimento com equipamento embarcado para estudar como os sistemas de robótica de enxame podem operar em condições reais. Foram utilizados 10 robôs-barcos, ao preço de € 300 cada, em um lago que recebe águas do rio Tejo, em Lisboa. Em artigo na revista PLOS ONE, de 2016, eles mostram o desenvolvimento dos sistemas de controle para quatro tarefas coletivas realizadas pelos robôs aquáticos: localização, agrupamento, dispersão e monitoramento de área. Cada uma foi testada em separado para verificar a robustez do sistema de algoritmos elaborado pelos pesquisadores. O objetivo desse sistema é utilizar esse enxame de robôs em serviços de monitoramento ambiental e vigilância. O grande desafio da atual situação da robótica de enxame é o aprimoramento dos sistemas de comportamento dos robôs. “É preciso estudar a comunicação entre eles feita por infravermelho, wi-fi, bluetooth ou ondas de rádio para que possam cumprir uma determinada tarefa”, diz Nadia Nedjah, professora da Faculdade de Engenharia da Universidade do Estado do Rio de Janeiro (Uerj). “Fazemos pesquisa básica, em que formamos, no computador, clusters de 40 a 70 indivíduos que se agrupam, mas não se conhecem a princípio. Um dos experimentos é contornar obstáculos formando triângulos com três robôs. Eles devem se movimentar juntos como uma

Na Universidade Harvard, experimento com 1.024 minirrobôs (à esq.). Acima, simulação computacional no MIT de robôs aquáticos fazendo limpeza no mar

formação de aves em voo, o que depende da conversação entre eles. Conforme a informação, eles tomam a decisão de acordo com as necessidades da tarefa e do grupo”, explica Nadia. Em um estudo finalizado em 2016 e publicado na revista International Journal Of Bio-Inspired Computation, ela avaliou um algoritmo, desenvolvido pelo grupo, para situações em que um robô precisa de colaboração de outros robôs em uma tarefa. Chamado de algoritmo de onda, esse sistema estabelece um processo de recrutamento por meio da propagação de mensagens transmitidas por infravermelho entre robôs vizinhos até verificar aqueles que podem ajudar. “A tecnologia tanto de hardware quanto de software já existe, mas tudo está na fase experimental”, diz Nádia. No InSac, que abrange mais seis universidades e três institutos de pesquisa brasileiros, um dos temas de estudo é a robótica de enxame aérea voltada para a agricultura. “Estamos estudando o uso na

pulverização de lavouras. Nesse sistema cada drone sabe a área que pulverizou. Caso um deles tenha ficado sem insumo ou com problemas técnicos, outros podem fazer o trabalho no seu lugar, sem precisar de um comando humano”, explica Terra. “A robótica de enxame ainda tem muito a avançar e o Brasil tem condições de disputar pequenos nichos que estão se formando nessa área, como na agricultura.” Terra lembra ainda que a evolução da robótica recai também sobre os carros autônomos, que poderão funcionar como um enxame. “Quando muitos deles estiverem na rua, vão precisar conversar entre si para tomar decisões. Por exemplo, em um cruzamento sem semáforo, terão que decidir quem passa primeiro com segurança por meio de sensores e algoritmos de sistemas computacionais embarcados”, analisa Terra. n

Projeto INCT 2014 – Instituto Nacional de Ciência e Tecnologia para sistemas autônomos cooperativos aplicados em segurança e meio ambiente (nº 14/50851-0); Modalidade Projeto Temático; Programa INCT; Pesquisador responsável Marco Henrique Terra (USP); Investimento R$ 2.234.701,20.

Artigo científico SILVA JÚNIOR, L. D. R. S. e NEDJAH, N. Distributed strategy for robots recruitment in swarm-based systems. International Journal of Bio-Inspired Computation. Publicado on-line em 4 mai. 2016.

pESQUISA FAPESP 261  z  71


ENGENHARIA AUTOMOTIVA y

Mais energia Baterias de carros elétricos evoluem, mas ainda perdem em densidade energética para os combustíveis tradicionais Yuri Vasconcelos

O

aumento da frota global de carros elétricos, que deverá representar 16% do total de automóveis em circulação no planeta em 2030, está gerando uma corrida na pesquisa e no desenvolvimento de novas baterias, a fonte de energia desses veículos. Um estudo do banco de investimentos Goldman Sachs mostrou que a demanda mundial por esse tipo de bateria deverá atingir US$ 40 bilhões (cerca de R$ 128 bilhões) por ano em 2025. O desafio é desenvolver um modelo mais barato, durável, seguro e capaz de armazenar mais energia, elevando a autonomia dos veículos elétricos (ver Pesquisa FAPESP nº 258). As baterias de lítio-íon, estado da arte no segmento, permitem que os motoristas rodem em média 250 quilômetros sem necessidade de recarga. O ideal é que esse patamar seja duplicado, equiparando os veículos elétricos à autonomia dos carros movidos a combustíveis fósseis e etanol. “Os esforços feitos nos últimos anos por fabricantes de baterias, indústria automobilística e centros de pesquisas resultaram em baterias com maior densidade energética [a quantidade de energia armazenada em função de sua massa ou volume]”, afirma o engenheiro eletricista Raul Beck, coordenador da Comissão Técnica de Veículos Elétricos e Híbridos da Sociedade de Engenheiros da Mobilidade (SAE Brasil) e responsável pela Área de Sistemas de Energia da Fundação Centro de Pesquisa e Desenvolvimento em Telecomunicações (CPqD), de Campinas (SP). Mesmo assim, os modelos mais avançados ainda estão longe de ter a mesma densidade de energia 72  z  novembro DE 2017

do etanol ou da gasolina. Enquanto as células de lítio armazenam cerca de 690 watts-hora (Wh) por litro (L), 1 litro de etanol hidratado possui aproximadamente 6.260 Wh de energia, e 1 litro de gasolina comum, cerca de 8.890 Wh. “Esses números mostram que a energia contida em 1 litro de etanol ou gasolina é bem maior do que a presente em [um volume de] 1 litro de bateria”, destaca o físico José Goldemberg, professor emérito da Universidade de São Paulo (USP) e presidente da FAPESP, especialista em energia. Seria preciso quase 13 litros de bateria para substituir 1 litro de gasolina. Embora em menor proporção, gasolina e etanol também são mais vantajosos do que a bateria quando se analisa o índice de conversão da energia para as rodas do veículo e se considera o volume que os respectivos sistemas de abastecimento ocupam no carro (tanque de combustível, mangueiras, tubulações etc., no caso de gasolina e álcool; e caixa eletrônica, refrigeração e ventilação, nas baterias). “Como a eficiência de conversão de energia da bateria para as rodas do carro elétrico é da ordem de 90%, 1 litro de bateria disponibiliza cerca de 430 Wh para as rodas”, aponta Beck, do CPqD. “Já a eficiência de conversão energética da gasolina e do etanol é muito menor, da ordem de 20%, mas, ainda assim, 1 litro de gasolina envia 1.420 Wh para as rodas, enquanto 1 litro de etanol disponibiliza 1.000 Wh.” Nesse cálculo, considerou-se que as células de lítio ocupam 70% do volume total da bateria e que gasolina e etanol representam 80% do volume do sistema de combustível dos

Baterias de lítio-íon em teste no laboratório do CPqD


Evolução das baterias Na busca por eficiência, quanto maior for a densidade volumétrica, menor é a bateria; e quanto mais elevada for sua densidade gravimétrica, mais leve ela fica Baterias menores

Lítio-íon (novos materiais)

800

Densidade volumétrica (Wh/L)

Tecnologias emergentes

Lítiopolímero

600 Lítio-íon

400

Níquelhidreto metálico

200

LFP*

Lítio-enxofre

LTO** Níquel-cádmio Chumbo-ácido

0 0

100

DIFERENTES TECNOLOGIAS 200

300

400

Densidade gravimétrica (Wh/kg) (massa)

Baterias mais leves

* Ferro-fosfato de lítio  ** Titanato de lítio Fonte CPqD

Bateria × Etanol × Gasolina Compare a densidade energética das baterias de lítio-íon com a de combustíveis tradicionais (em Wh/L)

690 foto  léo ramos chaves

Bateria de lítio-íon

6.260 Etanol hidratado

8.890 Gasolina comum Fonte CPqD

veículos convencionais. Assim, um reservatório de 50 litros de gasolina precisaria ser substituído por uma bateria com um volume de cerca de 165 litros, ao passo que um tanque de 50 litros de etanol necessitaria ser trocado por uma bateria com um volume ao redor de 115 litros. José Goldemberg destaca que, além da limitação energética das baterias, os veículos elétricos precisam superar outros obstáculos, como a inexistência de uma rede de recarga e o fato de, em muitos países, principalmente na Europa, a eletricidade ser gerada pela queima de combustíveis fósseis, o que reduziria a vantagem ambiental dos elétricos. O mais eficaz para contornar o problema da poluição nos grandes centros urbanos causada pela fumaça exalada pelo escapamento dos veículos, segundo o físico, é usar motores de combustão interna acionados por um combustível renovável e limpo (não originário de fontes fósseis), como o etanol, produzido a partir de cana-de-açúcar no Brasil e de milho nos Estados Unidos. Para Raul Beck, o etanol não é justificativa para que o Brasil deixe de acompanhar a trajetória de substituição dos carros a combustão por modelos movidos a bateria. “O veículo elétrico já é uma realidade e grande quantidade de recursos está sendo investida em vários países para melhorar o desempenho das tecnologias atuais de bateria”, conta. Ele explica que a vantagem das baterias de lítio-íon em relacão a outros modelos se dá porque o lítio tem um elevado potencial eletroquímico (capacidade de gerar energia a partir de reações químicas de óxido-redução) e é o metal mais leve e menos denso entre os elementos sólidos da tabela periódica. O lítio tem cerca de metade da densidade da água, ou seja, um bloco de 1 litro de lítio pesa 0,534 kg. “Com isso, é possível fazer baterias menores e mais leves, com alta densidade de energia”, ressalta a química Maria de Fátima Rosolem, pesquisadora da Área de Sistemas de Energia do CPqD. “Além disso, a bateria de lítio é constituída por materiais com baixo impacto ambiental e tem elevada vida cíclica [capacidade de sofrer sucessivas recargas e descargas].” Uma análise da evolução energética das baterias nos últimos anos mostra que as convencionais de chumbo-ácido, usadas em carros comuns, apresentam as menores densidades de energia gravimétrica (massa) e volumétrica, ou seja, são mais pesadas e maiores em comparação às demais tecnologias (ver gráfico ao lado). Elas são seguidas das baterias de níquel-cádmio, usadas principalmente em pilhas recarregáveis de ferramentas elétricas, de níquel-hidreto metálico, empregadas em veículos elétricos nos anos 1990, quando ainda não existiam modelos comerciais de baterias de lítio, e, por fim, das diferentes tecnologias de lítio-íon. n pESQUISA FAPESP 261  z  73


léo ramos chaves

Sede da empresa em São Paulo

74  z  novembro DE 2017


pesquisa empresarial

Oportunidades

digitais Totvs investe em P&D e se posiciona como

provedora de plataformas computacionais para a gestão do conhecimento Domingos Zaparolli

A empresa Totvs

Centro de P&D Unidades em São Paulo, Rio de Janeiro, Joinville, Belo Horizonte e uma no Vale do Silício, Estados Unidos

Nº de funcionários 2.105 profissionais

tecnologia digital mudou a forma como empresas e consumidores se relacionam. O e-commerce está incorporado aos hábitos de milhões de consumidores e dispositivos podem ser programados, por exemplo, para fazer pedidos automaticamente, como os supermercados que abastecem mensalmente uma residência a partir de uma lista de itens pré-aprovada. As relações entre empresas ou mesmo entre departamentos internos também são cada vez mais intermediadas por via digital, o que gera um acervo gigantesco de dados, que podem ser usados para aprimorar processos, aumentar a produtividade e inspirar novas propostas de negócios. A Totvs, maior empresa brasileira de tecnologia, enxergou nesse cenário uma oportunidade para se transformar em uma provedora de plataformas de gestão do conhecimento, ou seja, em uma empresa capaz de oferecer aos seus clientes os meios tecnológicos para gerar valor a partir dos seus dados de negócios. Dados como quem compra seus produtos, quais são os fornecedores e os valores, além de manter as informações cadastrais dos clientes. Criada em 1989, a Totvs, que significa “todos” em latim, é resultado de uma estratégia comandada por Laércio Cosentino, fundador da Micro-

siga, antiga empresa de software brasileira, que incorporou mais de 20 fabricantes brasileiros de softwares corporativos, entre eles a Logocenter, a RM Sistemas e a Datasul. O motor de expansão da nova empresa se deu com a oferta de software para ERP (sigla para Enterprise Resource Planning, ou Sistema de Gestão Empresarial). O foco do sistema ERP é a gestão da chamada “quadrilha”: as áreas de estoque, contábil, financeira e fiscal. Em 2015, a Totvs incorporou a Bematech, fabricante de hardware – como impressoras de cupom fiscal – e softwares integrados para automação comercial. No ano passado, a Totvs obteve uma receita líquida de R$ 2,2 bilhões com uma estrutura composta por uma sede em São Paulo e quatro filiais no Brasil, 52 franquias e sete unidades em países da América Latina. A equipe é formada por 7.388 funcionários, sendo que 4.070 possuem instrução de nível superior, outros 941 são pós-graduados em cursos de especialização e 56, mestres e doutores. Weber Canova, vice-presidente de Tecnologia da companhia, relata que nos últimos cinco anos foi investido R$ 1,2 bilhão em pesquisa e desenvolvimento (P&D), recurso que permitiu diversificar o campo de atuação da empresa. O resultado é uma série de inovações que estão chegando ao mercado, como soluções de inteligência artificial pESQUISA FAPESP 261  z  75


(IA), internet das coisas, big data e computação na nuvem. A estrutura de P&D tem uma equipe de 2.105 pessoas divididas em seis unidades distintas: São Paulo, Rio de Janeiro, Joinville, Belo Horizonte, Porto Alegre e o Totvs Lab, no Vale do Silício, nos Estados Unidos. Esses profissionais também atuam no desenvolvimento de adaptações para determinados clientes de produtos já existentes. A primeira das novas plataformas foi o Fluig, que chegou ao mercado em 2013 e integra, em uma única interface, acessível de qualquer dispositivo móvel, ferramentas de colaboração, processos e gestão de conteúdo. Em 2014 foi lançada uma plataforma digital para a área de recursos humanos, que no início de 2017 ganhou uma nova versão com aplicativo para uso em dispositivos móveis. Em junho deste ano, a Totvs lançou a Carol, plataforma de inteligência artificial desenvolvida pela Totvs Lab. A inteligência artificial aprimora a organização de dados, a análise de informações e gera insights de negócios, reduzindo a subjetividade no processo de decisão. Ela poderia, por exemplo, ser utilizada por uma universidade pri-

No alto, elaboração de um aplicativo para o segmento agroindustrial. Acima, projetos para dar maior automação e opções para o cliente nas lojas do futuro

equipe de Pesquisadores Confira alguns dos profissionais que fazem P&D na Totvs e conheça as instituições responsáveis pela formação acadêmica Laércio Cosentino, presidente

Universidade de São Paulo (USP): graduação

Weber Canova, engenheiro eletricista, vice-presidente de tecnologia

Instituto Mauá de Tecnologia: graduação

União de Tecnologia e Escolas de Santa Vicente Goetten, tecnólogo da Informação, diretor-executivo e gerente-geral da Totvs Labs Catarina (Utesc): graduação

Eros Jantsch, engenheiro eletricista e físico, vice-presidente de micro e pequenos negócios

Centro Federal de Educação Tecnológica do Paraná (Cefet-PR): graduação Universidade Federal do Paraná (UFPR): graduação

Gustavo Oliveira, designer, head de design e inovação

Escola Panamericana de Artes: graduação

Ronan Maia, engenheiro civil, vice-presidente de distribuição e varejo

Universidade Federal de Goiás (UFG): graduação

76  z  novembro DE 2017

vada para agir de forma a evitar a desistência de um aluno quando percebe um alto índice de falta ou atraso na mensalidade. Também um agricultor teria dados para a decisão de pulverizar defensivos na lavoura com base em informações sobre incidências de pragas em uma região vizinha. A capacidade de resposta desse tipo de plataforma depende do acúmulo de dados com os quais é alimentada. No caso da Carol, a ideia é agregar informações obtidas por meio dos dados gerados pela própria base de clientes da Totvs, que reúne por volta de 30 mil empreendimentos, de grandes corporações a pequenos negócios, em 11 diferentes segmentos de mercado: agroindústria, manufatura, distribuição e logística, serviços, varejo, bancos, construção e projetos, jurídico, educacional, saúde e micro e pequenos negócios. “Além da tecnologia, oferecemos a experiência em negócios, com dados do mercado da cadeia produtiva do setor em que a empresa atua”, diz Canova. Uma das aplicações que estão sendo desenvolvidas com base na Carol é uma solução para pontos de venda. A ideia é coletar, com a aprovação e concordância dos comerciantes que contratarem o serviço, uma série de dados sobre os itens comercializados. Em um restaurante, por exemplo, dados sobre volume e preço de vendas de bebidas e refeições, horários e dias de maior público. As informações geram relatórios de desempenho que podem ser comparados com a média de concorrentes da região, permitindo adequações do planejamento. A plataforma ainda é alimentada com dados que podem gerar insights. Informações sobre a previsão do tempo, por exemplo, podem indicar se o clima nos próximos dias vai estimular a venda de produtos quentes ou gelados. A programação de um jogo nas imediações de um bar vai atrair público extra para a região e aumentar a venda de bebidas. Um feriado próximo vai influenciar o volume de vendas e é preciso ajustar estoques. “Vamos disponibilizar tecnologia de forma simples e acessível para estabelecimentos de todos os portes”, diz Eros Jantsch, vice-presidente de Micro e Pequenos Negócios da Totvs. Para viabilizar essa proposta, a forma de comercialização também precisa ser inovadora. “Não vamos abordar o pequeno empreendedor com um discurso de IA. A ideia é apresentar um pacote de soluções práticas para o dia a dia em uma nova plataforma que deverá ser chamada de Bema”, explica. O sistema terá versões específicas para cada um dos 10 segmentos de atuação da Totvs. O em-


Loja do futuro Novas ferramentas tecnológicas facilitam a escolha do cliente Uma demonstração de como a tecnologia vai transformar o varejo pode ser vista desde o final de agosto na Omnistory, no shopping Villa Lobos, na zona oeste de São Paulo. Trata-se de uma loja-laboratório, iniciativa da consultoria especializada em varejo, a GS& Gouvêa de Souza, que usa ferramentas tecnológicas desenvolvidas pela Totvs. A loja é multicanal, une vendas físicas, e-commerce ou por aplicativos de smartphones, como os chatbots (abreviação para robô de chat, um Laboratório de inovação, em São Paulo: desenvolvimento de plataformas para gestão de dados

assistente virtual que gerencia as trocas de mensagens). Entre as inovações da loja-laboratório está a possibilidade de o cliente selecionar um produto pelo celular de dentro ou de fora da loja, finalizar a compra e escolher o local onde deverá pegar sua compra: na própria loja, em casa ou em um locker, um ponto de retirada cadastrado. Essa

preendedor não pagará pela licença de software. A tecnologia fica disponível em nuvem e o cliente pagará uma assinatura mensal para acessar, com o valor definido de acordo com o número de usuários e o consumo da informação. É uma opção de contrato que a Totvs já adota para seus demais produtos desde 2015.

situação é possível, por exemplo, quando não existir o produto no estoque da loja, a pessoa não quiser sair do estabelecimento com a compra ou prefira evitar filas. Ao entrar na loja, uma câmera conectada à plataforma de IA Carol faz o reconhecimento do cliente, levanta seu perfil e histórico de compras, e aciona um sistema de sugestões e ofertas individualizadas que são mostradas

fotos  léo ramos chaves

em displays digitais ou em uma vitrine interativa, onde Automação comercial

há informações sobre o produto, mesmo que o item

Na área de automação comercial, um importante desenvolvimento realizado pela Totvs Bematech é o controle fiscal do ponto de venda para informação ao Sistema Autenticador e Transmissor de Cupons Fiscais Eletrônicos (SAT), que gera dados automáticos via internet para as secretarias estaduais da Fazenda. “É um sistema sensível, que não pode gerar erros nem ter brechas por onde possa ser burlado”, explica Jantsch. O parceiro estratégico da Totvs no desenvolvimento, teste e aperfeiçoamento de solução de controle fiscal são os Institutos Lactec, centros privados de tecnologia localizado em Curitiba (PR). O engenheiro eletricista Jefferson Chapieski, gerente do Departamento de Eletrônica e TI da Lactec, diz que a parceria é desafiadora, porque soluções para o mercado demandam respostas rápidas. “Trabalhamos com pesquisadores acostumados à universidade e essa é uma oportunidade para adequar nosso pessoal acadêmico às exigências do mundo empresarial”, diz Chapieski. A equipe do Lactec que trabalha com os projetos da Totvs soma 20 pessoas, sendo 15 pesquisadores. Há oito anos, a Lactec levava até duas semanas em testes para homologar uma solução de controle fiscal, hoje o trabalho é realizado em dois dias, com um processo de testes automatizados. n

não esteja disponível no ponto de venda. A efetivação da compra presencial é realizada em um ponto de venda móvel – local que serve de caixa e emissão do cupom fiscal – instalado no smartphone dos vendedores, dispensando caixas, ou seja, todo atendimento poder ser feito por um único funcionário, a loja ganha mais espaço físico para a circulação dos clientes e exposição de produtos. Todas as tecnologias são integradas com a plataforma de Sistema de Gestão Empresarial (ERP) da Totvs, permitindo a gestão em tempo real de estoques, do crédito e fluxo de caixa, e do recolhimento fiscal. Nos primeiros quatro meses de funcionamento da loja, estão sendo comercializados produtos na área de saúde, beleza e bem-estar, por meio de parcerias com empresas desses segmentos de mercado, mas a ideia da consultoria é alterar o mix de itens disponíveis a cada quadrimestre até o final de 2018, quando a experiência deve ser encerrada. Ronan Maia, vice-presidente de Distribuição e Varejo da Totvs, diz que a expectativa é de que muitas das tecnologias expostas se tornem comuns no varejo brasileiro nos próximos anos. “O consumidor já é digital. O varejista precisa também realizar sua transformação digital para continuar se relacionando com sua clientela e capturar novos consumidores”, analisa.

pESQUISA FAPESP 261  z  77


humanidades   história y

A saúde

entre dois mundos Africanos e seus descendentes atuavam como sangradores e parteiras, funções essenciais para a sociedade brasileira no século XIX

N

o Rio de Janeiro do século XIX, os médicos, cirurgiões e boticários eram em sua maioria brancos e pertenciam a classes sociais mais abonadas. Já os sangradores, curandeiros, parteiras e amas de leite eram quase sempre escravos, libertos e pessoas livres empobrecidas, entre elas imigrantes e africanos livres. Era essa população desfavorecida que tratava dos problemas de saúde mais urgentes de quem precisava, não importava se ricos ou pobres. Os sangradores ofereciam seus serviços pelas ruas e praças das cidades e em lojas de barbeiros, enquanto as parteiras trabalhavam em ambientes domésticos, cuidando de questões relacionadas não apenas ao parto, mas também a abortos e doenças genitais. Entre 1808 e 1828, a Fisicatura-mor, órgão criado pelo governo central e sediado no Rio de Janeiro, naquela época a capital do Império, fiscalizava e regulamentava as “artes de cura”, incluindo tanto as atividades praticadas por médicos como aquelas desenvolvidas por pessoas sem formação acadêmica. O órgão estabelecia

78  z  novembro DE 2017

que os médicos deveriam diagnosticar e tratar de doenças internas do corpo, enquanto cirurgiões se ocupavam de moléstias externas. Já os boticários manipulavam os medicamentos receitados por médicos e cirurgiões. “Oficialmente, sangradores e parteiras deveriam lidar com casos simples de doença e fazer apenas o que médicos ou cirurgiões mandassem. Porém, a população recorria a eles porque partilhava de suas concepções de doença e saúde”, observa a historiadora Tânia Salgado Pimenta, pesquisadora da Casa de Oswaldo Cruz/Fundação Oswaldo Cruz e professora do Programa de Pós-graduação em História das Ciências e da Saúde (COC/Fiocruz). O cenário acima é descrito em Escravidão, doenças e práticas de cura no Brasil (Outras Letras, 2016), organizado por Tânia Pimenta e o historiador Flávio Gomes, do Instituto de História da Universidade Federal do Rio de Janeiro (UFRJ). No livro, eles apresentam os resultados do projeto de pesquisa realizado na Fiocruz entre 2013 e 2016, com financiamento do Conselho Nacional de Desenvolvimento Científico e Tecno-

mÃe preta, de Lucílio de Albuquerque / wikimedia commons

Christina Queiroz


Ama de leite amamenta recém-nascido branco, com seu próprio filho ao lado: bebês negros não aparecem nas imagens da época


1

lógico (CNPq) e da própria Fiocruz. Os estudos indicam que ofícios centrais à saúde da sociedade brasileira naquele momento eram desempenhados por escravos e libertos, numa época em que a medicina acadêmica disputava espaço com as práticas populares de cura.

E

m relação à sangria, Tânia Pimenta esclarece que, desde Hipócrates (460 a.C. a 370 a.C.), a medicina acadêmica concebia que o corpo humano era formado por quatro “humores”: sangue, fleuma, bílis amarela e bílis negra provenientes, respectivamente, do coração, sistema respiratório, fígado e baço. De acordo com ela, sobretudo a partir de Galeno (século II), os médicos acreditavam que o desequilíbrio entre esses elementos em partes do corpo poderia ser combatido através da sangria, assim como por meio de remédios que fizessem o indivíduo vomitar, evacuar ou urinar. Por isso, a sangria servia para tratar doenças como cólera, além de febres, tosses e constipações, também consideradas enfermidades naquela época. “Eram os terapeutas populares e não os médicos que se ocupavam dessa atividade, considerada inferior por causa da necessidade de tocar o corpo do paciente e mexer 80  z  novembro DE 2017

com sangue”, afirma Tânia. De acordo com ela, muitos dos sangradores também atuavam como barbeiros, aproveitando seus instrumentos de corte tanto para fazer incisões como para cortar o cabelo e a barba de homens. Se fossem escravos, os sangradores faziam arranjos com seus senhores, dando-lhes parte dos rendimentos obtidos com a atividade. Tânia relata que, no decorrer do século XIX, estudantes das duas primeiras faculdades de medicina criadas no Brasil em 1832, em Salvador e no Rio de Janeiro, passaram a assumir essa tarefa, desqualificando o trabalho da população afrodescendente. “A partir das descobertas do francês Louis Pasteur em microbiologia e do desenvolvimento da medicina microbiana, a sangria deixou aos poucos de ser recomendada”, esclarece Tânia. Ela detalha que no século XIX a medicina não tinha a mesma credibilidade que tem hoje entre a população brasileira, reputação que se relaciona com sua institucionalização no país. Esse processo, que se consolidou apenas no século XX, comeLicença concedida pela çou na primeira metade do XIX com a criação Fisicatura-mor das faculdades de medicina do Rio e da Bahia, em 1817 de periódicos médicos especializados a partir do para que o final da década de 1820 e da Sociedade de Mecurandeiro Bento possa dicina do Rio de Janeiro em 1829, transformada atuar na região em Academia Imperial de Medicina em 1835. de Inhaúma O historiador Rodrigo Aragão Dantas, doutodurante o rando na Fiocruz, explica que, no começo do séperíodo de um ano culo XIX, para atuar como sangrador ou parteira era preciso ter um registro na Fisicatura-mor, possibilidade que foi extinta em 1828, quando a responsabilidade pelos serviços de saúde púSangradores e blica passou às câmaras muparteiras atuavam nicipais. De acordo com ele, nesse momento, os sangrano Brasil numa dores deixaram de obter o registro oficial para trabaépoca em que lhar e passaram a atuar clandestinamente. Mesmo assim, práticas populares não perderam a credibilidade cura disputavam de com a população.

espaço com a medicina acadêmica

Maternidade mercenária

A população de escravos e libertos também desempenhava um papel central na sobrevivência dos recém-nascidos das classes médias e abastadas. As mulheres brancas não costumavam amamentar seus bebês. A atividade era vista como trabalho e, por essa razão, elas recorriam ao leite de mulheres negras que tinham acabado de parir, fossem escravas de sua propriedade, alugadas de terceiros ou mesmo libertas. “Naquela época, um recém-


2

fotos 1 Arquivo Nacional, fundo Fisicatura-Mor, caixa 466, pacote 1 2 Eduardo cesar redrodução do livro Debret e o Brasil

Numquid quidi dolorehenis ratur aliquid ut vit, aut alitia nonsedit di seque volupta natas con ex exercilic te sequas esciis veleceaque name ni officat

-nascido que não contasse com leite materno dificilmente sobrevivia, tanto nas classes senhoriais como entre famílias empobrecidas”, observa Maria Helena Pereira Toledo Machado, professora no Departamento de História na Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP). Ela conta que os norte-americanos Charles Windship e Elijah Pratt inventaram as mamadeiras entre 1841 e 1845, enquanto a descoberta do processo de pasteurização e esterilização do leite data de 1859 e 1886, respectivamente. Em 1867, foi criada a primeira fábrica de fórmulas de leite em pó na Europa. “Aos poucos, esses eventos tornaram a alimentação artificial de recém-nascidos mais segura. No Brasil, já apareciam alguns anúncios de leite em pó para bebês na década de 1870, mas os produtos circulavam pouco porque eram importados, caros e havia pouco estoque”, esclarece Maria Helena. Por causa disso, na segunda metade do século XIX, no Brasil, a preferência ainda era pelas amas de leite. Apesar de a prática existir em outros países onde a escravidão vigorou, Maria Helena considera que ela ocorreu de maneira mais intensa no Brasil. “Nos Estados Unidos, fazendeiras sulistas chega-

Cirurgião negro colocando ventosas, de Jean-Baptiste Debret: sangradores atendiam a população em ruas e praças

vam a recorrer a escravas que haviam dado à luz na mesma época para se revezar na amamentação do recém-nascido”, compara. Aqui, em mais de 90% dos anúncios de jornais do período, as amas de leite escravas eram anunciadas sem os próprios filhos. O valor dessas mulheres era três vezes mais alto do que quando elas eram oferecidas para aluguel com a própria prole. “Pouco sabemos sobre os destinos dos filhos que eram separados de suas mães escravizadas. Muitos morriam por falta de aleitamento ou eram abandonados pelos senhores dessas mulheres em igrejas, praças públicas ou instituições de caridade”, relata.

O

tema da maternidade na escravidão foi estudado em um projeto de pesquisa financiado pelo Arts and Humanities Research Council (AHRC), do Reino Unido, que vigorou entre 2015 e 2016, reunindo Maria Helena e outras pesquisadoras que também trabalham com escravidão e gênero. Elas organizaram um dossiê, com dois volumes, intitulado Mothering slaves: Motherhood, childlessness and the care of children in atlantic slaves societies, publicados nas revistas Slavery and Abolition e Women’s History Review, em junho e agosto deste ano. pESQUISA FAPESP 261  z  81


Um curandeiro no Hospital da Marinha

A historiadora Karoline Carula, professora no Departamento de História da Universidade do Estado do Rio de Janeiro (Uerj), afirma que, após a década de 1870, teorias científicas que racializavam a humanidade começaram a ser difundidas no Brasil. “Para os médicos com uma visão racializada da humanidade e que consideravam os negros inferiores, a inferioridade racial gerava leite ruim. Assim, eles passaram a depreciar o leite das amas negras”, detalha Karoline.

E

m outra atividade central à saúde da população no século XIX, as parteiras também eram majoritariamente escravas e libertas. Os partos eram feitos em casa e apenas mulheres miseráveis optavam por parir em hospitais ou casas de saúde. “Naquela época, os médicos tinham uma formação teórica e geralmente concluíam os estudos sem ter assistido a partos, enquanto as parteiras dispunham de anos de experiência prática”, conta Maria Helena. A historiadora Lorena Féres da Silva Telles, doutoranda na FFLCH-USP e autora do livro Libertas entre sobrados: Trabalho doméstico em São Paulo (1880-1900) (Alameda, 2014), considera que a falta de prática dos médicos em obstetrícia é uma questão que atravessa o século XIX. A entrada dos médicos nesse campo foi lenta por conta de barreiras morais, que faziam manequins serem 82  z  novembro DE 2017

A parteira e ama de leite Petrolina com uma criança branca no Recife: fotos evidenciam destino incerto dos bebês negros

Entre 1808 e 1828, a Fisicatura-mor reprimiu o trabalho de pessoas não habilitadas formalmente para atuar com práticas de cura, entre elas os curandeiros. Depois de 1828, apesar de proibidos pelo órgão de trabalhar, os curandeiros mantiveram a credibilidade entre a população. A historiadora Rosilene Gomes Farias, doutora pela Universidade Federal de Pernambuco (UFPE), estudou a trajetória do africano escravizado Pai Manoel e sua atuação como curandeiro durante a epidemia de cólera no Recife, em 1856. A historiadora conta que, nos momentos iniciais da epidemia, ele atendia principalmente a população negra e mestiça. Depois, algumas curas atribuídas ao seu remédio atraíram a atenção de famílias abastadas e também dos médicos. “Pesquisando em jornais da época como Diário de Pernambuco ou O Liberal Pernambucano, vi que os médicos da Comissão de Higiene Pública procuraram o curandeiro para saber detalhes do seu tratamento, feito a partir de uma fórmula com ervas”, conta Rosilene. No momento mais crítico da epidemia, as autoridades permitiram que Pai Manoel atuasse no Hospital da Marinha. O episódio repercutiu mal na Academia Imperial de Medicina e motivou a renúncia coletiva dos membros da Comissão de Higiene Pública, além da prisão do curandeiro. “Sua história revela as disputas que existiam entre médicos e curandeiros no século XIX”, conclui. n

Livro PIMENTA, T. S. e GOMES, F. (orgs.). Escravidão, doenças e práticas de cura no Brasil. Rio de Janeiro: Outras Letras, 2016, 312 p. Os artigos científicos consultados para esta reportagem estão listados na versão on-line.

Alberto Henschel & Cº / Acervo Fundação Joaquim Nabuco - Ministério da Educação

usados nos estudos práticos da faculdade. Lorena identificou em suas pesquisas que as únicas oportunidades de os estudantes assistirem aos partos eram no caso das mulheres escravizadas, libertas ou pobres. “Em uma maternidade municipal que funcionou no Rio no início da década de 1880, os partos eram feitos na presença de estudantes, que podiam apalpar, observar a dilatação e examinar as mulheres, provavelmente contra a vontade delas. O conhecimento médico em obstetrícia nesse período foi desenvolvido sobretudo a partir da experiência com mulheres pobres ou escravas”, sustenta. A pesquisadora fez essas constatações analisando casos clínicos publicados em revistas médicas da época; teses de conclusão de curso em medicina sobre os temas da amamentação e higiene infantil defendidas durante o século XIX; jornais diários e periódicos médicos disponíveis na Biblioteca Nacional e na biblioteca do Centro de Ciências da Saúde da UFRJ.


TEORIA LITERÁRIA y

Ideias de muitos lugares Ao vencedor as batatas, livro de ensaios de Roberto Schwarz, completa 40 anos de debates em várias áreas do conhecimento

ilustração  Alexandre Camanho  Foto do livro  Editora 34

Haroldo Ceravolo Sereza

Pesquisadores de áreas diversas se reuniram para debater a obra em setembro

H

á 40 anos, o crítico literário Roberto Schwarz publicou Ao vencedor as batatas: Forma literária e processo social nos inícios do romance brasileiro (Duas Cidades/Editora 34), que discute o surgimento do romance no Brasil a partir de análises das obras de José de Alencar (18291877) e Machado de Assis (1839-1908). No livro, Schwarz pratica a crítica literária em permanente diálogo com questões das ciências sociais, enfatizando a disparidade que havia entre a sociedade brasileira escravista e as ideias do liberalismo europeu, contexto em que ocorreu a gênese do romance como forma literária no século XIX. O crítico discute como o descompasso das ideias europeias adotadas no Brasil se evidencia nas obras de Alencar e Machado, defendendo que o romance era uma linguagem alheia por meio da qual se manifestava o desejo de autenticidade dos escritores. “Ao longo de sua reprodução social, incansavelmente o Brasil põe e repõe ideias europeias, sempre em sentido impróprio. É nesta qualidade que elas serão matéria e problema para a literatura”, escreve Schwarz em um dos ensaios do livro. O aniversário de publicação da obra, considerada uma das mais significativas para a crítica literária e o pensamento social brasileiro, foi tema de um seminário organizado pela Faculdade de Filosofia, Letras e Ciências Humanas da UnipESQUISA FAPESP 261  z  83


versidade de São Paulo (FFLCH-USP), em setembro. Professores e jovens pesquisadores das áreas de letras, filosofia, sociologia e ciência política se reuniram para debater a obra. O célebre texto “As ideias fora do lugar”, que abre o livro, procura dar conta desse deslocamento, ao defender que, no Brasil do final do século XIX, as ideias provenientes do universo burguês europeu, entre elas o trabalho livre e o progresso, estavam fora de centro em relação ao seu uso na Europa. O crítico escreveu esse ensaio durante o exílio em Paris, para onde foi em 1968, quando a repressão por parte do governo militar brasileiro se tornou mais violenta, e voltou apenas em 1978.

P

84  z  novembro DE 2017

Crítico escreveu o célebre ensaio “As ideias fora do lugar” durante exílio em Paris, para onde foi em 1968

principais tratados no livro: o “favor”, conceito que permite a entrada em cena de Machado de Assis e um dos momentos em que teoria literária e sociologia se combinam. Em Quincas Borba (1892), o personagem principal, Rubião, recebe uma enorme herança e dela vive distribuindo e negociando agrados reais e imaginários. Todo o dinheiro que Rubião herda se esvai – e, junto, sua sanidade. Ele, no entanto, jamais deixa de repetir a máxima “ao vencedor as batatas”, que vai ganhando contornos cada vez mais irônicos, ao longo da narrativa (ver quadro na página ao lado).

Para Schwarz, o personagem seria uma expressão das marcas que o trabalho escravo deixa, não apenas na relação entre proprietários e escravos, mas também no ambiente do trabalho livre. Se na Europa a relação entre trabalho livre e burguesia parece dar às duas partes grau semelhante de liberdade, o favor praticado na periferia do capitalismo (ou seja, no Brasil e, sugere Schwarz, sem se deter longamente, na América Latina) explicita uma relação de trabalho em que ocorre a dependência do trabalhador diante dos poderosos, que raramente são burgueses no sentido europeu do termo, mas proprietários, em geral. Os ensaios que sucedem o texto inicial do livro de Schwarz se sustentam, cada um, em torno dos livros da primeira fa-

ilustração  Alexandre Camanho

ublicado originalmente na revista Novos Estudos, do Centro Brasileiro de Análise e Planejamento (Cebrap), em 1973, o ensaio procura explicar o que significou a adoção da ideologia liberal pela classe dirigente brasileira no século XIX. Schwarz adota o conceito marxista de ideologia e afirma que, se o discurso liberal já significava um acobertamento da realidade na Europa, aqui, seu sentido era ainda mais complicado: afinal, como pensar a “liberdade” e as relações de trabalho livre em uma sociedade organizada em torno da escravidão? Como as ideias gestadas na Europa operavam em condições materiais e simbólicas tão diferentes como as brasileiras? “Nesse contexto, as ideologias não descrevem sequer falsamente a realidade, e não gravitam segundo uma lei que lhes seja própria – por isso as chamamos de segundo grau”, escreve Schwarz. Quando menciona “segundo grau”, o autor parte da leitura de que na Europa a ideologia liberal já mascara, no século XIX, a realidade material e das relações de classe. Uma ideologia de segundo grau, em vez de acobertar e, portanto, de mascarar a opressão, serviria, ao contrário, como justificativa direta para a opressão. Um trecho que o autor fez questão de destacar no ensaio “As ideias fora de lugar”, realçando o caráter central de sua argumentação, afirma: “(...) adotadas as ideias e razões europeias, elas podiam servir e muitas vezes serviram de justificação, nominalmente ‘objetiva’, para o momento de arbítrio que é da natureza do favor”. O trecho indica um dos temas


se de Machado de Assis: Ressurreição (1872), A mão e a luva (1874), Helena (1876) e Iaiá Garcia (1878). Nesses romances, o favor participa diretamente da construção dos enredos, que narram histórias ou projetos de ascensão social diante de uma sociedade que impõe barreiras aos mais pobres. Já o título Ao vencedor as batatas foi tirado de um romance da fase posterior de Machado, quando os narradores e protagonistas de Memórias póstumas de Brás Cubas (1881), Quincas Borba, Dom Casmurro (1899), Esaú e Jacó (1904) e Memorial de Aires (1908) passam a exercer, com rodopios e digressões, um discurso duplo, capaz de defender a livre negociação e a escravidão, simultaneamente. É esse o momento em que a forma social se faz forma literária, não como um espelho, mas como uma nova construção. As leituras do que o crítico literário chamou de “viravolta machadiana” foram detalhadas em outros ensaios de sua autoria, em especial no livro Um mestre na periferia do capitalismo (1990) e em artigos reunidos em Que horas são? (1987), Sequências brasileiras (1999), Duas meninas (1997) e Martinha versus Lucrécia (2012).

N

a origem da frase “ao vencedor, as batatas”

No sexto capítulo de Quincas Borba, Machado de Assis dá voz ao personagem do mesmo nome para que ensine ao amigo Rubião seus conceitos filosóficos “Supõe tu um campo de batatas e duas tribos famintas. As batatas apenas chegam para alimentar uma das tribos, que assim adquire forças para transpor a montanha e ir à outra vertente, onde há batatas em abundância; mas, se as duas tribos dividirem em paz as batatas do campo, não chegam a nutrir-se suficientemente e morrem de inanição. A paz, nesse caso, é a destruição; a guerra é a conservação. Uma das tribos extermina a outra e recolhe os despojos. Daí a alegria da vitória, os hinos, aclamações, recompensas públicas e todos demais efeitos das ações bélicas. Se a guerra não fosse isso, tais demonstrações não chegariam a dar-se, pelo motivo real de que o homem só comemora e ama o que lhe é aprazível ou vantajoso, e pelo motivo racional de que nenhuma pessoa canoniza uma ação que virtualmente a destrói. Ao vencido, ódio ou compaixão; ao vencedor, as batatas.”

ascido na Áustria e aluno de ciências sociais de 1957 a 1960 da Universidade de São Paulo, Schwarz foi um dos mais jovens integrantes de um seminário que discutia O capital, de Marx, que reuniu em 1958 nomes centrais na vida universitária paulista de várias áreas, entre eles Fernando Henrique Cardoso, Fernando Novais, José Arthur Giannotti e Paul Singer. Depois, Schwarz fez mestrado em teoria literária e literatura comparada na Universidade Yale, nos Estados Unidos. Retornando ao Brasil, tornou-se assistente de Antonio Candido no Departamento de Teoria Literária da USP. O doutorado foi realizado na Universidade Paris III, na França. Um dos pontos de partida de Ao vencedor as batatas foi justamente o resgate crítico do processo histórico elaborado por Candido no livro Formação da literatura brasileira: O estudo das relações entre forma literária e processo social nos inícios do romance brasileiro, publicado em 1959. “Que a literatura faça parte da sociedade ou pESQUISA FAPESP 261  z  85


A

s escolhas de Schwarz resultaram em diversas polêmicas, entre elas a de que o autor faz mais sociologia do que crítica literária. Para João Cezar de Castro Rocha, professor de literatura comparada da Universidade Estadual do Rio de Janeiro (Uerj), essa crítica se explica pela trajetória da disciplina da crítica literária como pós-graduação no país, em que um “forte binarismo” opôs duas correntes. Uma delas priorizou as discussões formais e se organizou em torno da revista Noigandres e dos poetas e críticos Haroldo e Augusto de Campos. A outra enfatizou as discussões sobre como o que é externo à obra se expressa em forma literária. “O subtítulo de Ao vencedor as batatas é ‘Forma literária e processo social’. Chamo a atenção para o ‘e’ e para a ordem dos termos, não é ‘processo social e forma literária’”, observa Castro Rocha. Na opinião do pesquisador da Uerj, o sucesso do livro se explica pela superação, por Schwarz, de um lugar-comum que era corrente nos anos 1960, quando o livro começou a ser pensado: a ideia do absenteísmo de Machado, ou seja, a leitura de que ele não tratava das questões políticas e raciais de seu tempo. Com Schwarz, Machado deixou de ser, então, “um Luciano de Samósata nascido no morro do Livramento”, como o tratou o crítico Alfredo Pujol (1865-1930) referindo-se ao satirista nascido na Síria em cerca de 120 d.C. Os argumentos de Schwarz não criaram polêmica apenas no campo estrito da teoria literária. Bernardo Ricupero,

86  z  novembro DE 2017

O método de Schwarz provocou diversas polêmicas. Uma delas atribui a ele fazer mais sociologia do que crítica literária

professor de ciência política da USP e um dos participantes do seminário que celebrou os 40 anos da obra, registrou no artigo “Da formação à forma. Ainda as ‘ideias fora do lugar’”, publicado na revista Lua Nova, que “uma das formulações mais atacadas, e mal compreendidas, da crítica da cultura brasileira é a das ‘ideias fora do lugar’”. De acordo com Ricupero, a filósofa Maria Sylvia Carvalho Franco, professora aposentada da USP, autora de Homens livres na sociedade escravocrata (1977), sustenta “que centro e periferia fariam parte do mesmo modo de produção, favorecendo diferentes momentos do processo de constituição e reprodução do capital”, o

que reduziria o sentido de pensar o liberalismo como uma ideia fora do lugar no Brasil da maneira como fez o crítico. Outra polêmica importante se deu entre Schwarz e o também crítico e historiador de literatura Alfredo Bosi, autor de Brás Cubas em três versões: Estudos machadianos (2006). “Bosi defende a existência de formas diferentes de liberalismo ao longo do século XIX brasileiro que invalidariam a possibilidade de traçar uma ideologia uniforme para as camadas dominantes do Brasil no período. Havia noções conflitantes de liberalismo – e esse é o traço que, segundo Bosi, teria escapado a Schwarz”, escreveu o sociólogo Flávio de Rosa Moura no artigo “Um crítico no redemoinho”, na revista Tempo Social, em 2011. Schwarz, por muitas vezes, procurou responder às polêmicas. Uma dessas ocasiões ocorreu em um encontro em Buenos Aires, em 2009. “Ora, é claro que nunca me ocorreu que as ideias no Brasil estivessem no lugar errado, nem aliás que estivem no lugar certo, e muito menos que eu pudesse corrigir a sua localização – como o título sugeriu a muitos leitores”, escreveu ele no texto “Por que ‘ideias fora do lugar’”, publicado no livro Martinha versus Lucrécia. “O problema do ensaio – a que o título aludia ironicamente, com distanciamento brechtiano – era outro: tratava-se de esclarecer as razões históricas pelas quais as ideias e as formas novas, indispensáveis à modernização do país, causavam não obstante uma irrecusável sensação de estranheza e artificialidade, mesmo entre seus admiradores e adeptos.” n

ilustração  Alexandre Camanho

que se conheça a literatura através da sociedade e a sociedade através da literatura, são teses capitais do século XIX, sem as quais, aliás, a importância especificamente moderna da literatura fica incompreensível”, esclareceu Schwarz em entrevista à Pesquisa FAPESP em 2004 (ver nº 98). “Ao ampliar a discussão para incluir outros livros de Schwarz, o seminário organizado na FFLCH evidenciou que, para o autor, a forma artística é um modo de conhecimento de contradições pouco óbvias das formas da experiência social, e que a produção cultural brasileira está relacionada tanto a questões locais como globais”, avalia a professora de teoria literária da FFLCH-USP Salete de Almeida Cara.


obituário y

Um heterodoxo no pensamento político brasileiro A trajetória de Oliveiros Ferreira foi marcada pela análise do papel institucional das Forças Armadas

João Grinspum

O

sociólogo e jornalista Oliveiros da Silva Ferreira ficou conhecido por seu pensamento heterodoxo, característica que se refletiu em seus estudos de teoria política e nas análises sobre o papel das Forças Armadas no Brasil. Simpático ao governo militar, o intelectual foi, ao mesmo tempo, solidário com colegas processados pelo regime. Nas reflexões que fez a respeito da vertente de pensamento desenvolvida pelo sociólogo, o cientista político Gildo Marçal Brandão (1949-2010) chamou-o de “o revolucionário da ordem”, procurando dar conta dos paradoxos que permearam o percurso de Oliveiros, “um homem de direita que citava Lênin e juntava na mesma frase Mao Tsé-Tung e o general Golbery”, conforme escreveu em Linhagens do pensamento político brasileiro (Hucitec, 2007). O sociólogo Marco Aurélio Nogueira, docente de teoria política na Universidade Estadual Paulista (Unesp), recorda que Oliveiros era considerado um conservador pela esquerda, mas visto como comunista pelo regime militar. Professor na Universidade de São Paulo (USP), o sociólogo morreu aos 88 anos de causas naturais no dia 21 de outubro, deixando a esposa, Vânia Leal Cintra, e o filho, Afonso Ferreira, fruto de seu casamento com Walnice Nogueira Galvão. Nascido em 1929 em São José do Rio Pardo, no interior de São Paulo, o jornalista graduou-se em ciências sociais pela USP em 1950. Convidado pelo sociólogo Lourival Gomes Machado a ser seu assistente na cadeira de Política, hoje Departamento de Ciência Política da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH-USP), assumiu a função em 1953. Em 1966, Oliveiros defendeu a tese de doutorado “Nossa América, Indoamérica. A Ordem e a Revolução no pensamento de Haya de

O sociólogo e jornalista em foto de 2005

la Torre”, sobre o político e teórico peruano. Fez a livre-docência com um trabalho sobre o filósofo marxista italiano Antonio Gramsci (1891-1937). Aposentou-se da USP em 1983, mas manteve a atividade docente, e foi, ainda, professor na Pontifícia Universidade Católica de São Paulo (PUC-SP). O intelectual teve também uma longa carreira como jornalista. Foi diretor do Estadão, onde trabalhou por 48 anos, aposentando-se em 1999. Escrevia análises sobre temas internacionais. Durante boa parte do regime militar (1964-1985), ele fez a interlocução entre os donos do jornal, a família Mesquita, e os censores, que ficavam de plantão nas instalações do Grupo Estado. “O jornalismo exercido por Oliveiros no Estadão era impregnado de política, desde a pauta até o tratamento dos temas”, avalia o cientista político Carlos Enrique Ruiz Ferreira, professor da Universidade Estadual da Paraíba (UEPB) e organizador de Professor Oliveiros S. Ferreira – Brasil, teoria política e relações internacionais com sua obra (Edusp, 2016), que traz um balanço de sua produção intelectual (ver Pesquisa FAPESP nº 241). Ele avalia que os livros de Oliveiros ajudam a compreender como os militares estiveram imbricados na vida social e institucional brasileira. n Christina Queiroz PESQUISA FAPESP 261 | 87


obituário y

Filósofo da vida cotidiana Mestre de várias gerações, Oswaldo Porchat criticava as teorias especulativas que distanciam a reflexão filosófica das verdades essenciais dos homens comuns

88 | novembro DE 2017

que essa filosofia faz aos dogmatismos, por meio de argumentos racionais – a melhor posição a adotar, tornando-se então um cético neopirrônico”, explica. Professor emérito da Faculdade de Filosofia, Letras e Ciências Humanas da USP (FFLCH-USP) e da Universidade Estadual de Campinas (Unicamp), o filósofo era bacharel em letras clássicas pela USP (1956) e em filosofia pela Universidade de Rennes, na França (1959). Em 1967, defendeu no Departamento de Filosofia da USP a tese “A doutrina aristotélica da ciência” — trabalho que, em 2001, após minuciosa revisão, foi publicado sob o título Ciência e dialética em Aristóteles (editora Unesp), tornando-se referência para filósofos e estudantes de filosofia. “Uma vez, Jules Vuillemin (1920-2001) me disse que poucos tinham tanta familiaridade com os textos aristotélicos como ele”, conta José Arthur Giannotti, também professor emérito da FFLCH. No livro, Porchat analisa a obra Segundos Ana­ líticos, de Aristóteles, procurando mostrar sua coerência interna, em contraponto aos comentadores que nela encontram muitas ambiguidades e hesitações. Além disso, defende que, para Aristó-

acervo pessoal

A

imagem do professor recém-formado em letras clássicas que cativou os alunos de um ginásio do ABC paulista falando latim é significativa para representar o percurso do filósofo Oswaldo Porchat de Assis Pereira da Silva, que morreu no dia 15 de outubro aos 84 anos, em São Paulo. Ao rememorar a trajetória do intelectual, amigos, ex-alunos e professores destacaram a originalidade do seu pensamento filosófico e sua postura aberta para o diálogo com estudantes e pessoas com ideias diferentes das suas. Porchat definia-se como um filósofo neopirrônico, um herdeiro contemporâneo do pensamento de Pirro de Élis (365-275 a.C.). Roberto Bolzani Filho, professor no Departamento de Filosofia da Universidade de São Paulo (USP), avalia que a principal contribuição de Porchat foi sua crítica às filosofias especulativas que distanciam a reflexão filosófica das verdades básicas da vida cotidiana e dos homens comuns. “Porchat sempre fez o elogio da vida comum, pautada pelas verdades simples dos homens, desprovidas de pretensões metafísicas. Por isso, com o tempo, acabou encontrando no ceticismo – e nas críticas

Oswaldo Porchat, pensador original, professor e estruturador da filosofia no Brasil


teles, ciência e dialética são complementares, em oposição àqueles que veem como contraditórias sua teoria e sua prática da ciência. Para Marco Zingano, professor no Departamento de Filosofia da FFLCH-USP, o doutorado de Porchat deve ser considerado um precursor da vertente de comentários das obras de Aristóteles, que culminou com o livro Aristotle’s first principles, publicado em 1988 pelo britânico Terence Irwin, professor emérito de filosofia antiga na Universidade de Oxford, na Inglaterra. Entre 1969 e 1970, Porchat fez um pós-doutorado em lógica na Universidade da Califórnia em Berkeley, nos Estados Unidos. Em 1983, estagiou na London School of Economics and Political Sciences, em Londres, Inglaterra. Ensinou filosofia na USP de 1961 a 1975. Institucionalizador da filosofia

Na década de 1970, o engenheiro e físico Rogério Cézar Cerqueira Leite, professor emérito na Unicamp e presidente do Conselho de Administração do CNPEM (Centro Nacional de Pesquisas em Energia e Materiais), era coordenador-geral das faculdades da Unicamp e convidou Porchat para desenvolver um projeto, que veio a ser o Centro de Lógica, Epistemologia e História da Ciência (CLE), uma estrutura transversal aos departamentos da instituição. “Eu já havia criado um centro semelhante para o estudo de energias alternativas. Zeferino Vaz, reitor naquela época, acolheu a ideia de Porchat, trazendo para a Unicamp um grupo de brilhantes jovens filósofos”, recorda Leite. Na Unicamp, Porchat também fundou o Departamento de Filosofia do Instituto de Filosofia e Ciências Humanas (IFCH). Raul Landim Filho, professor titular aposentado de filosofia da Universidade Federal do Rio de Janeiro (UFRJ), afirma que a fundação do CLE permitiu inovar o universo filosófico brasileiro. “O centro procurou integrar o estudo pormenorizado dos textos clássicos de filósofos antigos e contemporâneos, que caracterizava o ensino da filosofia na Europa, aos métodos de reconstrução lógico-conceitual, que eram utilizados pelos filósofos analíticos, majoritariamente de origem anglo-saxônica”, relata. Em 1985, Porchat se aposentou na Unicamp e foi convidado a retomar suas atividades como

docente no Departamento de Filosofia da FFLCH, onde permaneceu até 1998. Bento Prado de Almeida Ferraz Neto, professor no Departamento de Filosofia e Metodologia das Ciências da Universidade Federal de São Carlos (UFSCar), recorda da “amizade filosófica” entre Porchat e seu pai, o filósofo Bento Prado de Almeida Ferraz Júnior, professor na UFSCar e professor emérito da USP. “Eles tinham pensamentos filosóficos totalmente diferentes, mas se tratavam como interlocutores privilegiados”, comenta. No mesmo caminho, Oswaldo Chateaubriand, professor titular da Pontifícia Universidade Católica do Rio de Janeiro (PUC-RJ), também lembra que Porchat desenvolveu uma filosofia muito diferente da sua, mas, mesmo assim, eles mantiveram diálogos constantes. “É impossível sobrestimar a importância de Porchat para a filosofia brasileira”, diz Luiz Henrique Lopes dos Santos, professor sênior do Departamento de Filosofia da USP e autor da primeira tese de doutorado orientada por ele. “Como filósofo, foi um pensador original, estabelecendo entre filosofia e história da filosofia uma via de mão dupla; como mestre, deixou sua marca em várias gerações de professores e pesquisadores; como gestor, foi, em seus anos de Unicamp, o protagonista do processo de organização institucional da comunidade filosófica brasileira.” A filha do filósofo, Patrícia Porchat Pereira da Silva Knudsen, professora do curso de psicologia da Universidade Estadual Paulista Júlio de Mesquita Filho (Unesp/Bauru) e do Programa de Pós-graduação em Educação Sexual da Unesp/Araraquara, observa que uma das grandes marcas que o pai deixou em sua trajetória foi a habilidade de pensar a psicanálise a partir de um lugar crítico. “Meu pai refletia muito sobre questões da vida cotidiana. Era apaixonado pela profissão e gostava de estar com os alunos em momentos de lazer após as aulas”, conta Patrícia. Nascido a 11 de janeiro de 1933, em Santos, Porchat sofreu um acidente vascular cerebral (AVC) em julho deste ano. A partir de então, sua saúde ficou debilitada. Morreu em consequência de complicações causadas por uma pneumonia. Deixa mulher, filha e duas netas. n Christina Queiroz PESQUISA FAPESP 261 | 89


memória 1

Holograma com destaques dos 50 anos de história da Finep, apresentado em julho na reunião anual da SBPC

Múltiplos elos da cadeia de inovação Finep completa 50 anos com responsabilidades abrangentes e financiamento em crise Fabrício Marques

90 | novembro DE 2017

P

rincipal órgão federal de apoio à inovação, a Financiadora de Estudos e Projetos (Finep) completou 50 anos em 2017 com um cardápio abrangente de atribuições, entre as quais o investimento em projetos de pesquisa e em infraestrutura de instituições científicas, o crédito e a subvenção a empresas inovadoras e o incentivo à criação de startups. A passagem do cinquentenário também estimulou o debate sobre o futuro da instituição, que já apoiou mais de 30 mil projetos, mas vem reduzindo suas atividades devido a restrições orçamentárias e agora esboça uma mudança de perfil. “A Finep tem uma característica peculiar: é ao mesmo tempo uma agência de fomento, que gerencia grants e recursos não reembolsáveis para pesquisadores e empresas, e também uma espécie de banco de desenvolvimento, que oferece crédito para a inovação no setor produtivo”, diz o economista e ex-deputado Marcos Cintra, presidente da Finep. “Hoje, a função de banco está se exacerbando, enquanto a vocação de agência de fomento sofre uma atrofia. Isso é preocupante, porque no mundo inteiro o setor público tem um papel estratégico no fomento à ciência e tecnologia”, afirma.


fotos  1 e 3 acervo finep 2 antônio albuquerque / acervo do núcleo de memória da puc-rio

As dotações para projetos de pesquisa e infraestrutura de instituições científicas, que foram responsáveis por 18,6% dos desembolsos em 2016, caíram para 8,6% do total neste ano. Da mesma forma, os recursos não reembolsáveis para as empresas, na forma de subvenções, equalização de juros de empréstimos e investimentos diretos, representam 12,9% do dinheiro que está sendo aplicado pela Finep em 2017, ante 15,1% em 2016. Em contrapartida, as operações de crédito a empresas responderam por 78,5% do desembolso atual, ante 66,3% no ano passado. “Em 2010, havia um equilíbrio entre as duas vocações na destinação dos recursos”, compara Cintra. Segundo ele, ao mesmo tempo que faltam recursos para pesquisa e subvenção, não há demanda suficiente para empréstimos a empresas, cautelosas em aumentar seu endividamento. Essa mudança de perfil da agência ocorre em um cenário de retração: o desembolso em 2015 e 2016, na casa dos R$ 3,7 bilhões anuais, representaram a metade da execução de recursos em 2014, e devem cair ainda mais neste ano. A Finep administra recursos

2

Pelúcio Ferreira (ao centro, de paletó escuro), em visita de representantes da Finep à PUC do Rio, em 1981

Termo de posse da primeira diretoria, em 12 de dezembro de 1967

3

de origens variadas, como operações de crédito internacionais e fundos públicos. A fonte mais importante sempre foi o Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT), principal ferramenta de apoio à pesquisa do governo federal. A agência toma emprestado 25% dos recursos do fundo para suas operações de crédito reembolsável e os devolve quando recebe dos devedores. Também atua como secretaria-executiva do FNDCT, responsável pelo gerenciamento dos seus recursos, que são em grande medida captados pelos Fundos Setoriais de Ciência e Tecnologia, criados no final dos anos 1990 e abastecidos por receitas tributárias de segmentos da economia (ver Pesquisa FAPESP nº 256). Como o FNDCT sofre contingenciamentos drásticos desde 2014, a Finep tem cada vez menos recursos para administrar. Em 2016, apenas R$ 58,6 milhões foram destinados pela agência à subvenção econômica a projetos de desenvolvimento tecnológico – em 2010, esse

valor havia sido de R$ 526 milhões. As perspectivas são incertas. Em 2010, o total de recursos investidos do FNDCT chegou a R$ 4 bilhões. Em 2016, foi de R$ 1 bilhão. Para este ano, há apenas R$ 700 milhões disponíveis, e a proposta orçamentária para 2018 é de R$ 1,2 bilhão. Uma saída para enfrentar a escassez de recursos, diz Cintra, seria transformar a Finep em instituição financeira, o que permitiria a captação de recursos do mercado. Estudos de viabilidade

A primeira diretoria da Finep tomou posse em 12 de dezembro de 1967, mas a gênese da agência é mais antiga. Em 1965, o Instituto de Pesquisa Econômica Aplicada (Ipea), órgão do Ministério do Planejamento, instituiu o Fundo de Financiamento de Estudos e Projetos. A ideia partiu do ministro Roberto Campos (1917-2001) e do então presidente do Ipea, João Paulo dos Reis Velloso (1931), e buscava financiar estudos de viabilidade de projetos de engenharia, diante da perspectiva de obter financiamentos PESQUISA FAPESP 261 | 91


internacionais. Os projetos de viabilidade da Ponte Rio-Niterói e da ampliação da estrutura de transportes do país no período militar foram patrocinados pelo fundo. A Finep nasceu em julho de 1967, com a transformação do fundo em uma empresa pública. A vocação de investir na infraestrutura científica veio um pouco mais tarde, com a criação, em 1969, do FNDCT, e a designação da Finep como gestora do fundo, em 1971. Uma figura-chave é o economista mineiro José Pelúcio Ferreira (1928-2002), que assumiu a presidência da Finep em 1971. Oriundo do então Banco Nacional de Desenvolvimento Econômico (BNDE) e ligado a Reis Velloso, que se tornou ministro do Planejamento nos governos Médici e Geisel, Pelúcio levou para a Finep a experiência do Fundo de Desenvolvimento Técnico-Científico (Funtec), composto por 2% do lucro do banco. Criado no início dos anos 1960, o Funtec canalizava recursos para a formação de pessoal de alto

nível para as empresas e a projetos de desenvolvimento de universidades. O primeiro contrato do Funtec criou um curso de mestrado em engenharia química em 1963 e deu origem ao Instituto Alberto Luiz Coimbra de Pós-graduação e Pesquisa de Engenharia (Coppe), da Universidade Federal do Rio de Janeiro (UFRJ). “A Finep foi desenhada a partir da constatação de um grupo de estudos do BNDE de que o Brasil já havia construído uma razoável e diversificada estrutura industrial, mas que ainda faltava um aspecto qualitativo: a indústria dependia muito da aquisição no exterior de máquinas e equipamentos e era escassa nas universidades a formação de recursos humanos para pesquisas que apoiassem as empresas”, diz Luiz Martins de Melo, professor do Instituto de Economia da UFRJ, um estudioso da trajetória da Finep e dos investimentos do FNDCT. “A intenção era criar programas de pós-graduação e institutos de pesquisa nos moldes

1

Em seus primeiros anos, a Finep financiou estudos de viabilidade da ponte Rio-Niterói

A evolução dos investimentos Valores desembolsados pela Finep por tipo de instrumento (em R$ milhões atualizados pelo IPCA em outubro de 2017) n Não reembolsável para instituições científicas e tecnológicas n Não reembolsável para empresas (subvenção, equalização e investimento) n Reembolsável fonte finep

7.000 875

6.000

417

5.000 909

4.000 1.072

3.000 2.000 1.000

1.216 488 728 2007

893

881

956

680

1.247

1.431

2008

2009

92 | novembro DE 2017

878 1.864

2010

845

995

600

584

530 5.386 3.243

2.516

2.400

2011

2012

2013

430 450

2.843

2014

2015

687 558 2.452

2016

194 289 1.763

set/2017

norte-americanos, e conceder bolsas para o pessoal ir para fora.” Nos anos 1970, a Finep teve financiamento farto e investiu em infraestrutura de pesquisa, consolidando departamentos de universidades e programas de pós-graduação. Na época, houve um crescimento contínuo no número de operações do FNDCT, que subiram de 26 em 1972 para 201 em 1978, com valores médios de US$ 2 milhões por projeto. “Um indicador visível do papel do FNDCT no processo de institucionalização da pesquisa científica e tecnológica no Brasil dos anos 1970 foi o crescimento do parque de cursos de pós-graduação no Brasil. Saltaram de 125 em 1969 para 974 em 1979”, observou o médico e pesquisador Reinaldo Guimarães, em um artigo sobre o fundo escrito no início dos anos 1990. A Finep ampliou em 1974 a sua influência no sistema de ciência e tecnologia com a criação do Programa de Apoio ao Desenvolvimento Tecnológico da Empresa


fotos 1 acervo finep 2 embraer

Nacional (ADTEN). Abastecido na época com até 30% dos recursos do FNDCT, ofertava crédito para pesquisa e desenvolvimento em empresas. “O documento de criação do ADTEN é o primeiro a explicitar uma política de financiamento da inovação no Brasil”, diz Melo, da UFRJ. Desde o início, o programa priorizou projetos de engenharia, centros de P&D em empresas, inovação de produtos e processos e compra de tecnologias no exterior. Em tempos de inflação crescente, os empréstimos eram pagos com desconto de parte da correção monetária. O protagonismo da Finep avançou em paralelo ao II Plano Nacional de Desenvolvimento, de 1975 a 1979. “O PND dizia explicitamente que era preciso complementar os buracos na estrutura industrial brasileira na área de insumos básicos e na formação de algumas empresas de bens de capital, pois a industrialização tinha mudado de patamar”, diz Melo. “Isso deu início a um período áureo, com o surgimento de joias da coroa da indústria nacional, entre elas a Metal Leve e a Freios Varga. A Finep financiou um centro de P&D da Metal Leve em Detroit.” No governo Collor, lembra Melo, essas empresas foram vendidas a multinacionais. Nos anos 1980, houve oscilações no orçamento, com a queda de repasses da União ao FNDCT. Em 1985, a Finep migrou do Ministério do Planejamento para o da Ciência e Tecnologia, criado no governo José Sarney. De um patamar de US$ 60 milhões em 1985, o governo garantiu investimentos do FNDCT de US$ 90 milhões

2

Desenvolvimento dos aviões Tucano, da Embraer, teve apoio da agência nos anos 1980

Nos anos 1970, a Finep investiu em infraestrutura de pesquisa, consolidando programas de pós-graduação

nos três anos seguintes. A partir de 1989, uma nova onda da crise, associada à hiperinflação, deixou a Finep descapitalizada. Só no final dos anos 1990 surgiria uma solução para dar regularidade ao financiamento, com a criação dos fundos setoriais, cujos investimentos são definidos por comitês gestores ligados a segmentos da economia. “A Finep passou a gerenciar um volume maior de recursos, mas com menos autonomia do que tinha nos anos 1970”, diz Melo. A primeira iniciativa da Finep financiada pelos fundos setoriais, em 2000, foi o programa Inovar, voltado para a capacitação de pequenas e médias empresas inovadoras. Entre 2001 e 2010, com a melhora do ambiente econômico, os recursos executados pela Finep cresceram, graças ao descontingenciamento progressivo de recursos do FNDCT. “Foi um momento muito positivo, em que foi possível ter foco em vários projetos estratégicos e, ao mesmo tempo, apoiar a inovação em empresas”, lembra o cientista político Luis Fernandes, presidente da Finep entre 2007 e 2011. Nesse período, o sistema

brasileiro de inovação incorporou um conjunto de instrumentos, como a concessão de crédito para inovação atrelado à política industrial do país, além dos previstos na Lei da Inovação de 2004, como a subvenção econômica ou a montagem de empresas inovadoras com fundos de capital. A capacidade de investir da Finep começou a perder fôlego em 2012, observa Fernandes, com o advento do programa de bolsas no exterior para estudantes Ciência sem Fronteiras, que deixou de existir no ano passado depois de consumir R$ 13,2 bilhões – parte deles oriunda do FNDCT. “Houve uma distorção na operação do FNDCT. Os fundos setoriais foram criados para complementar investimentos em ciência e tecnologia do país, não para substituir programações orçamentárias contínuas dos ministérios da área, como o Ciência sem Fronteiras”, afirma Luis Fernandes. “A capacidade de integrar uma série de instrumentos conforme objetivos estratégicos tornou a Finep uma instituição insubstituível e é preciso retomar seu papel na medida em que a economia se recupere”, observa. n PESQUISA FAPESP 261 | 93


resenha

A medicina paulista na Primeira República André Felipe Cândido da Silva

Versão atualizada em 22/12/2017

Tropeços da medicina bandeirante: Medicina paulista entre 1892 e 1920 André Mota Edusp, 2005 248 páginas | R$ 35,20

94 | novembro DE 2017

solução dos principais problemas que afetavam o caminho do país rumo ao progresso e civilização. No caso específico de São Paulo, ele explora a participação dos dispositivos de saúde no crescimento e modernização da “metrópole do café”, pela tentativa de regulamentar os costumes e usos do espaço, enfrentando, no entanto, a resistência de segmentos afetados por tais intervenções. Mota dá particular destaque às tensões entre o Serviço Sanitário do estado e as agências municipais. As contradições ficam evidentes nos distintos projetos de controle da tuberculose, os quais opuseram Emílio Ribas, diretor do Serviço Sanitário, e Clemente Ferreira, idealizador da Liga Paulista contra a Tuberculose. Os conflitos também são o mote da análise do processo de criação da Faculdade de Medicina de São Paulo. André Mota sublinha o protagonismo de Arnaldo Vieira de Carvalho na concretização do projeto de uma escola médica pública, para o qual se valeu de seu capital simbólico e político fundamental para equacionar as diferenças entre segmentos da medicina paulista e convencer as instâncias oficiais. Apesar de carecer de um diálogo mais explícito com a historiografia que trata dos temas analisados no livro, Tropeços da medicina bandeirante representa contribuição importante aos interessados em conhecer os percalços da constituição da medicina na transição do século XIX para o XX, momento crucial de afirmação da excelência de São Paulo na saúde pública. Essa excelência apoiou-se, por um lado, na formação de um sólido aparato de controle de doenças, pesquisa e ensino e, por outro, na reafirmação do discurso que procurou alçar o estado à condição de “locomotiva” a arrastar 20 vagões vazios, frase que não por acaso saiu da pena de Arthur Neiva, um dos que participaram da organização da saúde pública paulista entre 1916 e 1920 e do movimento em favor do saneamento dos sertões brasileiros. A poderosa representação extrapolou o domínio da saúde, revestiu-se de evidentes implicações políticas e, de tão forte, ecoa ainda hoje na esfera pública. André Felipe Cândido da Silva é historiador da Casa de Oswaldo Cruz/Fiocruz e editor científico da revista História, Ciências, Saúde-Manguinhos.

Eduardo cesar

O

s tropeços do título da obra de André Mota– historiador da Faculdade de Medicina da Universidade de São Paulo (FM-USP) e coordenador do Museu Histórico da mesma instituição – dão o tom da narrativa que o leitor acompanha nas páginas subsequentes. Segundo o autor, a história da constituição do aparato médico-sanitário em São Paulo, entre o final do século XIX e o começo do XX, não é mera sequência de “conquistas e realizações”, como sugerem o discurso oficial da época e a memorialística constituída em torno de suas personalidades e instituições. O projeto de sanear e, ao mesmo tempo, de “civilizar” o estado bandeirante esbarrou em uma série de conflitos, impasses e resistências. Tamanhas controvérsias entre médicos e demais atores ou entre as próprias instâncias oficiais envolvidas com a saúde pública tornam complicado afirmar um projeto coeso e afinado de medicalização, como apostam certas vertentes da historiografia. O livro Tropeços da medicina bandeirante resulta da tese de doutorado de André Mota, apresentada ao Departamento de História da USP. Compõe safra muito prolífica de estudos que revisitaram a história da medicina e da saúde pública em São Paulo e desvelaram a complexa trama histórica sombreada pelo vulto de efígies da estatura de Emílio Ribas, Vital Brazil e Arnaldo Vieira de Carvalho entre 1892 e 1920. O enfrentamento dessa poderosa memória em torno da medicina paulista fica patente na obra de Mota, que mostra como o escrutínio histórico realizado por minuciosa investigação de fontes documentais joga luz sobre os percalços da modernização defendida pelas oligarquias paulistas na Primeira República (1889-1930), modernização na qual a medicina ocupou posição fundamental. Segundo o autor, o discurso médico ajudou a sedimentar a representação de São Paulo como exemplo bem-sucedido de organização social, progresso econômico e constituição racial, em um momento em que o patrimônio hereditário da população brasileira tinha grande relevo no debate sobre a identidade nacional. Nos quatro capítulos em que se divide a obra, o historiador aborda o papel da medicina como ferramenta de diagnóstico e, ao mesmo tempo, como


carreiras

Networking

Conexões que geram frutos

ilustração  veridiana scarpelli

Investir na criação de uma rede de contatos é essencial para ampliar oportunidades de trabalho e parcerias em projetos de pesquisa A maioria dos projetos de pesquisa hoje envolve pesquisadores de diferentes áreas e instituições, públicas ou privadas, em colaborações muitas vezes concebidas em conversas informais travadas nos intervalos de conferências, simpósios e workshops, ou via internet, por meio das redes sociais. Em muitos casos, os cientistas tomam conhecimento de novas oportunidades de trabalho ou são admitidos em laboratórios de universidades e empresas do Brasil ou do exterior por meio de indicações ou recomendação de outros pesquisadores com quem estabeleceram conexões. Investir na criação ou no aperfeiçoamento

de uma boa rede de contatos é importante para ampliar oportunidades de trabalho e parcerias em projetos de pesquisa, contribuindo direta ou indiretamente para o desenvolvimento da carreira. A construção de uma rede de contatos científicos pode ser feita de várias maneiras. Ao ler um estudo em uma revista de prestígio, o pesquisador pode tentar contato com os autores principais e trocar ideias sobre assuntos de interesse e possíveis colaborações. No entanto, eventos científicos costumam ser o ambiente ideal para esse tipo de atividade, permitindo aos pesquisadores apresentar seus trabalhos e ilustrar suas

competências, interagir com outros cientistas e se atualizar sobre as discussões e novidades em sua área de atuação. Muitas vezes, essas interações podem resultar em colaborações científicas, cartas de recomendação, redação, revisão de artigos científicos, entre outros. Para os estudantes de graduação que desenvolvem projetos de iniciação científica, recomenda-se uma conversa com o orientador para que, juntos, escolham os eventos científicos mais interessantes. A opção deve privilegiar eventos nos quais seja possível apresentar trabalhos na forma de pôster ou oralmente. Após a apresentação, caso o orientador esteja presente, vale PESQUISA FAPESP 261 | 95


a pena pedir para ser apresentado a pesquisadores mais experientes que trabalhem em áreas semelhantes. As discussões que se seguem às apresentações costumam ser valiosas e podem favorecer esse tipo de interação, ajudando na construção ou no aperfeiçoamento de uma rede de contatos. No caso de pesquisadores de mestrado e doutorado, participar de eventos maiores, com pesquisadores do Brasil e do exterior, pode ser a melhor estratégia. Durante as discussões informais é possível conhecer as dificuldades e falhas envolvendo os trabalhos dos colegas, ampliando as possibilidades de colaborações e fortalecendo as conexões. “É importante usar esses encontros para deixar transparentes os interesses, fazer perguntas, trocar informações, criar novos contatos e, desse modo, construir ou reforçar sua reputação como um cientista colaborativo e interativo”, destaca o biólogo brasileiro Alysson Muotri, professor da Faculdade de Medicina da Universidade da Califórnia em San Diego, nos Estados Unidos. Ele recomenda que nessas situações o indivíduo saia da zona de conforto e supere a timidez, reunindo-se com pesquisadores que não conhece, conversando sobre seus trabalhos, procurando conexões com os estudos que esteja desenvolvendo. Uma forma de aproveitar ao máximo esses eventos é se preparar com antecedência, analisando e selecionando as palestras que pretende assistir, e estudar o currículo dos palestrantes que trabalham com assuntos correlatos. Durante o evento, procurar marcar encontros para discutir ideias e trocar cartões e retomar esses contatos tempos depois para continuar o diálogo. “O pesquisador, na universidade ou na empresa, precisa saber o que quer e ter em mente que o networking é uma via de duas mãos. Deve ser feito de forma responsável”, destaca a engenheira química Wang Shu Chen, pesquisadora do Centro de 96 | novembro DE 2017

Pesquisa e Desenvolvimento (P&D) da Saint-Gobain no Brasil. Chen foi convidada para trabalhar na Saint-Gobain após a multinacional comprar a Adespec, empresa de tecnologia de adesivos criada por ela em 2001. Por muito tempo ela trabalhou em companhias fabricantes de colas e adesivos e estabeleceu várias conexões que mais tarde a ajudaram a fundar sua própria empresa. “Quando estava na universidade, preocupava-me essencialmente em fazer networking para ter mais possibilidades de colaboração científica. Hoje, na empresa, uso o networking para encontrar pessoas que possam me ajudar a resolver problemas no setor de pesquisa e desenvolvimento”, explica o biólogo Diogo Biagi. Ele é um dos sócios-fundadores da Pluricell Biotech, startup dedicada à produção e comercialização de células-tronco pluripotentes induzidas, células maduras que podem ser reprogramadas para gerar diferentes tecidos. Ele conta que no início da startup usou sua rede de contatos para ter acesso aos diretores de inovação de grandes empresas da área de cosmético. Após várias reuniões, conseguiu estabelecer parcerias com algumas delas. “Outro caso

interessante foi quando estava em um evento científico de brasileiros em Harvard, nos Estados Unidos. Após o encontro, muitos foram embora, mas alguns foram a um pub para conversar. Lá, fui apresentado a uma pesquisadora brasileira com uma empresa no Canadá e, hoje, estamos conversando para desenvolver produtos em parceria.” Investir na construção de uma boa rede de contatos também significa cultivar um bom relacionamento com os pesquisadores com os quais o indivíduo já trabalha. Nesse sentido, a recomendação dos pesquisadores seniores é usar regras básicas de etiqueta, de modo a facilitar o contato com os colegas. “Ser cortês, respeitoso, saber ouvir e falar em um tom de voz moderado são qualidades valorizadas no meio acadêmico internacional”, comenta Muotri. Segundo ele, investir em um relacionamento saudável e produtivo com colegas de laboratório, do orientador ao aluno de iniciação científica, é importante no longo prazo, como na hora de solicitar cartas de recomendação ou indicação para novos cargos. “Gosto de elogiar meus colegas quando eles publicam um trabalho interessante e discutir ciência com


ilustrações  veridiana scarpelli

pessoas de outras áreas, e percebo que essas ações ajudam a manter a minha rede de contatos.” Hoje, com o avanço tecnológico, o networking pode ser feito por meio das redes sociais. Uma pesquisa feita pela Springer Nature com mais de 3 mil pesquisadores dos Estados Unidos, Europa e Ásia verificou que mais de 70% dos entrevistados reconhecem que deveriam usar e promover com mais afinco as suas pesquisas nas redes sociais. Como a maioria das ferramentas digitais, as mídias sociais podem ampliar as oportunidades de networking e ajudar até mesmo a conseguir emprego, estágios de pós-doutorado ou parcerias de pesquisa, explica Wang Shu Chen. Entre as mais conhecidas estão a Academia.edu e o ResearchGate, redes sociais específicas para pesquisadores. A pesquisa também constatou que 68% deles mantinham seus perfis ativos nessas plataformas apenas para o caso de alguém querer entrar em contato. O Google Acadêmico é outra ferramenta que ajuda na comunicação entre cientistas. Segundo o estudo, 66% dos entrevistados usam a plataforma. Já no LinkedIn, rede social de negócios, é possível se juntar a grupos relacionados aos seus assuntos de interesse e trocar informações sobre novas pesquisas, equipamentos e oportunidades de trabalho. Também o Twitter pode ser útil: nos últimos anos, o serviço de microblogue se tornou uma das principais plataformas para a divulgação e discussão de estudos científicos, segundo um artigo publicado em 2014 pela revista científica PLoS One. Um bom exemplo de como a tecnologia pode ser útil nesse sentido é o matemático Jackson Itikawa, que hoje faz seu estágio de pós-doutorado no Instituto de Ciências Matemáticas e Computação da Universidade de São Paulo (ICMC-USP), em São Carlos. Ele foi um dos finalistas do FameLab, competição de comunicação científica realizada

Ampliando as conexões Algumas estratégias para criar ou aperfeiçoar uma boa rede de contatos científicos

1

Eventos científicos costumam ser o ambiente ideal para fazer networking. Use-os para conhecer novas pessoas, compartilhar ideias e ampliar as possibilidades de colaboração.

da zona de conforto e 2 Saia supere a timidez, reunindo-se com pesquisadores que não conhece, conversando sobre seus trabalhos, procurando conexões com os estudos que esteja desenvolvendo.

3

Tornar-se membro ativo de sociedades científicas relacionadas à sua área de atuação pode ajudar na construção de uma rede específica de contatos.

4 em junho de 2016 durante o Festival de Ciências de Cheltenham, na Inglaterra (ver Pesquisa FAPESP nº 246). Itikawa competiu com participantes dos Estados Unidos, do Reino Unido, da Coreia do Sul, entre outros. “Aprendi muito sobre divulgação científica, mas o maior networking que resultou do FameLab foi com os finalistas brasileiros da etapa nacional. Temos hoje um grupo no WhatsApp para discutir sobre pesquisa e ensino no Brasil, conquistas relacionadas à carreira, compartilhar oportunidades etc.” Segundo Wang, para que o networking seja eficiente, é preciso que os pesquisadores procurem se relacionar com as pessoas de um modo mais amplo, não apenas como forma de alavancar a carreira. n

As mídias sociais ampliam as chances de networking e favorecem novas oportunidades de emprego, estágios de pós-doutorado e parcerias de pesquisa.

5

Cultive um bom relacionamento com os pesquisadores com os quais trabalha. Ser cortês, respeitoso e saber ouvir são qualidades valorizadas no meio acadêmico.

Rodrigo de Oliveira Andrade PESQUISA FAPESP 261 | 97


Série de podcasts orienta sobre a vida fora da universidade

98 | novembro DE 2017

Inovação à flor da pele A bioquímica Carolina Reis foi para os Estados Unidos criar empresa de tecido artificial para desenvolver produtos antienvelhecimento

arquivo pessoal

Todos os anos, pesquisadores decidem deixar a universidade, seja porque descobriram não mais sentir prazer pelo que fazem ou se deixaram levar por novos interesses e aspirações profissionais. A perspectiva de sair do mundo acadêmico depois de anos de treinamento em pesquisa, dedicação profissional e sacrifícios pessoais costuma ser assustadora. Com o objetivo de orientar pesquisadores em diferentes estágios de desenvolvimento profissional que não têm certeza se estão tomando a decisão correta, um grupo de amigos formado pela bioquímica Amanda Welch, o botânico Ian Street, ambos norte-americanos, e a psicóloga brasileira Cleyde Helena lançou a série de podcasts Recovering academic. Os três eram pesquisadores e deixaram a academia para se dedicar a outras atividades profissionais nos Estados Unidos. A proposta da série de podcasts, segundo eles, é discutir aspectos emocionais relacionados à transição profissional entre a universidade e o mercado de trabalho e ajudar os cientistas que saíram ou estão prestes a sair do ambiente acadêmico. Até outubro haviam sido produzidos 22 episódios com 35 minutos de duração em média. São entrevistas e depoimentos sobre como planejar a carreira fora dos laboratórios, identificar habilidades desenvolvidas durante os anos na universidade, usar as redes sociais para se projetar no mercado de trabalho, entre outros assuntos. Os podcasts estão disponíveis em inglês no endereço: bit.ly/RecAcademic. n R.O.A.

perfil

Desde a graduação a bioquímica Carolina Reis procurava trabalhar em pesquisas cujos resultados pudessem ser colocados à disposição da sociedade de um modo mais rápido e efetivo. No entanto, foi somente em 2015, prestes a concluir o doutorado na Universidade Federal de Minas Gerais (UFMG), que ela conseguiu identificar o potencial de sua pesquisa, à época voltada ao uso de células-tronco pluripotentes como modelo para teste de fármacos. Ao lado de duas colegas, fundou a CellSeq, startup dedicada à produção de diferentes tipos de células humanas que pudessem ser vendidas para empresas da indústria farmacêutica e de cosméticos. Elas submeteram o projeto de negócio ao Startups and Entrepreneurship Ecosystem Development (Seed), programa de aceleração de startups de Minas Gerais. O programa de aceleração durou seis meses. Foram várias as dificuldades. “Apesar de eu ter me envolvido em muitas atividades ligadas ao empreendedorismo, quando decidi iniciar o projeto não sabia por onde começar, não conhecia as ferramentas ou as etapas de desenvolvimento de um negócio”, conta Carolina. Um aspecto importante para a viabilidade da empresa era a identificação de seu público-alvo. À época, havia no mundo e no Brasil um intenso debate sobre a necessidade de se substituir o uso de animais em testes de cosméticos. “Aproveitamos o gancho e decidimos

focar nessa indústria, trabalhando no desenvolvimento e na validação de métodos que pudessem substituir o uso de animais no desenvolvimento de novos produtos”, diz. Pouco depois, o projeto foi aceito para participar do StartUp Brasil, programa de aceleração de startups do governo federal. Apesar do apoio financeiro, o projeto não evoluiu. “A falta de experiência das aceleradoras na área de biotecnologia, associada a um mercado pouco inovador no Brasil, dificultou as coisas.” Foi durante um Demo Day promovido pela StartUp Brasil em Belo Horizonte em 2016 que os rumos do negócio começaram a mudar. “No evento, empreendedores apresentavam suas ideias de negócio para diferentes tipos de investidores”, conta. Lá, Carolina conseguiu contato com a IndieBio, uma aceleradora de biotecnologia de São Francisco, nos Estados Unidos. Ela e suas sócias redesenharam o projeto. Após submeterem a proposta à IndieBio e passar por algumas entrevistas, foram selecionadas. Carolina mudou-se para os Estados Unidos e lá fundou a OneSkin Technologies. A empresa começou com o objetivo de reconstruir todas as camadas do tecido da pele para oferecer testes de segurança mais robustos à indústria. Após amadurecer a tecnologia, a empresa desenvolveu um método para quantificar o potencial rejuvenescedor de produtos para a pele. O foco agora é descobrir novos produtos com esse potencial. A OneSkin conta hoje com sete funcionários, cinco em São Francisco, trabalhando nos produtos em laboratório, e dois no Brasil, focados na análise de dados em larga escala e em propriedade intelectual. n R.O.A.


classificados

­_ Anuncie você também: tel. (11) 3087-4212 | www.revistapesquisa.fapesp.br

Sociedade Brasileira de Metrologia Promovendo a cultura e a prática da metrologia como instrumentos de competitividade, qualidade de vida e coesão social.

O conteúdo de

Pesquisa FAPESP

não termina aqui TEXTO Os textos produzidos todos os meses pela nossa equipe podem ser adquiridos por editoras que desejem utilizá-los em livros didáticos

Nosso banco de imagens possui um vasto acervo de fotos composto de temas variados ligados a ciência e tecnologia

Na SBM você encontra:

· Cursos EAD; · Cursos Presenciais; · Cursos In Company; · Auditoria e Consultoria; · Congressos Científicos.

infográfico Também produzimos infográficos sobre temas científicos que ilustram nossas reportagens

Consulte-nos!

www.revistapesquisa.fapesp.br

Contato: (11) 3087-4212 ou envie e-mail para mpiliadis@fapesp.br

www.metrologia.org.br Fone: (21) 2532-7373 - sbm@metrologia.org.br Nilo Peçanha, 50 - sala 2517 - Centro Rio de Janeiro - RJ - sbm@metrologia.org.br

totojang1977+ ESB Professional + jocic /Shutterstock.com

Fotografia


O que a ciĂŞncia brasileira descobre vocĂŞ encontra aqui

Nas bancas e livrarias

revistapesquisa.fapesp.br


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.