Financiamento para a ciência

Page 1

www.revistapesquisa.fapesp.br

Combustível com etanol para foguetes e satélites é testado

junho de 2017 | Ano 18, n. 256

Análises em tempo real revelam trajetória do zika pelas Américas

financiamento para a ciência Alternativas para contornar a perda de recursos incluem mobilizar o setor privado, aperfeiçoar políticas de inovação e melhorar a qualidade dos investimentos

Cerrado é restaurado com plantio direto e reúso do solo Filmes de horror nacionais têm tradição pouco conhecida Artigos “adormecidos” desafiam estratégias de avaliação Aos 90, Instituto Biológico segue como importante centro de pesquisa Organizações feministas contribuíram para o avanço de direitos

forma de medir o quilograma será redefinida


12 ediçõe

s po

r R$ 1 0 0 C o ndiçõ e s esp e cia is par a e s tu d a n t es e p ro fe ssores

O que a ciência brasileira produz você encontra aqui

revistapesquisa.fapesp.br  assinaturaspesquisa@fapesp.br


fotolab

A beleza do conhecimento

Sua pesquisa rende imagens bonitas? Mande para imagempesquisa@fapesp.br Seu trabalho poderá ser publicado na revista.

Farmácia natural Usada como analgésico, antimicrobiano e cicatrizante, a falsa-arnica (Lychnophora ericoides) abriga uma verdadeira fábrica química. Não são apenas compostos produzidos pela planta, mas também por uma profusão de microrganismos que a habitam. O fungo Coniochaeta sp., por exemplo, fica vermelho em resposta a um fungicida liberado pela bactéria Streptomyces albospinus (massa branca à esquerda). Entender essas interações químicas e detalhar as substâncias pode contribuir para o desenvolvimento de fármacos, inseticidas, herbicidas, entre outras aplicações.

Imagem enviada por Andrés Mauricio Caraballo Rodríguez, doutor pela Faculdade de Ciências Farmacêuticas de Ribeirão Preto da Universidade de São Paulo

PESQUISA FAPESP 256 | 3


junho  256

POLÍTICA DE C&T

40 Cientometria Especialistas estudam artigos que têm reconhecimento tardio

56 Geofísica Caracterização dos movimentos de falhas geológicas elucida terremotos no Brasil 60 Astrofísica Ondas gravitacionais confirmam a existência de uma nova população de buracos negros

CIÊNCIA

TECNOLOGIA

44 Ecologia Plantio direto e reaproveitamento do solo ajudam a restaurar o Cerrado

71 Engenharia espacial Novo satélite deve melhorar o sistema de comunicações civil e militar

50 Epidemiologia Sequenciamento genético reconstrói trajetória do vírus zika pelas Américas 54 Farmacologia Nanomaterial à base de carbono pode facilitar a chegada de medicamentos ao cérebro

76 Ambiente Softwares auxiliarão no monitoramento de árvores nas cidades

36 Inovação FMI e OCDE recomendam incentivos fiscais para impulsionar a pesquisa em empresas

CAPA O impacto dos cortes orçamentários e as alternativas para sustentar o financiamento da ciência no Brasil p. 20

HUMANIDADES 80 Sociedade Pesquisadoras resgatam a história do movimento feminista brasileiro 84 Cinema Atuais filmes de horror foram precedidos por uma tradição pouco estudada

ENTREVISTA Thaisa Bergmann A astrofísica se dedica a entender como os buracos negros se alimentam p. 30

Programa Ciência sem Fronteiras gastou R$ 13,2 bilhões p. 27 Ilustração da capa Fabio Otubo

p. 84


www.revistapesquisa.fapesp.br No site de Pesquisa Fapesp estão disponíveis gratuitamente todos os textos da revista em português, inglês e espanhol, além de conteúdo exclusivo

Sistemas aeroespaciais Etanol é testado para uso em foguetes p. 66

SEÇÕES 3 Fotolab

vídeos youtube.com/user/pesquisafapesp

6 Comentários 7 Carta da editora 8 Boas práticas Grupo propõe novas diretrizes para revistas e universidades enfrentarem casos de má conduta 11 Dados Formação de doutores

A importância da fotografia para a história, o turismo e a construção da memória bit.ly/2rVODin

12 Notas

Metrologia A constante de Planck deve substituir o cilindro metálico usado desde 1889 como referência internacional do quilo p. 62

88 Memória Instituto Biológico, 90 anos, consolidou-se como centro de pesquisas 94 Resenha Machado de Assis: Lido e relido, de João Cezar de Castro Rocha (org.), e Machado de Assis: O escritor que nos lê, de Hélio de Seixas Guimarães Por Jean Pierre Chauvin 96 Carreiras Mestrado profissional é dirigido para resolução de problemas do mercado 99 Classificados

Culturas de células em 3D ampliam compreensão sobre órgãos e tecidos bit.ly/2rMcQ8r

rádio  bit.ly/PesquisaBr Pesquisador da UFSCar fala sobre o resgate da obra do escritor João Antônio  bit.ly/2r2MAcS


Conteúdo a que a mensagem se refere:

comentários

cartas@fapesp.br

Revista impressa Reportagem on-line Galeria de imagens Vídeo Rádio

contatos revistapesquisa.fapesp.br redacao@fapesp.br PesquisaFapesp

Humanidades digitais

Na edição 255 da Pesquisa FAPESP, ao deparar com a capa “Humanidades digitais” imaginei como, nesse mês, a revista poderia tornar-se ainda melhor, uma vez que, ao unir dois elementos tidos como distintos, a síntese poderia ser simplesmente incrível. E foi. Outro ponto: as entrevistas são sempre muito atrativas. Nesta edição foi impressionante. Roberto Lent, um dos maiores neurocientistas, “conversando” de uma maneira clara e sucinta. Luciano Henrique Moreira Santos Uberaba, MG

PesquisaFapesp pesquisa_fapesp

Pesquisa Fapesp

pesquisafapesp cartas@fapesp.br R. Joaquim Antunes, 727 10º andar CEP 05415-012 São Paulo, SP Assinaturas, renovação e mudança de endereço Envie um e-mail para assinaturaspesquisa@ fapesp.br ou ligue para (11) 3087-4237, de segunda a sexta, das 9h às 19h Para anunciar  Contate: Paula Iliadis  Por e-mail: publicidade@fapesp.br Por telefone: (11) 3087-4212 Edições anteriores Preço atual de capa acrescido do custo de postagem. Peça pelo e-mail: clair@fapesp.br Licenciamento de conteúdo Adquira os direitos de reprodução de textos e imagens de Pesquisa FAPESP. Por e-mail: mpiliadis@fapesp.br Por telefone: (11) 3087-4212

6 | junho DE 2017

Roberto Lent

Que a ciência possa continuar produzindo professores como Roberto Lent (“Especialista em conexões”, edição 255).

Sinto que depois que veio a foto digital paramos de imprimir e no futuro teremos um espaço de história sem registros fotográficos do dia a dia. Silvia Ranaldi

Vídeo sensacional sobre técnicas e tecnologias para trabalho com células (“Jardins suspensos das células”). Ivano Casagrande Jr.

Gênero na ciência

Há um caminho enorme ainda a ser percorrido na conquista dos espaços dentro da ciência pelas mulheres. Isso só pode avançar se a sociedade for parceira nessa luta (“Em busca de equilíbrio”, edição 254).

Nilson Lima

Roan Coutinho

Esse eu tenho a honra de conhecer. Além de tudo, ainda é um grande ser humano. José Carlos Moraes

Carreiras

A educação científica é o pilar-mor de qualquer país que queira avançar na pesquisa (“A internet ganhou”, edição 254). Eneida Eskinazi

Vídeos

A fotografia, desde que surgiu, nos possibilita um olhar sobre o que nos cerca, sendo importante chave de uma construção social do indivíduo (vídeo “A onipresença da imagem”).

Sabrina Nicolazzi

Temo que as gerações futuras não terão sequer memória. O mundo virtual, a tecnologia veloz e a mania dos selfies fazem com as pessoas fotografem muitas imagens que ninguém verá, nem elas próprias. Sandra Luz

A mais lida de maio no Facebook entrevista

Roberto Lent

bit.ly/Ent255

30.440 pessoas alcançadas 1.257 reações 176 compartilhamentos 51 comentários

Usar novas plataformas. Esse é o lance! Carlos Elson Cunha

Cidades médias

Feudos urbanos e a segregação social, é assim que são feitos, construindo muros, não pontes (“A vida entre muros”, edição 254). Bruna Vilela

Sua opinião é bem-vinda. As mensagens poderão ser resumidas por motivo de espaço e clareza.


fundação de amparo à pesquisa do estado de são Paulo

carta da editora

José Goldemberg Presidente Eduardo Moacyr Krieger vice-Presidente Conselho Superior Carmino Antonio de Souza, Eduardo Moacyr Krieger, fernando ferreira costa, João Fernando Gomes de Oliveira, joão grandino rodas, José Goldemberg, Marilza Vieira Cunha Rudge, José de Souza Martins, julio cezar durigan, Pedro Luiz Barreiros Passos, Pedro Wongtschowski, Suely Vilela Sampaio

O orçamento de C&T e além Alexandra Ozorio de Almeida |

diretora de redação

Conselho Técnico-Administrativo Carlos américo pacheco Diretor-presidente Carlos Henrique de Brito Cruz Diretor Científico fernando menezes de almeida Diretor administrativo

issn 1519-8774

Conselho editorial Carlos Henrique de Brito Cruz (Presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Maria Hermínia Tavares de Almeida, Marisa Lajolo, Maurício Tuffani, Mônica Teixeira comitê científico Luiz Henrique Lopes dos Santos (Presidente), Anamaria Aranha Camargo, Ana Maria Fonseca Almeida, Carlos Américo Pacheco, Carlos Eduardo Negrão, Fabio Kon, Francisco Antônio Bezerra Coutinho, Francisco Rafael Martins Laurindo, José Goldemberg, José Roberto de França Arruda, José Roberto Postali Parra, Lucio Angnes, Luiz Nunes de Oliveira, Marie-Anne Van Sluys, Maria Julia Manso Alves, Paula Montero, Roberto Marcondes Cesar Júnior, Sérgio Robles Reis Queiroz, Wagner Caradori do Amaral, Walter Colli Coordenador científico Luiz Henrique Lopes dos Santos diretora de redação Alexandra Ozorio de Almeida editor-chefe Neldson Marcolin Editores Fabrício Marques (Política de C&T), Marcos de Oliveira (Tecnologia), Ricardo Zorzetto (Ciência), Carlos Fioravanti e Marcos Pivetta (Editores espe­ciais), Bruno de Pierro (Editor-assistente) revisão Alexandre Oliveira e Margô Negro arte Mayumi Okuyama (Editora), Ana Paula Campos (Editora de infografia), Júlia Cherem Rodrigues e Maria Cecilia Felli (Assistentes) fotógrafos Eduardo Cesar e Léo Ramos Chaves Mídias eletrônicas Fabrício Marques (Coordenador) Internet Pesquisa FAPESP online Maria Guimarães (Editora) Rodrigo de Oliveira Andrade (Repórter) Jayne Oliveira (Redatora) Renata Oliveira do Prado (Mídias sociais) banco de imagens Valter Rodrigues Colaboradores André Julião, Danilo Albergaria, Evanildo da Silveira, Everton Lopes Batista, Fabio Otubo, Jean Pierre Chauvin, Igor Zolnerkevic, Luana Geiger, Márcio Ferrari, Negreiros, Renato Pedrosa, Ricardo Aguiar, Yuri Vasconcelos e Zansky

É proibida a reprodução total ou parcial de textos, fotos, ilustrações e infográficos sem prévia autorização Tiragem 25.500 exemplares IMPRESSão Plural Indústria Gráfica distribuição Dinap GESTÃO ADMINISTRATIVA FUSP - FUNDAÇÃO DE APOIO À UNIVERSIDADE DE SÃO PAULO PESQUISA FAPESP Rua Joaquim Antunes, no 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP FAPESP Rua Pio XI, no 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP

Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia Governo do Estado de São Paulo

O

corte anunciado no orçamento do Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC) para 2017, de aproximadamente 40% em relação a 2016 – e de quase 56%, comparado a 2014 –, mobilizou a comunidade científica nacional. O fim da pesquisa brasileira foi decretado por alguns, o corte foi minimizado por outras vozes e a discussão passou ao largo de muitos mais. A redução de recursos para ciência e tecnologia (C&T) não pode ser interpretada como boa notícia, mas uma discussão construtiva da atual conjuntura demanda uma análise ampla, que contemple a complexidade do sistema nacional de C&T. Em nível federal, recursos para o sistema provêm não apenas do MCTIC, como também do Ministério da Educação, da Saúde, da Defesa, entre outros. Todos sofreram algum grau de contingenciamento neste ano, embora em proporção menor que o MCTIC, que agora divide o orçamento com o setor de Comunicações, após a fusão das pastas em 2016. Os estados também são importante componente dessa equação ao contribuir com 17% do investimento nacional em pesquisa e desenvolvimento (P&D) por meio de suas universidades e institutos de pesquisa estaduais e das suas fundações de amparo à pesquisa – entre as quais se destaca a FAPESP, responsável por um quinhão superior à soma das demais FAPs. Por último, o setor privado é responsável por 47% do investimento em P&D, que, segundo o MCTIC, totalizou 1,3% do PIB (Produto Interno Bruto) em 2014. A abrangente reportagem de capa desta edição (página 20), do editor de Política Científica e Tecnológica, Fabrício Marques, faz um retrato do financiamento do sistema nacional de C&T e discute possíveis caminhos para melhorar o investimento do país nessa área em um

cenário de corte de recursos públicos. Eventuais saídas envolvem a reformulação de instrumentos de fomento, como os Fundos Setoriais, e um aumento significativo da participação do setor privado – dificultado pela conjuntura de retração da economia e por fatores estruturais como a baixa participação de setores intensivos em inovação na composição do PIB. Nesse contexto, a meta de empresas e governo investirem 2% do PIB em P&D até 2019, prevista na Estratégia Nacional de Ciência e Tecnologia, lançada em 2016, não será alcançada tão cedo. Na discussão sobre investimentos em C&T, um ponto pouco discutido é a melhoria da qualidade dos gastos. Instrumentos e programas demandam avaliação sistemática, o que passa pela análise da produção científica nacional. Reportagem na página 40 sobre artigos que demoram até serem descobertos – citados – apresenta trabalho com um alerta importante. Depois de analisar 660 mil artigos, observou-se que, nos três primeiros anos, a probabilidade de um paper considerado inovador estar no conjunto dos 1% muito citados era menor que a dos demais. Os trabalhos inicialmente muito citados tenderam à obsolescência. Os que tinham alto grau de novidade representavam 60% dos trabalhos mais citados 15 anos após sua publicação. A conclusão é que, apesar de a defesa do investimento em pesquisa de caráter transformador ser amplamente disseminada, os sistemas de avaliação privilegiam estudos incrementais. Ao se restringirem a indicadores de impacto mais populares, que tendem a dar muito peso à repercussão imediata dos artigos científicos, correm o risco de deixar de valorizar trabalhos que podem trazer contribuições mais robustas para o sistema de C&T. Um bom sistema de avaliação também precisa dar conta da complexidade do sistema. PESQUISA FAPESP 256 | 7


Boas práticas

Aliança entre revistas e universidades Documento sugere avisar primeiro a instituição e só depois o acusado quando há uma suspeita grave de má conduta Um grupo de pesquisadores e gestores propôs em maio novas diretrizes para coordenar o trabalho de revistas e instituições científicas no enfrentamento de casos de má conduta. O documento traz recomendações que procuram definir os papéis que cabem a universidades e a editores, esboçando um novo conjunto de boas práticas para complementar as regras estabelecidas em 2012 pelo Committee on Publication Ethics (Cope), fórum internacional de editores que discute problemas ligados à ética na pesquisa. A proposta foi apresentada para discussão no 5º Congresso Mundial de Integridade Científica, realizado em Amsterdã, Holanda, entre os dias 28 e 31 de maio. Intitulado “Cooperação e ligação entre universidades e editores (Clue)”, o documento traz como principal novidade a ideia de criar registros nacionais de escritórios responsáveis por lidar, dentro de cada instituição científica, com investigações de suspeitas de fraudes, 8 | junho DE 2017

falsificações ou plágio e o contato de seus responsáveis. A recomendação parece uma medida meramente burocrática, mas busca auxiliar os editores numa missão complexa, que é definir quem deve ser procurado para esclarecer indícios de problemas em um paper já publicado. Os periódicos costumam acionar em primeiro lugar o próprio autor do artigo científico. Mas há críticas a essa rotina, pois ela dá chance a que o autor mal-intencionado obstrua a investigação que será realizada posteriormente por sua instituição. O Clue sugere que os periódicos criem regras internas que considerem alertar as instituições antes de avisar os pesquisadores, ainda que apenas em situações específicas. “Isso só deve acontecer em casos em que a revista tiver fortes suspeitas de fabricação ou falsificação de dados”, disse ao site Retraction Watch a zoóloga inglesa Elizabeth Wager, que entre 2009 e 2012 foi presidente do Cope. Wager é uma das autoras do Clue, escrito em parceria com especialistas como Zoë Hammatt,


ilustrações  luana geiger

diretora da divisão de educação do Escritório de Integridade Científica (ORI), que supervisiona as pesquisas no âmbito do Departamento de Saúde dos Estados Unidos, e Chris Graf, diretor de integridade científica da editora Wiley. A criação de registros nacionais de escritórios de integridade científica e de seus responsáveis ajudaria os editores a procurar a pessoa certa nesses casos extremos. Segundo o documento, é comum que editores busquem estabelecer um contato informal com as universidades antes de comunicar oficialmente suspeitas relacionadas a um artigo. Ocorre que esse expediente é considerado irregular em alguns países. Nos Estados Unidos, por exemplo, contatos desse tipo precisam ser documentados e as universidades podem ser processadas se revelarem a terceiros que um de seus pesquisadores está sendo investigado internamente. Uma alternativa aos registros nacionais, segundo Wager, seria exigir que autores informassem os contatos do responsável pelo escritório de integridade científica de sua instituição quando submetessem um artigo para publicação. “Nem seria necessário divulgar esses contatos no artigo, pois eles só seriam utilizados em caso de necessidade”, propôs. Outra sugestão inovadora é que as universidades criem instâncias internas encarregadas de rapidamente responder a perguntas apresentadas por editores e que sejam capazes de avaliar se são confiáveis os resultados de um artigo sobre o qual surgem suspeitas. Essa instância funcionaria de forma independente dos comitês de sindicância que investigam se autores são culpados ou inocentes de má conduta. A ideia busca resolver um descompasso crônico: embora as revistas estejam interessadas prioritariamente em saber se os resultados de um artigo são ou não robustos para decidir se é o caso de retratá-lo, muitas universidades e escritórios de integridade científica estão preparados apenas para determinar se houve má conduta, em longos e caros processos de sindicância. A estrutura proposta no documento busca garantir que erros

em pesquisa, cometidos sem intenção ou resultados de negligência, sejam averiguados de forma rápida – sem prejuízo de que se apure em seguida se houve de fato má conduta. “Um sistema desse tipo ajudaria as revistas a verificar logo se há problemas em artigos publicados e a alertar seus leitores”, afirmou Elizabeth Wager. Colaboração

As recomendações do Clue começaram a ser formuladas em um evento realizado em Heidelberg, na Alemanha, promovido em julho de 2016 pela Organização Europeia de Biologia Molecular (Embo), que reuniu editores e dirigentes de universidades para discutir formas de melhorar a colaboração entre instituições científicas e revistas em episódios de má conduta. As recomendações foram publicadas em maio no repositório de preprints bioRxiv e logo repercutiram. O biólogo molecular e jornalista científico Leonid Schneider, responsável pelo blog For Better Science, afirmou que a criação de uma estrutura para apurar a confiabilidade de uma pesquisa não garante que a instituição promova uma investigação sem viés. Ele citou o caso da farmacologista alemã Kathrin Maedler, que foi acusada de duplicar imagens em artigos científicos e inocentada em uma sindicância feita pela Universidade de Bremen, sob o argumento de que, apesar da manipulação, os resultados da pesquisa estavam corretos e foram

confirmados por outros grupos. “Uma instituição estimulada a avaliar a qualidade de um paper manipulado pode agir de forma tendenciosa, limitar-se a dizer que os resultados são confiáveis e deixar de pedir a retratação do artigo. Isso já aconteceu antes”, afirmou Schneider. Já o bioengenheiro Nikolai Slavov, professor da Universidade Northwestern, Estados Unidos, sugeriu incorporar às diretrizes do Clue uma ideia defendida por ele em 2015 na revista eLife: que os editores de periódicos passem a considerar as críticas a artigos recém-publicados feitas por pesquisadores em plataformas on-line, um tipo de avaliação por pares realizado depois da divulgação dos papers – e exijam dos autores uma resposta pública em no máximo 30 dias, quando alguma falha for apontada. O documento traz outros tópicos para discussão. Aos editores, recomenda que dados brutos de pesquisa e comentários feitos por revisores sobre manuscritos sejam armazenados por pelo menos 10 anos – nos Estados Unidos, o limite de tempo obrigatório para artigos da área biomédica é de seis anos hoje. Para as universidades, uma recomendação é tornar rotineiro o compartilhamento com editores de periódicos dos relatórios de investigações de casos de má conduta que realizaram. Isso é comum em instituições de vários países, mas não é uma regra. PESQUISA FAPESP 256 | 9


ilustração  luana geiger

Da fraude à propaganda enganosa Um inusitado processo judicial envolvendo um caso de má conduta científica foi avaliado no mês passado por um tribunal de Tóquio. A unidade japonesa da empresa farmacêutica Novartis e um de seus ex-funcionários, Nobuo Shirahashi, 66 anos, foram inocentados da acusação de fazer propaganda enganosa da droga Valsartan, contra a hipertensão. Isso, apesar de Shirahashi ter comprovadamente manipulado dados de um ensaio clínico do medicamento que embasou artigos científicos em publicações como o Journal of Human Hypertension, The Lancet e Hypertension Research. Os resultados fabricados foram usados em campanhas publicitárias do remédio no Japão. O juiz Yasuo Tsujikawa considerou que artigos fraudados não poderiam ser enquadrados no conceito de propaganda enganosa definido pela legislação do país. “A publicação de artigos científicos representa a divulgação de resultados de pesquisa. É difícil afirmar que isso estimule pessoas a consumir medicamentos”, afirmou o juiz, segundo o jornal The Japan Times. Os papers manipulados foram alvo de retratação depois que o escândalo veio à tona. Shirahashi foi indiciado em um processo movido pelo Ministério da Saúde do Japão e chegou a ser preso em 2014. Acabou demitido pela Novartis, que financiava o ensaio. O ex-funcionário trabalhava como analista de dados de testes clínicos e forneceu a um grupo de pesquisa da Universidade de Kyoto informações falsas sobre pacientes que, na verdade, jamais receberam o remédio. O estudo adulterado sugeria que o Valsartan, utilizado há anos para o controle da pressão arterial, tinha um efeito preventivo extra: seus usuários haviam sofrido menos acidentes vasculares cerebrais do que pacientes de um grupo de 10 | junho DE 2017

controle. Promotores queriam multar a farmacêutica em 4 milhões de ienes e condenar o ex-funcionário a 30 meses de prisão. Agora, prometem recorrer da decisão do juiz. Em outros países, o resultado de um processo desse tipo talvez fosse diferente. De acordo com a advogada norte-americana Ann Walsh, que trabalhou na Food and Drug Administration, agência reguladora de remédios e alimentos, o caso poderia terminar em condenação nos Estados Unidos caso se comprovasse que a fraude foi citada em qualquer material promocional do medicamento enviado a médicos. “Para tribunais norte-americanos, qualquer material escrito distribuído com o produto está sujeito à legislação que regula a rotulagem de produtos”, disse Walsh ao site Retraction Watch.

Nova lista de periódicos predatórios Uma empresa sediada no estado norte-americano do Texas, a Cabell International, anunciou que vai lançar até o final de junho um serviço para assinantes com uma relação de revistas consideradas predatórias, aquelas que aceitam publicar artigos sem fazer uma revisão por pares adequada, em geral em troca apenas de dinheiro. O serviço será lançado no vácuo de uma popular lista de revistas suspeitas que era mantida na internet por Jeffrey Beall, bibliotecário da Universidade do Colorado, e que durante muito tempo serviu como referência para autores preocupados em publicar em periódicos respeitáveis. A lista de Beall saiu do ar no final de 2016, sem que o responsável explicasse a razão. Kathleen Berryman, executiva da Cabell, disse à revista Nature que o serviço já dispõe de um banco de dados com 3,9 mil revistas. A empresa já fornece a clientes uma

relação de periódicos confiáveis, mas diz ter detectado o interesse também em uma lista de publicações com práticas duvidosas. O serviço levará em conta 65 critérios, entre os quais a ausência de políticas de revisão por pares transparente e de prevenção de plágio. As informações serão coletadas por uma equipe de quatro funcionários. O preço do serviço ainda não foi definido. O biofísico David Cameron Neylon, professor da Universidade de Curtin, na Austrália, que trabalhou como diretor da Public Library of Science (PLOS), disse à Nature que considera listas negras contraproducentes. Segundo ele, é difícil produzir listas desse tipo de forma adequada e reunir uma relação completa de publicações suspeitas. Ele considera que pesquisadores deveriam receber treinamento para distinguir publicações confiáveis e se fiar em listas de revistas bem recomendadas.


Dados Títulos por grande área no Brasil

Formação de doutores

3.500

231% Ciências da Saúde 257% Ciências Humanas

3.000

Em 2015 foram titulados no Brasil 18.625 doutores, uma

2.500

333% Ciências Agrárias 169% Engenharias 182% Ciências Biológicas 140% Ciências Exatas e da Terra 261% Ciências Sociais Aplicadas 2.539% Multidisciplinar 365% Linguística, Letras e Artes

expansão de 250% em relação a 2000 (5.318). Ciências

2.000

Biológicas, Ciências Exatas e da Terra e Engenharias (representadas pela sigla STEM)

1.500

se expandiram em ritmo mais lento que a média; as áreas de Ciências da Saúde, Ciências

1.000

Humanas e Linguística, Letras e 500

Artes, em torno da média. Ciências Agrárias e a área Multidisciplinar apresentaram

2000

expansão acima da média1

100%

0

1.028 892 727 705 667 550 441 257 51

1.111

5.117

90%

1.346

772

80%

1.744

2005

2010

2015

Comparação com os EUA Nos Estados Unidos foram concedidos 55 mil títulos de doutorado acadêmico2 em 2015. As áreas STEM representaram mais de 50% do total (28,5 mil).

9.749 70%

1.881

60%

1.894

50%

30%

de Ciências da Saúde3, muito mais presentes no caso brasileiro 8.801

n Educação

2.380

40% 3.406

n Multidisciplinar e outros 9.897 1.439 2.280

n Ciências Biológicas n Ciências Agrárias

4.863

16.951

10%

n Ciências da Saúde n Ciências Humanas,

Sociais e Artes

BRASIL 18.625

ilustração freepik.com

n Ciências Exatas e da Terra n Engenharias

20%

0%

Também há grande diferença entre os países nas áreas de Ciências Agrárias e

EUA

55.006

Notas e metodologia: 1 A expansão da área Multidisciplinar se deu, em grande parte, pela incorporação de programas que estavam locados em outras grandes áreas. 2 O PhD é o grau de doutorado acadêmico considerado pela National Science Foundation (NSF). 3 No caso das Ciências da Saúde, a formação exigida para exercício da medicina e odontologia, por exemplo, dá-se em nível de pós-graduação. O título é considerado doutorado profissional, mas não acadêmico, segundo a NSF. Em 2015, foram concedidos 69 mil títulos de doutorado profissional na área da saúde nos EUA. 4 Educação é uma grande área pela NSF; para a Capes integra as Ciências Humanas. Este gráfico a considera uma área separada por sua significativa participação nos dois países. No caso das Ciências Humanas, Sociais Aplicadas e Linguística/ Letras/Artes, não há equivalência exata com grandes áreas da NSF, que usa as denominações Ciências Sociais e Humanidades. Essas grandes áreas foram agrupadas como Ciências Humanas, Sociais e Artes. Fontes: Geocapes, Capes/Mec (2000-2015); Survey of Science and Engineering Doctorates, 2015, NSF; Digest of Education Statistics 2015, National Center for Education Statistics (NCES).

PESQUISA FAPESP 256 | 11


Notas

Genética explica cor das penas de caboclinhos e asas atrofiadas de corvo-marinho

1

Estudos genéticos recentes ajudam a entender algumas característi-

curador da coleção de ornitologia do Museu de Zoologia da Universidade

cas singulares de dois grupos de aves da América do Sul. Um time de

de São Paulo (MZ-USP), um dos autores do estudo. Em outro trabalho,

biólogos e ornitólogos de Brasil, Argentina e Estados Unidos encontrou

uma equipe internacional coordenada por pesquisadores da

pequenas diferenças genéticas responsáveis pela coloração especí-

Universidade da Califórnia em Los Angeles (Ucla), Estados Unidos,

fica da plumagem dos machos de caboclinhos, pequenas aves do

afirma ter encontrado alterações genéticas no DNA da ave Phalacro-

gênero Sporophila que vivem em áreas de mata abertas (Science Ad-

corax harrisi, presente apenas nas ilhas Galápagos, que podem expli-

vances, 24 de abril). Eles sequenciaram o genoma completo de nove

car o fato de ela ser a única espécie de cormorão (ou corvo-marinho)

das 11 espécies conhecidas da ave e identificaram grandes picos de

incapaz de voar. Eles analisaram o genoma da ave de Galápagos e de

divergências genéticas em 25 regiões do DNA. Foram identificados

outras três espécies de cormorão e viram que genes associados a

246 genes nessas regiões, boa parte deles associada às vias de

problemas de formação óssea em seres humanos, como o Ift122 e o

produção de melanina, pigmento que gera cores como preto, marrom

cux1, mostravam-se mais ativos apenas no Phalacrocorax harris. A

e distintos tons avermelhados e amarelados. “Essas diferenças genéticas

disfunção, que faz com que os genes produzam uma quantidade maior

devem ter sido fixadas por um processo de seleção sexual e gerado

de certas proteínas, pode ser a explicação do surgimento de asas

as plumagens específicas de cada espécie”, sugere Luís Fábio Silveira,

atrofiadas do cormorão de Galápagos (Science, 2 de junho).

2

Estudos tentam entender a cor da plumagem dos caboclinhos (alto) e a incapacidade de voar do cormorão de Galápagos 12 | junho DE 2017


Presidente francês nomeia cientistas para ministérios ligados à pesquisa Reconstituição artística de como seria o animal marinho do gênero Namacalathus

O novo presidente francês, Emmanuel Macron, e seu primeiro-ministro, Édouard Philippe, convocaram nomes da ciência e das universidades para o comando de ministérios. A bioquímica Frédérique Vidal, de 53 anos, foi escalada para

3

a pasta da Educação Superior, Pesquisa e Inovação, recriada após ter se fundido em 2014 ao Ministério da Educação Nacional. Especialista 1 cm

em genética reprodutiva, Vidal leva para o governo a experiência de quem presidiu nos últimos

Recifes marinhos podem ter surgido 20 milhões de anos antes do imaginado

cinco anos a Universidade de Nice Sophia Antipolis. Outro nome que vem da academia é o ministro da Educação, Jean-Michel Blanquer, de 52 anos. Com formação em direito, filosofia e ciência política, era o presidente da École Supé-

fotos 1 Márcio Repenning 2 Caroline Duffie Judy  3 Ilustração Felipe Daniel de Castro Sales  4 Universidade de Nice Sophia Antipolis 5 Maya Angelsen

rieure des Sciences Économiques et CommerciaRochas de aproximadamente 550 milhões de anos

les, uma das mais influentes escolas de pós-

de idade coletadas no norte do Paraguai guardam

-graduação em negócios da França. Entre 2009

vestígios do que podem ter sido os primeiros recifes

e 2012, foi o responsável pela divisão do ensino

marinhos formados por organismos visíveis a olho

secundário do ministério. A médica e pesquisa-

nu. Uma equipe internacional de geólogos e biólogos

dora em hematologia Agnès Buzyn, 54 anos, foi

identificou nas rochas calcárias extraídas em Puer-

nomeada para o Ministério da Saúde e da Soli-

to Vallemí, próximo à fronteira com o Mato Grosso

dariedade. Ela já havia comandado instituições

do Sul, fósseis de animais marinhos de três gêneros

públicas como o Instituto Nacional do Câncer e

distintos que viviam em conjunto, ancorados no sedimento depositado por cianobactérias no fundo de um mar raso. Com poucos centímetros de com-

a Alta Autoridade em Saúde da França. Entre 2002 e

4

2006, liderou um grupo de

primento, os fósseis pertencem a exemplares de

pesquisa em imunologia do

Corumbella, Cloudina e Namacalathus, os primeiros

câncer do Instituto Nacional

seres vivos com esqueleto, que existiram entre 550

de Saúde e de Pesquisa Mé-

milhões e 542 milhões de anos atrás. Essa é a pri-

dica (Inserm). Como Buzyn é

meira vez que fósseis desses três gêneros são en-

casada com o atual diretor do

contrados em amostras de rocha de uma mesma

Inserm, Yves Lévy, os assun-

região e a quinta ocorrência no mundo – a primeira

tos ligados ao instituto serão

na América do Sul – de organismos do gênero Na-

tratados diretamente pelo

macalathus, seres cujo esqueleto, formado por uma

premiê Édouard Philippe, para

pequena haste sustentando uma esfera no alto,

evitar conflito de interesses.

lembra o botão de uma papoula (Precambrian Research, maio). “Até pouco tempo atrás, acreditava-se que os primeiros recifes tivessem surgido por volta de 530 milhões de anos atrás, constituídos por organismos semelhantes a esponjas calcárias chamadas arqueociatídeos”, conta o geólogo Lucas Warren, pesquisador da Universidade Estadual Paulista (Unesp) em Rio Claro e primeiro autor do artigo. “A presença em um mesmo tipo de rocha desses

A bioquímica Frédérique Vidal (acima) é a nova ministra da Educação Superior, Pesquisa e Inovação da França, e a hematologista Agnès Buzyn comanda a pasta da Saúde

organismos que viveram há 550 milhões de anos sugere que eles já eram capazes de se unir e crescer sobre um mesmo substrato, como ocorre atualmente com os corais em um recife”, explica.

5

PESQUISA FAPESP 256 | 13


1

O AutoDrive tem autonomia de oito horas e percorre rotas específicas

Revisores imortalizados em escultura

ideia para o monumento

pediu sugestões do que

A exemplo da escultura

fazer com um bloco de

em homenagem ao

pedra próximo à entrada

escritor anônimo

da escola. A proposta de

instalada no Castelo

se fazer um monumento

de Vajdahunyad, em

em homenagem aos

Budapeste, Hungria, um

revisores partiu de Igor

monumento inaugurado

Chirikov, sociólogo da

reenviado e rejeitado. A surgiu em 2016, quando o diretor da instituição

na Rússia homenageou

instituição. Além de

um personagem

estampar os resultados

improvável: os revisores

possíveis do processo de

ad hoc, pesquisadores

revisão por pares, as

que avaliam artigos

faces do bloco de pedra

submetidos para

trazem impressos os

publicação. Desvelado

títulos de artigos de

Um pequeno veículo elétrico e autôno-

em 26 de maio durante

pesquisadores que

mo, munido de cinco câmeras e vários

cerimônia que contou

contribuíram para a

sensores, foi concebido pela Cybox,

com a presença de mais

campanha. “A revisão

empresa instalada na Incubadora de

de 100 pessoas nas

por pares na academia é

Empresas de Base Tecnológica da

dependências da Escola

uma história de amor

Unicamp (Incamp), da Universidade

Superior de Economia da

e ódio, mas os revisores

Estadual de Campinas (Unicamp). Cha-

Universidade Nacional

são heróis invisíveis no

mado de AutoDrive, ele tem 75 centí-

de Pesquisa de Moscou,

mundo da ciência”, disse

metros (cm) de comprimento, 60 cm

o monumento de

Chirikov à revista Nature.

de largura e 80 cm de altura. Pode ser

1,5 tonelada é resultado

pré-programado para percorrer rotas

de uma campanha de

específicas ou controlado a distância

financiamento coletivo

por um agente de segurança. “Fizemos

que atraiu apoio de

um trabalho de integração com câme-

diversos pesquisadores.

ras, sensores GPS e giroscópios que

O bloco de pedra tem

Vigilante empresarial

existem no mercado com o software desenvolvido por nós, que envia as imagens diretamente para computadores”, conta o engenheiro eletricista Marcel Pinheiro, sócio da Cybox. O AutoDrive tem tração nas quatro rodas e sensores que permitem desviar de obstáculos. A

Austrália faz parceria com Eso

a forma de um dado, O sociólogo russo Igor Chirikov e o monumento que ele propôs em homenagem aos pareceristas

exibindo em cada lado os

O governo da Austrália

resultados possíveis de

irá destinar US$ 19,2

uma revisão por pares:

milhões de seu

aceito, alterações

orçamento do próximo

mínimas, mudanças

ano para que sua

importantes, revisto e

comunidade de

autonomia das baterias de lítio que pode ser recarregado de dia e operar à noite, principalmente para fazer a primeira abordagem em situações em que um vigia estaria em risco, como no caso de presença de pessoas não identificadas ou ocorrência de acidentes com máquinas e início de incêndio.” A Cybox recebeu financiamento do Programa Pesquisa Inovativa em Pequenas Empresas (Pipe) da FAPESP. O AutoDrive não será vendido para empresas, mas alugado. “Fazemos a manutenção do hardware e a gestão do software do AutoDrive na empresa que aluga o veículo”, esclarece Pinheiro. 14 | junho DE 2017

Marcas e fraturas em osso fossilizado de mastodonte sugerem que ele foi partido de forma proposital por hominídeos

2

fotos 1 Marcel Pinheiro  2 Igor Chirikov /Facebook  3 paolo d’errico

movem o veículo é de oito horas. “Ele


3

Privação de sono altera atividade dos astrócitos (em verde e azul) e pode ser prejudicial ao cérebro

Dormir mal pode consumir seu cérebro

astrofísicos possa fazer

astrofísicos australianos

pesquisa conjunta e ter

há algum tempo. No

acesso a alguns dos

entanto, segundo nota

instrumentos do

divulgada pelo site do

Observatório Europeu do

governo australiano,

Sul (Eso), consórcio

a parceria não

Se você não gosta de perder tempo dormindo,

formado por 16

contempla o acesso ao

um alerta: privação de sono pode contribuir

países-membros – entre

Alma e ao ELT. “A

para a autodestruição do cérebro. Ao menos é

eles, o Brasil – que

participação da Austrália

o que sugere um experimento com camundon-

gerencia um conjunto de

em colaborações

gos feito na Universidade de Wisconsin, Estados

grandes telescópios em

multinacionais, como

Unidos, e na Universidade Politécnica de Mar-

três localidades do Chile.

a parceria com o Eso,

che, Itália. O trabalho indica que deixar o sono

A parceria também

impulsionará nossas

de lado causa um aumento na atividade dos

prevê que a Austrália

capacidades científica

astrócitos, células do cérebro responsáveis por

fará, a partir de 2018,

e industrial”, disse ao site

remover conexões (sinapses) desnecessárias e

aportes anuais de

da Astronomy Australia

tornar os circuitos mais eficientes (Journal of

US$ 9 milhões até 2028

Ltd. o astrofísico

Neuroscience, 24 de maio). Essa faxina cerebral

para o Eso. Só então, o

norte-americano Brian

ocorre normalmente durante o sono. No estudo,

país tomará a decisão se

Schmidt, prêmio

quando os animais dormiam o suficiente, foi

vai se tornar um membro

Nobel de Física em 2011

constatado que 6% das sinapses foram remo-

de fato do consórcio.

e vice-reitor da

vidas. Esse nível de limpeza é considerado sau-

No mês passado, o Eso

Universidade Nacional

dável. O índice subia para 8% quando os ca-

inaugurou a pedra

da Austrália. Além da

mundongos eram mantidos acordados por mais

fundamental do

nova parceria, a

oito horas e 13,5% se a privação de sono se

Extremely Large

Austrália participa de

tornava crônica e drástica e se prolongava por

Telescope (ELT). Com um

outros dois grandes

cinco dias seguidos. A conclusão geral do es-

espelho de 39 metros

projetos internacionais:

tudo é de que a faxina exagerada de sinapses

(m), o ELT será o maior

o Giant Magellan

em razão de um período estendido de vigília

telescópio óptico do

Telescope (GMT),

pode causar danos cerebrais. Outros trabalhos

mundo. Sua entrada em

supertelescópio óptico

já apontaram malefícios decorrentes da priva-

operação está prevista

de 24,5 m em

ção crônica de sono no funcionamento de outras

para 2024. O acesso às

construção no Chile (ao

células, como as micróglias, responsáveis pelo

instalações do Eso, que

qual os pesquisadores de

sistema de defesa imunológica do cérebro. Dor-

também administra o

São Paulo terão acesso),

mir pouco faria com que as micróglias alteras-

maior radiotelescópio

e o radiolescópio Ska,

sem seu regime de trabalho, um distúrbio que

terrestre em operação, o

que começará a ser

poderia estar associado ao desenvolvimento

Alma, era um anseio de

construído em 2018.

de demências, como a doença de Alzheimer. PESQUISA FAPESP 256 | 15


incêndio em campos de petróleo, iraque

Reserva natural Toolonga, Austrália

A vez dos satélites privados de observação da Terra

Aplicativo encontra artigo científico

Satélites de observação da Terra geren-

procurado. Se o pesquisador tiver acesso limitado a bases acadêmicas de dados, o aplicativo busca versões

ciados por empresas começam a desper-

O físico Peter Vincent

gratuitas do artigo em

tar interesse de pesquisadores. A compa-

e o estudante Benjamin

acervos de instituições

nhia finlandesa Iceye anunciou que vai

Kaube, ambos do

ou em preprints. Kaube,

lançar neste ano o primeiro de uma série

Imperial College London,

um dos fundadores da

de 20 satélites equipados com radares,

criaram um aplicativo

startup Newsflo, que

que poderão captar imagens de um mes-

para celulares e

mede o impacto dos

mo local várias vezes por dia. A empresa

computadores chamado

artigos científicos e foi

escandinava entra em mercado em que já

Canary Haz (canaryhaz.

comprada pela editora

há outros competidores, como a norte-

com), que permite

Elsevier, começou a

-americana XpressSAR e a canadense

acessar com rapidez

pensar em desenvolver

Urthecast. A argentina Satellogic lançou

artigos em revistas

o aplicativo ao iniciar a

em 2016 dois satélites de 35 quilos e se

científicas. Semelhante

redação de sua tese de

tornou a primeira empresa a explorar co-

ao Spotify, aplicativo

doutorado e perceber

mercialmente imagens hiperespectrais,

que facilita o acesso

a dificuldade de acesso a

aquelas que abrangem vários comprimen-

a milhões de músicas

artigos. “Comparado ao

tos de onda. Parte dos dados foi oferecida

on-line, o Canary

Netflix e ao Spotify, é um

de graça a pesquisadores. O avanço dos

Haz conecta-se

processo antiquado”, ele

satélites comerciais é visto ao mesmo

automaticamente

comentou, em entrevista

tempo com alívio e com reservas pela co-

a cerca de 5 mil

ao boletim do Imperial

munidade científica. Com alívio, porque

publicações, a

College de 30 de maio.

novas gerações de satélites públicos estão

ferramentas de busca de

“Os pesquisadores

ameaçadas de não sair do papel. Um exem-

trabalhos acadêmicos,

perdem horas pulando de

plo é o Pace, da Nasa, que deveria forne-

como o Google Scholar,

um site para outro para

cer imagens hiperespectrais a partir de

e a sites de bibliotecas

vencer as barreiras das

2018, mas pode ser cancelado devido ao

universitárias para

editoras e conseguir os

corte no orçamento da agência proposto

encontrar uma versão

artigos que desejam”,

pelo presidente Donald Trump. Com re-

em PDF do artigo

acrescentou Vincent. Os

servas, porque não há garantias de que as

pesquisadores ressaltam

empresas forneçam dados específicos e

que o aplicativo não

séries históricas de que os pesquisadores

promove a pirataria de

precisam. Andreas Kääb, professor do

artigos científicos de

Departamento de Geociências da Univer-

acesso fechado, como o

sidade de Oslo, Noruega, disse à revista

site russo Scihub. Ele

Nature que as empresas, embora ofereçam

apenas facilita encontrar

imagens, raramente disponibilizam dados

PDFs de trabalhos que

brutos captados por satélites que são necessários para seus estudos. 16 | junho DE 2017

estão escondidos em Programa Canary Haz busca versão gratuita de artigos

repositórios da internet.


monte fuji, japão

1

Bioinseticida mata de fome praga que ataca milho Um vírus mortal para a lagarta-do-cartucho (Spodoptera fugiperda), considerada a pior praga da cultura do milho, é a principal matéria-prima de um bioinseticida para a lavoura desenvolvido pela Embrapa Milho e Sorgo, de Sete Lagoas (MG). O vírus da espécie Baculovirus

agricultura, kansas, EUA

Nível do mar na costa brasileira deve subir

spodoptera ataca somente a lagarta, que é a

coordenador-geral de pesquisa e desenvolvimento do Centro Nacional de

Novos sensores no espaço estão produzindo mais imagens em alta resolução da Terra, como as acima da empresa canadense Urthecast

saúde de seres humanos ou a de qualquer outro animal. Alternativa ao tratamento contra a praga baseado em agroquímicos, o produto foi licenciado para a empresa Vitae Rural, de Uberaba (MG), e, a partir de outubro, estará à venda para os agricultores. O processo de produção

Monitoramento e Alertas

do bioinseticida desenvolvido pela Embrapa

O nível do mar na costa

de Desastres Naturais

prevê a multiplicação dos vírus em lagartas

brasileira, onde vive

(Cemaden) e um dos

vivas criadas em laboratório. A coordenação

60% da população,

autores do relatório.

dos estudos foi do engenheiro-agrônomo Fernando Valicente, pesquisador da Embrapa

tende a subir nas próximas décadas. Nos estados de São Paulo e do Rio de Janeiro, por exemplo, já têm sido

Milho e Sorgo. A lagarta-do-cartucho ataca

A comida e a culpa

também algodão, alface, cana-de-açúcar, batata, arroz, soja, tomate, entre outros produtos agrícolas. Os estragos no milho começam quando a mariposa coloca os ovos na folha e eclodem

registradas taxas de

fotos 1 Urthecast 2 Embrapa Milho e Sorgo

fase larval de uma mariposa e não faz mal à

aumento do nível médio

Mulheres diagnosticadas

as lagartas, depois de dois a três dias. Elas co-

do mar de 1,8 milímetro

com bulimia nervosa

meçam a se alimentar da planta, principalmen-

(mm) a 4,2 mm por ano

afirmam escolher

te do cartucho do milho, que é a parte formada

desde a década de 1950.

alimentos com base em

por folhas sobrepostas em forma cônica, pre-

No entanto, estudos

decisões relativas à

sobre o impacto das

saúde ou à busca por um

mudanças climáticas

corpo ideal, enquanto

no litoral ainda são

voluntárias sem risco de

escassos, segundo

distúrbios alimentares

relatório do Painel

ressaltam o sabor e o

Brasileiro de Mudanças

prazer proporcionados

Climáticas (PBMC),

pela comida. As

lançado em junho no Rio

conclusões estão em um

de Janeiro. “Os impactos

estudo conduzido por

mais evidentes da

pesquisadoras da

elevação do nível do mar

Faculdade de Saúde

são o aumento de

Pública da Universidade

inundações costeiras

de São Paulo (Appetite,

e a redução da linha de

1º de junho), com base

praia. Mas há outros não

em um questionário

tão perceptíveis, como

padronizado. Os dados

a intrusão marinha,

apontaram uma

em que a água salgada

insatisfação com a

penetra aquíferos e

imagem corporal em

ecossistemas de água

82% das participantes

doce”, disse José

sem problemas

Marengo à Agência

alimentares e em 93%

FAPESP (5 de junho),

daquelas com bulimia.

sentes principalmente quando a planta está na O vírus Baculovirus spodoptera não faz mal ao homem e ataca apenas a lagarta-do-cartucho

fase de crescimento. O bioinseticida é aplicado na planta diluído em água e provoca uma taxa de mortalidade entre 75% e 95% das lagartas, que, depois de infectadas, perdem o apetite.

2

PESQUISA FAPESP 256 | 17


Vírus da dengue reprograma células sanguíneas Causador da doença hemorrágica mais comum do mundo, com 90 milhões de novos infectados por ano, o vírus da dengue altera o funcionamento das plaquetas, as células responsáveis pela coagulação do sangue. Esse efeito, identificado agora por pesquisadores da Fundação Oswaldo Cruz (Fiocruz) no Rio de Janeiro, soma-se a outras alterações atribuídas anteriormente à ação do vírus. Há tempos se sabe que esse vírus causa uma diminuição importante na concentração sanguínea de plaquetas, aumentando o risco de hemorragias. Sem a quantidade adequada dessas células – na verdade, elas são fragmentos de células da medula óssea –, o organismo deixa de ter a capacidade de estancar a perda de sangue por fraturas que surgem nos vasos sanguíneos. Mas não se conhecia como o vírus afetava a atividade das plaquetas. Para tentar descobrir a influência do vírus sobre elas, o grupo da Fiocruz liderado por Jonas Perales e Patrícia

Solistas de orquestra preferiram o som de instrumentos atuais ao dos feitos nos séculos XVII e XVIII, como o Stradivarius

Violinos modernos batem Stradivarius

cegos envolvendo oito violinistas e 140 ouvintes experientes em salas de concertos de Paris e Nova York, eles

compararam a qualidade

Violinos italianos

do som do Stradivarius

Bozza decidiu comparar o perfil proteico (proteoma) das

antigos, como os

com o de violinos atuais.

plaquetas de indivíduos com dengue com o das plaquetas

Stradivarius, são

Os instrumentos foram

de pessoas sadias. Das quase 3.400 proteínas mapeadas,

caríssimos e

tocados com e sem a

252 eram diferencialmente expressas (produzidas em

considerados os

presença de uma

maior ou menor quantidade) nas plaquetas de quem tinha

melhores do mundo.

orquestra por solistas

dengue. A análise do proteoma indicou que, após o con-

Confeccionados

vendados, que estavam

tato com vírus, as plaquetas se tornaram ativas e come-

artesanalmente nos

escondidos atrás de uma

çaram a sequestrar do sangue proteínas que contribuem

séculos XVII e XVIII, eles

tela acústica. A maioria

ainda mais para sua ativação. Elas também passaram a

gerariam notas mais

dos músicos não soube

estocar e a liberar moléculas inflamatórias na corrente

precisas e alcançariam

dizer se tinha tocado um

sanguínea. “Essas citocinas e quimiocinas inflamatórias

tons irreprodutíveis por

instrumento novo ou um

parecem colaborar para o agravamento do quadro clínico”,

instrumentos modernos.

antigo, mas preferiu os

conta a pesquisadora Monique Trugilho, primeira autora

Um estudo desenvolvido

violinos modernos ao

do artigo (PLOS Pathogens, de maio). O grupo verificou

pelo luthier americano

Stradivarius. Também

ainda que o contato com o vírus induz nas plaquetas uma

Joseph Curtin e a

os ouvintes na plateia –

potencial nova função, antes considerada exclusiva de

engenheira acústica

músicos, críticos

células de defesa: as plaquetas se tornariam capazes de

Claudia Fritz, da

musicais, luthiers e

degradar proteínas virais, direcionar seus fragmentos para

Universidade Pierre e

engenheiros acústicos

a superfície e os apresentar para outras células, disparan-

Marie Curie, França,

– foram incapazes de

do uma resposta de defesa. “Novos experimentos são

coloca essa percepção

distinguir o som

necessários para confirmar se isso ocorre, mas a análise

arraigada à prova (PNAS,

produzido pelos

do proteoma indica que as plaquetas possuem as proteí-

8 de abril). Em testes

instrumentos.

nas necessárias para exercer tal função”, conta Monique.

Patógeno da doença altera o funcionamento das plaquetas (em roxo) 18 | junho DE 2017

2

fotos 1 Wikimedia Commons 2 Graham Beards / Wikimedia Commons  3 Philipp Gunz / MPI EVA Leipzig  4 John Fleagle / Stony Brook University  5 Alessandrosmerilli / Wikimedia Commons  6 Instituto Smithsonian  7 Shannon McPherron / MPI EVA Leipzig

1


Mais velho Homo sapiens, de 300 mil anos, é encontrado no Marrocos

3

Se alguém entrasse em uma máquina do tempo e voltasse 300 mil anos atrás para a região de Jebel Irhoud, hoje parte do Marrocos, talvez encontrasse pessoas com o rosto bastante semelhante ao de seres humanos atuais. A diferença mais marcante estaria no perfil,

Jebel Irhoud Marrocos 300 mil anos

omo kibish Etiópia 195 mil anos

revelando um crânio mais baixo e alongado. As carac4

terísticas físicas desses Homo sapiens e a época em que viveram são o tema de dois artigos publicados simultaneamente (Nature, 6 de junho). Nos trabalhos, os pesquisadores revelam que a datação de ossos de três adultos, um adolescente e uma criança de 8 anos de idade, e dos artefatos a eles associados, indica que o homem moderno teria estado presente no norte da África pelo menos 100 mil anos antes do que se pensava. Até agora, os três conjuntos de fósseis mais an-

5

herto Etiópia 160 mil anos

tigos de H. sapiens eram oriundos do leste da África subsaariana. O mais velho deles, do sítio de Omo kibish, na Etiópia, tinha idade máxima de 195 mil anos (ver mapa). As consequências do novo achado para a compreensão da evolução humana são grandes. “Foi um grande ‘uau’”, disse o paleoantropólogo francês Jean-Jacques Hublin, do Instituto Max Planck para Evolução Antropológica, na Alemanha, principal autor do trabalho com os fósseis humanos, durante coletiva de imprensa. “O material de Jebel Irhoud era muito mais antigo do que qualquer outra coisa na África relativa à nossa espécie.” Um aspecto surpreendente desses

6

Ngaloba Tanzânia 120 mil anos

fósseis de H. sapiens é a disparidade entre as partes de seu crânio, que o autor francês descreveu como uma inusitada combinação de traços muito avançados (o rosto e a dentição) e arcaicos (a forma da caixa que abrigava o cérebro). “É um retrato muito mais complexo da evolução da nossa espécie, com partes da anatomia humana evoluindo a taxas distintas”, explicou. O formato do cérebro, portanto, teria se alterado ao longo da evolução mais recente dos humanos modernos, tornando-se mais globular e com mudanças nas proporções. O cerebelo, por exemplo, teria crescido.

O sítio de Jebel Irhoud forneceu ossos de cinco humanos modernos que foram datados

7

PESQUISA FAPESP 256 | 19


capa

Financiamento em crise Quais são as alternativas para atenuar o impacto dos cortes do orçamento federal no esforço nacional em Pesquisa e Desenvolvimento

U

m corte significativo do orçamento do Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC) repercutiu de forma intensa na comunidade científica neste primeiro semestre de 2017. No final de março, o orçamento de custeio e investimento do MCTIC, que exclui despesas com pessoal, foi limitado a R$ 3,2 bilhões em 2017, 44% menor do que o que havia sido estabelecido na lei orçamentária – e menos da metade do orçamento empenhado de 2014, que foi de R$ 7,3 bilhões. O que representa esse corte para o conjunto do financiamento à ciência e à tecnologia do país? É possível afirmar que a redução terá impacto no esforço nacional em Pesquisa e Desenvolvimento (P&D), conjunto de atividades feitas por empresas, universidades e instituições científicas que contempla resultados de pesquisa básica e aplicada, lançamento de novos produtos e formação de pesquisadores. Em 2014, ano mais recente para o qual há estatísticas consolidadas, investiu-se no Brasil 1,27% do Produto Interno Bruto (PIB) em atividades de P&D, o equivalente a R$ 73,6 bilhões – e o quinhão 20 | junho DE 2017

do MCTIC (à época dividido em duas pastas) foi de R$ 5,6 bilhões, ou apenas 7,6% desse investimento. Caso os cortes recentes não sejam revertidos, a participação do MCTIC no dispêndio nacional em P&D deve cair de um patamar de 0,1% do PIB há três anos para um índice próximo a 0,07% do PIB neste ano. Ainda é cedo para apostar que a queda de participação terá mesmo essa dimensão. “Há a expectativa de que o governo libere recursos no segundo semestre. Esse tipo de recomposição já aconteceu em dezembro do ano passado, quando o MCTIC recebeu R$ 1,5 bilhão da repatriação de contas mantidas por brasileiros no exterior”, afirma Álvaro Prata, secretário de Desenvolvimento Tecnológico e Inovação do MCTIC. “Vivemos uma situação de excepcionalidade, mas esperamos que a economia volte a crescer.” Também é prematuro prever o desempenho global do país em P&D em 2017. Outros componentes do investimento federal sofreram cortes, não tão dramáticos como no MCTIC. O Ministério da Educação (MEC), que em 2014 respondeu por cerca de 21% de todo o esforço nacional de P&D, teve um corte orçamentário de 12% em março. Os

ilustraçãO fabio otubo

Fabrício Marques


A composição do investimento em P&D Comparacão do Brasil com países desenvolvidos e emergentes

Público* Coreia do Sul

Privado

25,5%

% do PIB

74,5%

Japão

22,1%

Alemanha

34,2%

65,8%

Estados Unidos

35,9%

64,1%

China

25,3%

74,7%

Brasil

52,9%

47,1%

4,23%

77,9%

3,49% 2,87% 2,78% 2,06% 1,27%

*Investimentos de governos, instituições sem fins lucrativos e fontes externas Fontes Brasil (2014)-MCTIC/ Outros países (2015)-OCDE

dispêndios públicos federais Investimentos em P&D dos ministérios em 2014 (milhões de R$)

dispêndios públicos estaduais Investimentos em P&D dos estados em 2014 (milhões de R$)

Educação

Ciência e Tecnologia

São Paulo

15.501,9

5.486,4

9.173,5 2.665,3 1.725,4 Defesa  429,9 Comunicações  178,1 Outros  113,1

Agricultura

gastos do MEC se concentram nas universidades federais e no pagamento de bolsas da Coordenação Nacional de Aperfeiçoamento de Pessoal de Ensino Superior (Capes). A Empresa Brasileira de Pesquisa Agropecuária (Embrapa), vinculada ao Ministério da Agricultura, manteve estável sua dotação orçamentária, na casa dos R$ 3 bilhões desde 2015, ainda que o montante seja insuficiente – ela teve prejuízo de R$ 490 milhões em 2016. O esforço em P&D do governo federal tem fontes importantes em ministérios como o da Educação e o da Saúde. “Esse perfil é diferente do observado nos Estados Unidos, onde os maiores investimentos do governo estão em ministérios vinculados a setores fortes da economia, como Defesa e Energia”, observa Carlos Américo Pacheco, professor do Instituto de Economia da Universidade Estadual de Campinas (Unicamp). “No Brasil, os investimentos são mais significativos no âmbito do MEC e do MCTIC. Apesar da maior atenção do setor privado à agenda da inovação, os temas de ciência, tecnologia e inovação no Brasil ainda são muito afeitos às universidades e aos institutos de pesquisa. Com isso, há dificul-

1.008,4 730,1 Bahia  320,4 Minas Gerais  304,1 Santa Catarina  240,9 Ceará  178,9 Pernambuco  154,8 Mato Grosso do Sul  143,9 Amazonas  96,0 Paraíba  67,2 Distrito Federal  63,5 Maranhão  58,1 Pará  56,9 Rio Grande do Sul  51,8 Goiás  47,6 Rio Grande do Norte  45,8 Mato Grosso  30,8 Outros  69,8

Rio de Janeiro

Saúde

dade de mobilizar a área econômica, como o Ministério da Fazenda, e pastas setoriais para garantir o financiamento”, completa Pacheco, que é diretor-presidente do Conselho Técnico-Administrativo da FAPESP. Os gastos públicos em P&D têm uma parcela dos estados, que em 2014 alcançou R$ 12,8 bilhões, ou 17% do total – São Paulo foi responsável por dois terços disso, com os dispêndios das três universidades estaduais, instituições de pesquisa e investimentos feitos pela FAPESP. No documento Estratégia nacional de ciência e tecnologia, lançado pelo governo federal em 2016, o país se propunha a investir 2% do PIB em P&D até 2019, meta cada vez mais difícil de alcançar. O patamar não é exorbitante. A média do investimento dos 34 países da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), que reúne algumas das nações mais industrializadas, foi de 2,4% do PIB em 2015. “Países desenvolvidos investem mais de 2% do PIB em ciência e tecnologia. É com eles que temos que competir”, afirma Helena Nader, presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC).

Paraná

Fonte  MCTIC

PESQUISA FAPESP 256 | 21


dispêndios empresariais Investimentos privados em P&D no Brasil em 2014 (milhões de R$) Empresas privadas e estatais

33.043,1

Fonte  MCTIC

investimentos em inovação Setores cujas empresas inovadoras mais investiram em atividades internas de P&D em 2014 (milhões de R$) Carros, reboques e carrocerias

2.913,2

Coque, produtos derivados do petróleo e biocombustíveis

2.665,3

Produtos químicos

1.966,4 Informática, eletrônicos e ópticos

1.555,7 Máquinas, aparelhos e material elétrico

1.367,9 Produtos farmacêuticos

1.225 Outros equipamentos de transporte

1.122,8 Fonte  Pintec 2014-IBGE

P

ara alcançar esse nível, tomando o PIB de 2016 que foi de R$ 6,26 trilhões, no Brasil o investimento em P&D deveria ser R$ 125 bilhões, 70% a mais do que em 2014. “Nos países desenvolvidos que investem mais de 2% do PIB em P&D, a parte das empresas é sempre maior do que 1,3% do PIB”, observa o diretor científico da FAPESP, Carlos Henrique de Brito Cruz. “Nos países da OCDE, onde o dispêndio total em P&D chegou a 2,4% do PIB, 1,65% foi o dispêndio por empresas, restando para o governo 0,75%.” A promulgação em dezembro de uma emenda constitucional que impôs um teto para o crescimento de gastos públicos torna improvável um crescimento de recursos da União e dos estados, a menos que alguma engenharia financeira nova consiga identificar outras fontes de recursos e tenha respaldo político para ser implementada. Os olhos se voltam para o setor privado. No Brasil a

22 | junho DE 2017

participação das empresas no esforço nacional de P&D alcançou 47,1% dos investimentos em 2014, aquém do registrado nos Estados Unidos (64,1%), na Alemanha (65,8%) e no Japão (77,9%). São Paulo é exceção no cenário brasileiro, com 60% dos investimentos estaduais em P&D feitos por empresas. “O financiamento das empresas ainda é pífio no Brasil. Na Coreia, empresas contribuem com mais de 70% do total do investimento em CT&I”, comenta Helena Nader. Para que o setor privado brasileiro assumisse dois terços do esforço nacional de P&D, as empresas teriam de investir cerca de R$ 83,2 bilhões, 140% mais que os R$ 34,6 bilhões despendidos em 2014. Se esse desempenho fosse alcançado pelo setor empresarial, a meta de investir 2% do PIB exigiria do setor público em torno de R$ 41,8 bilhões, cifra próxima dos R$ 38,9 bilhões gastos em 2014, embora elevada para a realidade orçamentária atual. “É preciso ter em vista que, se esse novo papel do setor privado se consolidar, os recursos das empresas serão fundamentalmente carreados para a pesquisa feita nas próprias empresas, como ocorre em qualquer lugar do mundo”, observa Carlos Américo Pacheco. “E como em média os governos subvencionam cerca de 15% do esforço privado em P&D, provavelmente esse novo patamar de gasto privado iria exigir alocar mais recursos públicos para as empresas.” A capacidade de o setor privado responder a tal desafio é considerada limitada. Indicadores recentes sugerem que os investimentos do setor privado em inovação perderam ímpeto. A atividade inovativa das empresas no Brasil caminha junto com a aquisição de bens de capital, aqueles utilizados para produzir outros bens, como máquinas e equipamentos. O desempenho de um indicador do Instituto Brasileiro de Geografia e Estatística (IBGE) que mede o quanto as empresas aumentaram seus bens de capital, a Formação Bruta de Capital Fixo (FBCF), indica retração. Entre fevereiro de 2016 e fevereiro de 2017, a queda acumulada do FBCF foi de 7,9%. Há problemas estruturais que dificultam alcançar percentuais análogos aos dos países da OCDE. O economista David Kupfer, professor da Universidade Federal do Rio de Janeiro (UFRJ), vê dificuldades em duas frentes. Uma está relacionada à contribuição de cada setor da economia brasileira no esforço de P&D. Kupfer observa que segmentos importantes, como o extrativista ou o da produção de alimentos, exigem investimentos em P&D em patamares relativamente modestos, enquanto setores intensivos em inovação, como o farmacêutico e o eletroeletrônico, têm forte presença de multinacionais que produzem pouco P&D no Brasil, optando por importá-lo das matrizes. “Não se muda esse modelo com facilidade”, afirma.


Outra dificuldade tem a ver com a eficácia restrita dos instrumentos de estímulo à inovação, como leis e políticas de incentivo. “Tais instrumentos não tiveram vigor para incentivar a inovação em empresas e setores tradicionalmente refratários a esse tipo de esforço. E também não conseguiram alavancar a inovação em empresas que já eram inovadoras – em boa medida, os estímulos concedidos pelo governo substituíram investimentos que essas empresas possivelmente já fariam, em vez de multiplicá-los”, afirma. Para Luiz Eugênio Mello, vice-presidente da Associação Nacional de Pesquisa e Desenvolvimento das Empresas Inovadoras (Anpei), o desafio não está exatamente em aumentar o gasto em P&D das empresas, mas em mobilizar segmentos que investem pouco. “A Petrobras é uma das empresas que mais destinam recursos para a ciência no mundo. Mas setores como o farmacêutico investem pouco no Brasil em comparação com o que investem nos Estados Unidos e Europa. O esforço empresarial em P&D não vai mudar sem que esses setores amadureçam”, diz Mello, que é gerente executivo de Inovação e Tecnologia da companhia Vale.

A

qualidade dos gastos em P&D das empresas brasileiras é inferior à observada em outros países. O setor privado do país investe em P&D valores absolutos semelhantes aos das empresas da Espanha, mas obtém um número bem menor de patentes. Um levantamento que comparou patentes concedidas nos Estados Unidos

O protagonismo das empresas O dispêndio empresarial dos países em P&D vai até 3,5% do PIB, enquanto o não empresarial, que inclui os investimentos públicos, raramente passa de 1%

Dispêndio empresarial em P&D (em % do PIB)

4 Israel

3,5

Coreia do Sul

3 Japão 2,5

Taiwan Áustria

2

Finlândia

Diversidade institucional

Suécia

EUA Dinamarca OCDE China Alemanha França Reino Unido Rep. Checa União Europeia Hungria Itália Noruega SP Portugal Estônia Rússia Polônia BRASIL México Grécia Romênia Eslováquia

1,5 1 0,5 0 0

0,20

0,40

0,60

Bélgica

0,80

1,00

Dispêndio não empresarial em P&D (em % do PIB)

mostra que as empresas brasileiras obtiveram 197 registros por ano entre 2011 e 2015, enquanto as espanholas conseguiram uma média de 524 por ano no mesmo período. Para Luiz Mello, há uma baixa intensidade de P&D mesmo entre empresas líderes. Segundo dados compilados pela Anpei, nos anos de 2011 a 2015, as 10 empresas sediadas no Brasil que mais depositaram patentes nos EUA foram Petrobras, Whirlpool, IBM, Embraer, Freescale, Voith, Vale, Natura, Pioneer e Tyco. “Juntas, elas depositaram 392 patentes. Já as 10 mais na Espanha, que foram HP, Airbus, Ericsson, CSIC, Fractus, Gamesa, Vodafone, Laboratórios Dr. Esteve, Intel e Telefonica, depositaram 739 patentes nos Estados Unidos, 88% a mais”, diz Mello. De acordo com ele, a baixa intensidade em P&D é um problema mais grave do que a criticada tendência de as empresas brasileiras produzirem inovações apenas incrementais. “Inovações incrementais servem para reforçar posições de mercado das empresas e aumentar sua lucratividade. Se alcançarmos um volume maior de patentes, haverá em meio a essa massa crítica também inovações disruptivas.” Álvaro Prata afirma que o MCTIC procura alavancar o investimento das empresas em P&D – e vê razões para otimismo. “Temos um setor industrial bem desenvolvido e com grande potencial para crescer”, comenta. Segundo ele, deve ser assinado nas próximas semanas um decreto com 83 artigos regulamentando a Lei nº 13.243, de 2016, que atualizou e aperfeiçoou o arcabouço jurídico para estimular a inovação e a interação entre centros de pesquisa privados e públicos. “O decreto vai dar segurança para que o setor industrial interaja com o mundo científico”, afirma. Há convergência no governo e na comunidade científica de que será necessário encontrar novas fontes de financiamento e tornar mais produtiva a aplicação dos recursos existentes. A SBPC se mobiliza para reforçar investimentos privados em universidades públicas. Outra frente envolve a definição de um marco regulatório para fundos de endowment, voltados a captar doações de ex-alunos e mecenas. Há projetos no Congresso que abrem a possibilidade de instituições públicas manterem endowments com incentivos fiscais para doações.

1,20

Não é um desafio trivial garantir a vitalidade de um sistema de ciência, tecnologia e inovação como o brasileiro, que, nas últimas décadas, se tornou progressivamente mais complexo. O país distanciou-se de um modelo que, até os anos 1960, apoiava projetos individuais de pesquisadores para organizar um sistema de pós-graduação que forma 18 mil doutores por ano e estabelecer uma rede de grupos de pesquisa que triplicou de tamanho desde 2000. “O sistema de financiamento à ciência no Brasil tem uma diversidade institucional que só é PESQUISA FAPESP 256 | 23


encontrada em países desenvolvidos”, observa o economista e ex-deputado federal Marcos Cintra, presidente da Financiadora de Estudos e Projetos (Finep), agência vinculada ao MCTIC. “Com o corte dos investimentos, corremos o risco de pôr todo o esforço a perder. Um país que para de investir em ciência, tecnologia e inovação perde o contato com a fronteira do conhecimento e fica para trás.” Esse universo institucional multifacetado foi moldado por ferramentas e leis que instituíram novos modelos de gestão, incorporaram a dimensão da inovação ao sistema de C&T e buscaram estimular a interação entre universidades e empresas. Um dos destaques foi a criação, no final dos anos 1990, dos Fundos Setoriais de Ciência e Tecnologia, concebidos para superar a instabilidade na oferta de recursos e dinamizar a pesquisa de interesse de setores da economia. Outros marcos foram a Lei de Inovação, de 2004, que autorizou o investimento de recursos públicos em empresas e permitiu que pesquisadores de instituições públicas desempenhassem atividades no setor privado; e a Lei do Bem, de 2005, que estabeleceu incentivos fiscais a P&D e inovação tecnológica.

O

panorama atual sugere que parte desses instrumentos perdeu eficácia. Um exemplo é a situação do Fundo Nacional de Desenvolvimento Científico Tecnológico (FNDCT), principal ferramenta de apoio a projetos de pesquisa do MCTIC. Nos últimos anos, o fundo representou um quinhão de 30% a 40% do orçamento do ministério – o restante foi destinado a despesas de pessoal e manutenção de órgãos da pasta. Pois o FNDCT vem sofrendo vários reveses. O golpe mais recente veio com a queda na arrecadação de impostos. Os Fundos Setoriais de Ciência e Tecnologia, principal fonte dos recursos do FNDCT, arrecadaram R$ 2,9 bilhões em 2016, 11,6% menos que em 2015. Repasses do Tesouro ao FNDCT praticamente cessaram – caíram de R$ 500 milhões há dois anos para apenas R$ 500 mil no ano passado. Há ainda uma terceira fonte que abastece o fundo, que vem da Finep. A agência toma emprestado 25% dos recursos do FNDCT para operações de crédito reembolsável e devolve os recursos quando recebe dos devedores. Em 2016, a Finep depositou R$ 507 milhões no FNDCT, ante R$ 440 milhões no ano anterior. Entre 2013 e 2015, mais de R$ 2 bilhões de recursos do FNDCT financiaram o programa Ciência sem Fronteiras (CsF), embora a formacão de recursos humanos esteja fora dos propósitos do fundo (ver reportagem na página 27). Outro percalço envolveu a mudança nas regras da distribuição de royalties de petróleo, que desfalcou um dos fundos setoriais mais importantes, o CT-Petro, da área de petróleo e gás. O fundo era responsável, até 2012, por quase metade da contribuição dos 24 | junho DE 2017

O que é

FNDCT

Principal ferramenta de apoio à pesquisa do MCTIC, foi criado em 1969 e é abastecido por fontes

Fundo Nacional de Desenvolvimento Científico e Tecnológico

diversas, como a arrecadação dos fundos setoriais de ciência e tecnologia, o pagamento de empréstimos feitos à Finep e recursos do Tesouro

A origem dos recursos As fontes que abasteceram o FNDCT em 2016 e o montante bloqueado pelo governo (em R$ milhões)

2016 3.479,5 2.971,7

507,3

1.613,5 0,5

Fundos

Valor contingenciado

Finep Tesouro TOTAL

fundos setoriais para o FNDCT e deixou de receber a maior parte dessa fonte quando o Congresso regulou a exploração do pré-sal. A perda reduziu o total executado em projetos do CT-Petro de R$ 139 milhões em 2007 para R$ 4,5 milhões em 2016. Mas o principal prejuízo ao FNDCT é provocado pelo bloqueio de recursos. Em 2016, o orçamento do fundo foi definido em R$ 2,6 bilhões, já descontando R$ 900 milhões emprestados à Finep. Desse total, 61%, ou cerca de R$ 1,6 bilhão, foram transferidos para um fundo de reserva, eufemismo para o termo “contingenciamento”. Entre 1999 e 2011, o contingenciamento atingiu 48% do total arrecadado, segundo a Finep, que gerencia o FNDCT. “Isso é muito grave. Parte significativa de recursos destinados à ciência é usada para o governo fazer superávit fiscal”, diz Helena Nader. Dos 16 fundos setoriais, 14 estão vinculados a segmentos da economia como petróleo, energia, saúde, biotecnologia. Cada um deles é abastecido por receitas específicas. O de energia, por exemplo,

Fonte finep


Os destinos do investimento

Projetos dos Fundos Setoriais de Ciência e Tecnologia A evolução dos recursos executados pelos 16 fundos

R$

Como os recursos do FNDCT foram aplicados entre 2010 e 2016

400.000.000

350.000.000

300.000.000

n Infraestrutura n Verde-Amarelo n Petróleo

250.000.000

n Saúde n Agronegócio n Energia elétrica n Recursos hídricos

200.000.000

Operações especiais

n Biotecnologia n Informática

Recursos gerenciados pela Finep que apoiam empresas

n Aeronáutico n Transportes aquaviários

150.000.000

R$ 600.000.000

n Subvenção

n Amazônia

n Equalização de juros

n Setor Mineral n Espacial

n Participação acionária

500.000.000

n Garantia de liquidez

n Transportes

100.000.000

n Inovar-Auto

400.000.000 300.000.000 50.000.000

200.000.000 100.000.000 0

0 2010

2011

2012

2013

2014

2015

2016

recebe entre 0,3% e 0,4% sobre o faturamento de concessionárias do setor elétrico. Também existem dois fundos de caráter transversal: o Verde-Amarelo, voltado para projetos que promovem interação entre universidades e empresas, e o de Infraestrutura, destinado à melhoria da infraestrutura de instituições científicas. Esses se abastecem de uma parcela de 20% dos demais fundos. A ambição original dos fundos era garantir a estabilidade aos investimentos por meio, principalmente, do fomento a projetos de pesquisa nos setores em que os recursos são arrecadados. Diretrizes e planos de investimentos de cada fundo são definidos por comitês gestores, compostos por representantes do governo, do setor e da sociedade. “Os fundos se propunham a inovar na gestão e articular os diversos atores envolvidos na implementação de políticas setoriais”, explica Carlos Américo Pacheco, um dos artífices dos fundos quando foi secretário executivo do então Ministério da Ciência e Tecnologia, entre 1999 e 2002. “Com o tempo, a dimensão setorial perdeu importância

2010

2011

2012

2013

2014

2015

2016

Programas do MCTIC e outras ações Demais destinações de recursos R$

n Ciência sem

1.100.000.000

Fronteiras

1.000.000.000

n Pesquisa e

Desenvolvimento em áreas estratégicas

900.000.000 800.000.000

n Projetos

700.000.000

institucionais de Ciência e Tecnologia

600.000.000

n Programa Nacional

500.000.000

de Inovação em Tecnologia Assistiva

400.000.000

n Promoção

300.000.000

de eventos

200.000.000

n Reator Nuclear

Multipropósito

100.000.000 0

n Plataformas do 2010

2011

2012

2013

2014

2015

2016

conhecimento

PESQUISA FAPESP 256 | 25


com as ações transversais e a realocação de recursos para outros desafios do sistema de ciência e tecnologia.” Os fundos As ações transversais do FNDCT setoriais foram foram ampliadas paulatinamente, contemplando apoio a eventos, a projeusados para tos sem vínculo com as agendas setoriais e a tópicos da política industrial tapar buracos do governo. “O uso do dinheiro dos fundos para suplementar necessidado orçamento, des do sistema federal de C&T esvao que não era ziou o poder dos comitês gestores dos fundos, que passaram a administrar sua função, diz quantias cada vez menores”, observa o bioquímico Hernan Chaimovich, Fernanda de presidente do Conselho Nacional de Desenvolvimento Científico e TecnoNegri, do Ipea lógico (CNPq) entre 2015 e 2016. No ano passado, os comitês gestores não se reuniram nenhuma vez. “Os fundos acabaram servindo para tapar buracos do orçamento do ministério, o que não era sua função original”, completa a economista Fernanda de Negri, do Instituto de Pesquisa Econômica Aplicada (Ipea). Um dos focos do debate sobre o futuro do financiamento público à ciência envolve o aperfeiçoamento dos fundos setoriais. Para Carlos Américo Pacheco, seria necessário consolidar os fundos em um número menor que o atual, já que alguns deles, como o de transportes e o Inovar-Auto, movimentam poucos recursos. “Também é importante identificar receitas novas, além de articular os fundos com as ações e os compromissos das agências reguladoras”, opina.

339.085

A regulamentação do FNDCT em 2007 consolidou e ampliou a utilização, já prevista em leis aprovadas em 2001 e em 2004, de recursos do fundo para instrumentos gerenciados pela Finep, como a oferta de crédito a empresas com equalização de taxas de juros, participação acionária em companhias e subvenção para projetos de instituições científicas e do setor privado. Um vislumbre dos investimentos do FNDCT em 2016 mostra as múltiplas missões que ele cumpre. De um total executado de R$ 1,042 bilhão, R$ 342 milhões destinaram-se a chamadas de projetos definidas pelos comitês dos fundos setoriais. Outros R$ 309 milhões foram utilizados em instrumentos como subvenção econômica, garantia de liquidez a investidores anjos ou equalização de encargos, que dá a empresas inovadoras acesso a recursos com juros baixos. Outros R$ 329 milhões foram destinados a ações transversais e R$ 59 milhões à construção do Reator Nuclear Multipropósito. Apesar dos avanços na década passada, é declinante a utilização dos recursos do FNDCT por empresas. Em 2016, apenas R$ 58,6 milhões foram destinados à subvenção econômica a projetos de desenvolvimento tecnológico – em 2010, esse valor foi de R$ 526 milhões. De acordo com Marcos Cintra, a Finep deve dispor em 2017 de apenas 50% dos recursos com que operava há dois anos e não deve lançar nenhuma nova iniciativa de apoio a instituições de pesquisa e de subvenção econômica a empresas. A redução de investimentos da Finep e do BNDES preocupa as empresas. “Temos a expectativa de que, no segundo semestre, haja uma recomposição do orçamento da Finep, mas isso depende do aumento de receitas tributárias. Se não acontecer, há a esperança de que o BNDES ocupe esse espaço e aumente o fomento à inovação em condições razoáveis”, diz Pedro Wongtschowski, presidente do conselho do Instituto de Estudos para o Desenvolvimento Industrial (Iedi) e vice-presidente do Conselho de Administração da Ultrapar. Os desembolsos do BNDES com inovação passaram de 0,8% do total do investimento do banco em 2010 para 4,4% em 2015. No primeiro semestre de 2016, foram de 3,5%.

Perfil do investimento norte-americano

52.655

Fontes e destinos dos recursos para P&D nos EUA em 2015 (em US$ milhões). Empresas, universidades e laboratórios do governo receberam recursos federais n Agências e laboratórios

Execução

do governo federal

n Governamental

não federal

35.015

n Universidades

Governamental não federal

Fontes  National R&D Patterns/ NSF-2015

Universidades

Outros

1.611

4.069

12.418 1.055

3.752

485 Federal

6.428

17.109

19.512

n Outros

6.105 fontes

Participação dos estados

n Empresas

Empresas

Outro desafio para ampliar o financiamento à ciência relaciona-se à restauração da saúde financeira dos estados. Nos últimos 20 anos, várias unidades da federação criaram fundações de amparo à pesquisa e se comprometeram a investir percentuais da arrecadação de impostos em ciência, tecnologia e inovação. “Até a década de 1990, só 14 estados tinham fundações. Atualmente, só Roraima não tem”, conta Maria Zaira Turchi, presidente da Fundação de Amparo à Pesquisa do Estado de Goiás (Fapeg) e do Conselho Nacional das Fundações Estaduais de Amparo à Pesquisa (Confap). Um


levantamento recente feito pelo Confap estimou em cerca de R$ 2,5 bilhões os recursos investidos em 2016 pelas fundações estaduais. A previsão orçamentária para 2017 atingiria R$ 2,7 bilhões, mas as dificuldades financeiras enfrentadas por vários estados tornam improvável que se alcance esse patamar. O Rio de Janeiro vive uma situação especialmente complicada. Em meio a uma crise financeira em que passou a atrasar o pagamento de salários a funcionários públicos, o governo estadual não tem feito repasses previstos na vinculação à sua fundação estadual de amparo à pesquisa, a Faperj. Em São Paulo, houve diminuição do orçamento dedicado à C&T em decorrência da queda da receita tributária, mas as porcentagens determinadas na Constituição estadual não sofreram alteração. Em anos recentes, as fundações se tornaram um esteio, garantindo recursos a projetos de interesse regional e nacional e firmando parcerias para o cofinanciamento de programas. Um exemplo dessa relação de parceria são os Institutos Nacionais de Ciência e Tecnologia (INCTs), programa conjunto das FAPs e do governo federal. No novo edital dos INCTs de 2014, foram aprovadas 101 redes de pesquisa em 16 estados. “Nos momentos em que os repasses dos recursos das agências federais, sobretudo do CNPq, foram muito reduzidos, os pesquisadores contaram preponderantemente com o financiamento das fundações estaduais”, diz Zaira Turchi. A discussão sobre como melhorar a qualidade dos gastos vem ganhando corpo. “Falta uma política de ciência e tecnologia e de desenvolvimento que indique áreas prioritárias para os investimentos. O Brasil, em vez disso, elaborou longas listas de desejos envolvendo todas as áreas do saber nos últimos 20 anos”, avalia Hernan Chaimovich. “Países que estabeleceram metas e prioridades conseguiram alavancar recursos.” Luiz Eugênio Mello também critica a dificuldade de trabalhar com prioridades. “No Brasil há uma tendência de pulverizar investimentos e atender muita gente ao mesmo tempo. Em certas situações, o país precisa de poucos grupos bem financiados para competir com os melhores do mundo.” Para Fernanda de Negri, do Ipea, a ciência brasileira precisa ser mais ambiciosa. “Em países como os Estados Unidos, o financiamento à pesquisa é tremendamente competitivo, com um componente de avaliação muito forte. Isso ainda é raro no Brasil e deveria mudar se quisermos fazer uma ciência de mais qualidade”, afirma. Embora concorde que é preciso atrair recursos privados, ela ressalta que, em países desenvolvidos, cabe ao Estado patrocinar o quinhão principal do financiamento à ciência. “São investimentos de alto risco e em pesquisa básica, e em lugar nenhum do mundo o setor privado dá conta disso.” n

Experiência encerrada O programa de intercâmbio Ciência sem Fronteiras, que gastou R$ 13,2 bilhões, a maior parte com bolsas de graduação no exterior, deixa de existir

O

Ministério da Educação (MEC) anunciou em abril o fim do programa Ciência sem Fronteiras (CsF), que concedeu entre 2011 e 2016 quase 104 mil bolsas, sendo 78,9 mil delas de graduação sanduíche no exterior. O ministério seguirá financiando bolsas em universidades e instituições de pesquisa do exterior para estudantes de pós-graduação e estagiários de pós-doutorado, por meio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes). Dados compilados pela Capes mostram que, entre 2011 e 2017, o Ciência sem Fronteiras investiu R$ 13,2 bilhões, montante que deve se aproximar dos R$ 15 bilhões até 2020, quando se encerrarem todas as bolsas vigentes. Para se ter uma dimensão, a cifra de R$ 13,2 bilhões é mais de 15 vezes maior do que o orçamento empenhado do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) em 2016. Apresentado pelo governo federal como uma estratégia para internacionalizar a ciência brasileira, o CsF, a princípio, foi bem recebido por setores da comunidade científica, diante da promessa de que haveria dinheiro novo para financiá-lo. Mas isso não aconteceu. Na prática, o programa acabou absorvendo parcela importante do orçamento federal aplicado em educação, ciência, tecnologia e inovação – em 2015, foi responsável por 50% do orçamento da Capes, empregando 75% dos recursos do Programa de Apoio à Pós-graduação (Proap) e do Programa de Excelência Acadêmica (Proex). “O momento em que havia mais bolsistas no exterior coincidiu com uma alta do dólar, que chegou a R$ 4. Foi preciso encontrar recursos para não deixar de pagar as despesas com os estudantes”, diz Concepta McManus Pimentel, diretora de Relações Internacionais da Capes. PESQUISA FAPESP 256 | 27


O tamanho exagerado do programa tornou-o inviável, diz Marcelo Knobel, da Unicamp

A partir de 2013, o CsF passou a ser abastecido, além de recursos do MEC, do MCTIC, da Capes e do CNPq, com dinheiro do Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT), principal mecanismo de financiamento à pesquisa do MCTIC. “Houve desvio de finalidade, pois o FNDCT não tem entre suas missões financiar a formação de alunos de graduação”, diz o físico Luiz Davidovich, presidente da Academia Brasileira de Ciências (ABC). Em 2013, o CsF recebeu R$ 309 milhões dos R$ 3 bilhões executados pelo FNDCT. Já em 2014, houve um salto: o programa absorveu R$ 1 bilhão dos R$ 2,8 bilhões do fundo. Em 2015, manteve-se a mesma proporção: R$ 751 milhões para o CsF de um total executado do FNDCT de R$ 1,8 bilhão. Em 2016, a transferência de recursos para o CsF estancou. “O CsF canalizou para formação de estudantes recursos que fizeram muita falta ao sistema de ciência e tecnologia”, resume Hernan Chaimovich, presidente do CNPq entre 2015 e 2016. Segundo dados da Capes, que coordenou o programa em parceria com o CNPq, as bolsas consumiram R$ 6,3 bilhões e outros R$ 5,8 bilhões foram pagos em faturas a universidades estrangeiras que receberam os estudantes brasileiros entre 2012 e 2016. “Pagamos quantias astronômicas em dólar a universidades estrangeiras sem que se fizesse uma avaliação do impacto desse investimento”, diz a presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC), Helena Nader. “Internacionalizar a ciência requer uma estratégia elaborada e de longo prazo e em nenhum país do mundo se baseia só em mandar alunos de graduação para o exterior.” Uma controvérsia do programa envolveu a falta de proficiência em língua estrangeira dos candidatos, o que levou o CsF a despender R$ 976 milhões com cursos de idiomas para estudantes, ministrados um pouco antes e durante a vigência das bolsas. Em 2013, o governo chegou a vetar bolsas para alunos de graduação em universidades de Portugal, bastante procuradas por não exigir o domínio de um segundo idioma. Em março de 2014, 80 bolsistas no Canadá e 30 da Austrália foram excluídos do programa e tiveram de retornar ao Brasil por falta de proficiência em inglês. Os países que mais receberam bolsistas brasileiros foram Estados Uni28 | junho DE 2017

dos (27,8 mil), Reino Unido (10,7 mil), Canadá (7,3 mil), França (7,2 mil) e Austrália (7 mil). Para Luiz Davidovich, o programa foi mal dimensionado. “Ao estabelecer uma meta de 100 mil bolsas, o programa a certa altura enviou estudantes para universidades no exterior de qualidade inferior à das que eles estudavam no Brasil”, afirma.

E

studantes que participaram do CsF defendem seu legado e sua continuidade. “Conheço inúmeros casos positivos entre os estudantes que fizeram estágio no exterior e tenho certeza de que, no longo prazo, o impacto do programa vai ficar claro”, diz Guilherme Rosso, cofundador da rede de bolsistas e ex-bolsistas do Ciência sem Fronteiras (Rede CsF). Então aluno de graduação da Universidade Federal do Rio Grande do Norte, ele participou da primeira chamada do programa em 2012, quando passou uma temporada na Clark University e no Worcester Polytechnic Institute (WPI), ambas em Massachusetts. “Investir na mobilidade de estudantes de graduação é importante para a ciência brasileira. O programa merecia ser aperfeiçoado e até poderia diminuir de tamanho, mas deveria seguir enviando alunos de graduação para o exterior, que ajudam a formar laços da ciência brasileira com instituições estrangeiras”, afirma. Rosso reconhece que o crescimento do programa se deu de uma forma pouco planejada. “Na primeira chamada, da qual eu participei, foram selecionados estudantes que cumpriram todos os requisitos exigidos na época, que incluíam ter feito iniciação científica, ter proficiência em uma língua estrangeira, não ter reprovação no histórico escolar e apresentar cartas de recomendação. E a meta desses bolsistas era aperfeiçoar a formação acadêmica e profissional. Mas, depois do segundo edital, a régua baixou um pouco para incluir um grupo maior de alunos e o interesse dos estudantes era ter uma vivência internacional e adquirir proficiência em um idioma”, exemplifica. Um artigo publicado em maio nos Anais da Academia Brasileira de Ciências mostrou resultados preliminares do CsF – e um dos dados positivos está relacionado à primeira leva de bolsistas do programa, da qual Rosso fez parte. Nesse grupo, o único para o qual já há dados completos disponíveis, mais de 20% dos alunos matricularam-se posteriormente em programas de mestrado e doutorado, ante uma média de 5% dos demais estudantes. O estudo, assinado pela diretora Concepta McManus e pelo ex-presidente da Capes Carlos Nobre, contraria a ideia de que o programa atendia só estudantes de elite: 52% dos bolsistas que responderam a um questionário da Capes vinham de famílias com renda de até seis salários mínimos. Em 2011, o físico Marcelo Knobel, atual reitor da Unicamp, escreveu um artigo na revista In-


O custo do Ciência sem Fronteiras Como os recursos foram investidos (em R$) Curso de idiomas

Total

13.231.760.718,20

(antes e durante a bolsa)

Faturas pagas a universidades parceiras

Bolsas de graduação e pós-graduação

976.441.045,74

5.872.259.854,40

6.383.059.818,07

Os valores empenhados por ano (em R$) 2011 2012

107.761.243,64 745.060.032,29 2.057.755.641,67

2013

3.603.432.243,15

2014

5.060.761.152,66

2015 2016 2017*

1.524.725.534,61 132.264.870,18

*Valores pagos até 30/05/2017

Distribuição de bolsas do CsF por modalidade até agosto de 2016 Bolsas concedidas Graduação sanduíche no exterior

Custo médio por bolsista* Total R$ milhões

78.980

R$ 131 mil

80,3%

10.346,3

Doutorado sanduíche no exterior

11.684

R$ 46 mil

537,4

4,2%

Pós-doutorado no exterior

6.243

R$ 84 mil

524,4

4,1%

Doutorado pleno no exterior

3.365

R$ 321 mil

1.080,1

Pesquisador visitante

2.025

R$ 45 mil

91

0,7%

Atração Jovens Talentos

946

R$ 132 mil

124,8

0,9%

Mestrado profissional no exterior

599

R$ 304 mil

182

1,4%

ternational Higher Education, do Boston College, Estados Unidos, em que apontava a dificuldade de reunir um contingente de estudantes capacitados e bilíngues para aproveitar a experiência de passar uma temporada numa universidade estrangeira de classe mundial. Também criticava o desinteresse do governo em celebrar parcerias de longo prazo com universidades estrangeiras e em estimulá-las a enviar estudantes para o Brasil. “Infelizmente, a maioria dessas previsões se confirmou”, aponta Knobel. “É importante que estudantes de graduação possam ir para universidades estrangeiras, mas o tamanho exagerado do programa e seus problemas de organização parecem tê-lo inviabilizado. E, como não houve avaliação dos resultados, não se sabe até que ponto rendeu benefícios.”

8,4% * Inclui o pagamento de bolsas e de taxas acadêmicas (tuition) Fontes  CNPq e Capes

A Capes prepara para o segundo semestre o lançamento do programa que vai suceder o Ciência sem Fronteiras. A ideia é que cada universidade identifique suas principais competências e a possibilidade de aperfeiçoá-las por meio de colaborações com instituições do exterior. A agência vai apoiar a construção de redes de cooperação, financiando atividades de pós-graduação e bolsas no exterior para pesquisadores e estudantes que estejam vinculadas aos objetivos de cada instituição. “Estamos propondo que o foco seja a internacionalização das universidades e não o pagamento de serviços a instituições estrangeiras. Bolsas para alunos de graduação serão apenas uma parte dessa estratégia”, diz Concepta McManus, da Capes. n PESQUISA FAPESP 256 | 29


30 | junho DE 2017

foto  Brigitte Lacombe


entrevista Thaisa Storchi Bergmann

No entorno dos

buracos negros Astrofísica gaúcha se dedica há mais de 30 anos a entender como se alimentam esses enormes sugadores de matéria Marcos Pivetta

idade 61 anos especialidade Astrofísica extragaláctica, com destaque para o estudo de buracos negros supermassivos formação Graduação em física pela UFRGS (1977), mestrado em física pela PUC-Rio (1980) e doutorado em física pela UFRGS (1987) instituição UFRGS produção científica 140 artigos publicados, orientação de 15 alunos de mestrado e 14 de doutorado

P

or influência de uma prima, a astrofísica Thaisa Storchi Bergmann, gaúcha nascida em Caxias do Sul, quase virou arquiteta. Seguindo os passos da parente, fez um semestre do curso na Universidade Federal do Rio Grande do Sul (UFRGS) em 1974, mas trocou-o rapida­mente pela graduação em física. A hoje professora titular do Instituto de Física da UFRGS é uma das mais respeitadas especialistas em buracos negros supermassivos. A expressão designa regiões do espaço extremamente compactas, situadas no centro da maior parte das galáxias conhecidas, onde a gravidade é tão forte que nada lhe escapa, nem a luz. A massa dessas megaestruturas que sugam a matéria ao seu redor pode ser milhões ou bilhões de vezes maior do que a dos buracos negros estelares, em torno dos quais o experimento Ligo (Observatório Interferométrico de Ondas Gravitacionais) confirmou no ano passado a existência das ondas gravitacionais previstas por Albert Einstein (ver reportagem à pagina 60 com novos resultados desse projeto). Thaisa tornou-se conhecida internacionalmente em sua área quando publicou um estudo em 1993 no qual fornecia indícios indiretos de que havia um buraco negro supermassivo em atividade no centro da galáxia NGC 1097. Essa galáxia é do tipo Liner. Seu núcleo é ativo: emite uma radiação cuja natureza não pode ser atribuída a estrelas, mas à captura de matéria por um buraco negro. Mas, diferentemente da maior parte das galáxias ativas, as do tipo Liner apresentam baixa luminosidade e emitem gás pouco ionizado (os átomos de oxigênio e nitrogênio perderam poucos elétrons). No artigo, a pesquisadora relatava PESQUISA FAPESP 256 | 31


evidências da presença de uma nuvem achatada, com um formato anelar, composta de plasma (prótons e elétrons) e hidrogênio girando a 10 mil quilômetros por segundo (km/s) em volta de um ponto central da NGC 1097. No jargão dos astrofísicos, a nuvem é denominada disco de acreção de matéria. “Para uma nuvem de gás girar a essa velocidade em torno de um ponto de uma galáxia, a única explicação é a existência de um buraco negro”, esclarece a astrofísica. Até então, só havia indícios da presença desses fenômenos ao redor de radiogaláxias, que são muito mais ativas do que as galáxias do tipo Liner. Em 2015, Thaisa foi uma das cinco vencedoras do prêmio internacional L’Oréal-Unesco para Mulheres na Ciência. A honraria tornou-a mais conhecida fora dos círculos da astrofísica. “Até os amigos e membros da família se deram conta da importância do meu trabalho”, reconhece. Nesta entrevista, a astrofísica, que é casada e tem três filhos, fala de suas pesquisas e trajetória. O seu artigo mais citado sobre buracos negros é de 1993. Qual a sua importância? O trabalho teve bastante repercussão por que se tratou de uma descoberta. Foi a primeira vez que se encontrou indícios da presença de um disco de acreção de matéria girando em torno de um núcleo de galáxia do tipo Liner. A existência desse disco é uma evidência de que esse tipo de galáxia, que é pouco luminosa e menos ativa do que as radiogaláxias, tem um buraco negro supermassivo no seu núcleo. Encontrei no espectro de emissão da NGC 1097, no conjunto de frequências da radiação eletromagnética emanada pelo núcleo dessa galáxia, um perfil específico de energia que só é produzido pelos átomos de hidrogênio quando associados à presença de um disco de acreção. Esse perfil, que denominamos tecnicamente de duplo pico nas emissões das linhas de energia H-alfa e H-beta, havia sido detectado antes apenas em quasares e radiogaláxias, objetos bem mais ativos do que as galáxias Liner. Naquela época, os astrofísicos achavam que somente objetos com núcleos muito ativos, como as radiogaláxias, tinham um buraco negro em seu centro. Hoje, aceitamos a ideia de que a maioria das galáxias, inclusive a Via Láctea, que não apresenta um núcleo ativo, tem um buraco negro. 32 | junho DE 2017

Aceitamos hoje a ideia de que a maioria das galáxias, inclusive a Via Láctea, tem um buraco negro

Como você se interessou pela galáxia NGC 1097? Eu já tinha terminado em 1991 meu primeiro pós-doutorado, sob a supervisão de Andrew Wilson, da Universidade de Maryland, nos Estados Unidos, mas ainda havia alguns projetos a serem feitos no Observatório Interamericano de Cerro Tololo, no Chile. Na época, o Tololo tinha um dos maiores telescópios do mundo, com um espelho com diâmetro de 4 metros (m). O Wilson estudava um conjunto de galáxias ativas que tinha anéis de gás em torno do núcleo. Ele até me provocava. Dizia que as mulheres adoravam anéis. Por isso, iríamos estudar galáxias com anéis. Estudávamos o movimento do gás do anel nessas galáxias com técnicas de espectroscopia [método para medir os comprimentos de onda da radiação eletromagnética emitida por objetos celestes, a partir dos quais os astrofísicos inferem propriedades desses corpos, como temperatura, constituição química e massa]. Queríamos ver qual era a dinâmica do gás no anel. Parecia que ele girava mais rápido. Também queríamos investigar se havia evidências de que o gás se transferia do anel e alimentava o núcleo ativo da galáxia.

Qual a ligação desse padrão de emissão energética com o anel de gás? O duplo pico é a assinatura espectral do gás girando, ou seja, da presença de um disco ou anel de gás em movimento. Em variáveis cataclísmicas [sistemas de brilho variável com duas estrelas muito próximas em que a menor cede matéria para a maior], também se registra esse duplo pico. Mas as velocidades que obtivemos na NGC 1097 eram da ordem de 10 mil km/s. Só a presença de um buraco negro supermassivo levaria uma nuvem de gás a girar a essa velocidade em torno de um ponto de uma galáxia. Ninguém havia estudado essa galáxia antes? Naquela época, estava surgindo o conceito dos Liners, galáxias de baixíssima atividade, com uma fraca emissão iônica. A NGC 1097 já tinha sido observada por um astrofísico norte-americano, Mark Phillips, que trabalhava no Cerro Tololo em 1985, mas ele não tinha visto esse perfil de pico duplo. As radiogaláxias eram mais poderosas, com emissão de jatos em ondas de raios e raios X, e a única forma de explicar esse nível de atividade era a presença de buraco negro. Nas galáxias do tipo Liner, não havia essa certeza. Elas têm linhas de emissão mais fracas e não é óbvio que precisam de um buraco negro para explicar esse grau de atividade. Agora que observo essa galáxia há mais de 30 anos sei que tive a sorte de registrar um fenômeno transiente [transitório] e não frequente. Algo levou a galáxia a formar esse disco de acreção. Uma nuvem de gás ou uma estrela foi capturada pela galáxia e tive a sorte de ver essa assinatura do gás girando ao redor do buraco negro antes de cair dentro dele. Então nem sempre o disco de acreção pode ser observado em torno dessa galáxia? A atividade nuclear ocorre quando há material para alimentar o buraco negro. Nesse caso, forma-se um disco de acreção que esquenta. O paradigma atual é que qualquer nível de atividade nuclear, baixo ou elevado, resulta da captura de matéria. Nas galáxias do tipo Liner, pouco luminosas, pouca matéria é capturada. Nos quasares, há muita captura de gás, pois eles se formaram numa época em que havia muito gás disponível. Nesse último caso, surge um disco de acreção maior e mais luminoso. Desde então, monitoro e


Stephane Cardinale / People Avenue

Sul. No segundo grau, fui para um colégio público estadual. Foi quando me interessei mais profundamente por ciência e pedi de presente um microscópio e montei um laboratório de química. Meu pai comprou um microscópio bem potente e montou um laboratório no sótão de casa, essencialmente uma mesinha de trabalho e prateleiras onde eu colocava o microscópio e algumas soluções químicas. Para mim, ser cientista era mexer com os tubos de ensaio, fazer reações. Eu tinha até uma parceira no laboratório, a Vera, uma colega de escola. Tínhamos aula de manhã e, à tarde, nos reuníamos às vezes para fazer algum trabalho da escola e ficávamos brincando no laboratório.

Cartaz em Paris com foto de Thaisa em 2015: reconhecimento por sua contribuição à ciência

vejo o disco de acreção mudar na NGC 1097 e mais recentemente também em outras galáxias. O disco “apaga” e “acende”. Dois ou três anos mais tarde depois desse meu primeiro artigo, vários pesquisadores com acesso ao telescópio espacial Hubble publicaram papers sobre Liners com perfil de duplo pico. É difícil registrar esse perfil a partir de telescópios terrestres, pois é preciso separar o que é emissão das estrelas e o que é da nuvem de gás. Para isso, é preciso a melhor qualidade de imagem possível, como a do Hubble, que está acima da atmosfera da Terra. Que outras contribuições relevantes você destacaria em sua produção científica? Há dois trabalhos de que participei, sem ser a principal autora, que são inclusive muito mais citados do que os meus estudos com discos de acreção de buracos negros. Um deles foi em 1994 com a Daniela Calzetti, da Universidade de Massachusetts, e Anne Kinney, que, na época, trabalhava no Instituto de Ciência do Telescópio Espacial e agora está no Observatório Keck, no Havaí. Eu fiz as observações ópticas nos telescópios do Cerro Tololo que foram usadas em um atlas espectroscópico de galáxias em que elas compilaram dados no ultravioleta do satélite International Ultraviolet Explorer (IUE), então o melhor para esse tipo de observação antes do Hubble. O ultravioleta é importante para estudar a emissão de estrelas jovens, com menos de alguns

milhões de anos. Juntando as observações ópticas e no ultravioleta, construímos templates, espectros médios, para diferentes tipos de galáxias. Esses templates são empregados até hoje em vários observatórios do mundo. São usados para calcular quanto tempo de observação é necessário para obter um desejado espectro de uma galáxia. Por isso, são utilizados na confecção de propostas de observação enviadas aos observatórios. E o outro trabalho? Daniela Calzetti havia trabalhado com poeira interestelar em sua tese e tivemos a ideia de estudar a poeira nas galáxias do nosso atlas a partir das linhas de emissão dos espectros. A poeira extingue a luz das estrelas, mas de forma seletiva. Atenua mais o azul do que o vermelho. Um espectro sem poeira é o mais azul de todos. Criamos então um método alternativo aos que já existiam para estudar a atenuação produzida pela poeira: uma lei que calcula e corrige o espectro pelo efeito da poeira captada nos espectros das galáxias do tipo Starburst, que apresentam intensa formação de estrelas. Temos mais de mil citações deste paper em que colaborei com a Daniela. Como você se interessou por ciência? Gostava de ciência desde pequena. Era aquela aluna bem aplicada que tirava notas boas. Comecei estudando em uma escola privada, de freiras, em Caxias do

Seus pais trabalhavam com o quê? Meu pai fez um curso de contabilidade e era sócio de uma madeireira que fabricava engradados de madeira e, mais tarde, de plástico para bebidas. Minha mãe era professora primária. Gostava bastante de ler, mas não se interessava por ciência. O interesse foi apenas meu. Talvez eu tenha tido bons professores que me estimularam. O interesse específico pela astrofísica surgiu quando? Quando fiz uma disciplina chamada Física para arquitetos no primeiro semestre da faculdade em 1974, quando comecei a cursar arquitetura na UFRGS. Tinha uma prima, dois anos mais velha do que eu, que era fissurada por essa área. Acabei comprando a ideia dela, fiz o vestibular e passei. Quando começaram as aulas, vi que aquilo não era meu sonho. Naquela época, o instituto de física era lá no centro de Porto Alegre, pertinho da faculdade de arquitetura. Tínhamos aulas de física no próprio instituto. Olhava as pessoas no laboratório e me dei conta de que eu gostava mesmo era de pesquisa. No fim do primeiro semestre pedi transferência para a física. Foi só pedir e transferiram? Naquela época era assim. Precisava encontrar alguém do curso que se queria frequentar disposto a assumir a sua vaga. Apareceram cinco interessados em ir para a arquitetura. Era mais fácil entrar na física do que na arquitetura. Fizeram um sorteio para decidir quem ficaria com a minha vaga. No segundo semestre de 1974, virei aluna da física. Formei-me em 1977. PESQUISA FAPESP 256 | 33


Em 1987, Miriani Pastoriza e Thaisa (à dir.) observaram a rara explosão de uma supernova no Chile e saíram no New York Times

Havia um departamento ou curso de astrofísica no instituto? Havia o professor Edemundo da Rocha Vieira, que era interessado em astrofísica, com doutorado em radioastronomia na Argentina. Ele era muito ativo e o instituto, para se estabelecer como tal, precisava de mais um departamento. Tinha o departamento de física e o Edemundo criou o de astronomia em 1971. Os primeiros professores contratados foram dois argentinos, a Zulema Abraham [hoje na Universidade de São Paulo] e o Federico Strauss. O Edemundo trouxe depois, em 1978, como professora visitante, a Miriani Pastoriza, de Córdoba, que teve aqui um importante papel. Ela foi uma das primeiras mulheres latino-americanas a fazer pesquisa em astrofísica. Antes da construção dos observatórios norte-americanos no Chile, o de Córdoba tinha o maior telescópio da América do Sul. A Miriani, hoje professora emérita do departamento, descobriu e caracterizou com seu orientador de doutorado, J. L. Sérsic, um tipo de galáxia espiral, com regiões de formação estelar em torno do centro. Essas galáxias, com núcleos peculiares, são hoje chamadas de Sersic-Pastoriza. Para resumir a história, o Edemundo veio também atrás de mim e do Kepler de Oliveira, meu colega no curso de física e hoje professor no departamento. Éramos os melhores alunos da turma e o Edemundo queria que fizéssemos pesquisa em astrofísica. 34 | junho DE 2017

Você começou o mestrado logo após a graduação? Terminei a graduação, casei e meu marido, que é engenheiro químico, foi fazer mestrado no Rio de Janeiro. Fui então atrás de um mestrado na área de astrofísica no Rio. Fiquei dois anos lá, 1978 e 1979, e depois voltei para a UFRGS. Fiz mestrado na PUC-Rio e no Observatório Nacional com o astrônomo norte-americano William Kunkel, que veio participar do processo de implantação do Laboratório Nacional de Astrofísica (LNA). Já se interessava por buracos negros? Ainda não. No mestrado, sob orientação de Kunkel, fiz um trabalho meio matemático, com dados que ele já tinha de um sistema de filtros fotométricos para medir a radiação de estrelas. Perto do fim da dissertação, ele me disse que, se eu tivesse a oportunidade, deveria estudar as galáxias, algo que dizia ser mais fascinante. Fiquei com aquilo na cabeça. De volta a Porto Alegre, falei com a Miriani, uma pessoa sempre cheia de ideias. Tentamos até observar galáxias no telescópio do LNA, mas ele não tinha espectrógrafo na época. A Miriani tinha feito um pós-doutorado nos Estados Unidos e conhecia o diretor do Cerro Tololo. Mandamos uma carta para ele pedindo um tempo de observação para nosso trabalho com galáxias. Não sabíamos se seríamos aceitas porque o Cerro Tololo era para uso apenas dos norte-

-americanos. Ele aceitou, mas pediu que fizéssemos um projeto para observações no telescópio pequeno do observatório, com espelho de 1 m. Nesse período, comecei a fazer espetroscopia de galáxias para o meu doutorado. A Miriani se interessava por galáxias ativas. Escolhemos uma amostra desse tipo de galáxia e usamos os espectros obtidos no Cerro Tololo. Estudei a abundância química e as condições físicas da região central delas. Cheguei à conclusão de que elas tinham um excesso de abundância de nitrogênio e de quase todos os elementos pesados no núcleo. O que esse excesso quer dizer? Queríamos ver o que havia de particular nessas galáxias. O Sol é a nossa referência. Nele, há 70% de hidrogênio, 26% de hélio e 4% de elementos químicos mais pesados que hidrogênio e hélio. Nós, astrofísicos, chamamos de “metal” todos os elementos mais pesados do que o hidrogênio e o hélio, como carbono, oxigênio e nitrogênio. Esses metais são sintetizados no interior das estrelas. Quanto mais gerações de estrelas houver em uma galáxia, mais enriquecidos, mais abundantes, são esses metais. Comparado com o Sol, o centro das galáxias ativas era mais evoluído, ou seja, passou por maior processamento químico. Naquela época, como não sabíamos o que a atividade nuclear nas galáxias significava, tentávamos estabelecer uma relação desse parâmetro com a abundância química. Hoje, acreditamos que, independentemente de uma galáxia ser ativa ou não, seu núcleo apresenta abundância química mais alta do que a do Sol. Isso se deve porque o Sol não está bem no meio da Via Láctea. Ele está mais para fora do seu núcleo. Há, portanto, um gradiente de metalicidade entre as distintas regiões de uma galáxia. Fomos três vezes observar no Chile. Na última delas, ocorreu um fenômeno astrofísico raro. O que aconteceu? Em fevereiro de 1987, um dia antes de termos chegado na montanha, explodiu a supernova 1987A, distante cerca de 170 mil anos-luz da Terra. Desde o século XVI, não havia registro da explosão de uma supernova tão próxima da Terra. Um astrônomo canadense Ian Shelton estava no Observatório de Las Campanas, não muito longe do Cerro Tololo [cerca de 240 quilômetros de distância],


revelando placas fotográficas tiradas da Nuvem de Magalhães, boas de serem observadas no fim da noite. Quando ele revelou as placas, já com o dia amanhecendo, viu que havia uma bola nas imagens. Ele saiu correndo do laboratório e foi para rua. Ele sabia que, se a bola fosse decorrência da explosão de uma estrela, ele seria capaz de enxergá-la a olho nu. E realmente conseguiu. O que a Miriani e você tiveram a ver com essa história? A notícia da explosão da supernova se espalhou rapidamente. Na noite seguinte, já havia repórteres e astrofísicos dos Estados Unidos no Chile para observar o fenômeno. Quando estávamos nos preparando para subir o Cerro Tololo e iniciar nossas observações, fomos avisadas de que o telescópio de 1 m que iríamos usar era o melhor para observar a supernova. A estrela era tão brilhante que não fazia sentido usar o telescópio de 4 m, mais indicado para observar objetos menos luminosos. Então, toda noite, durante uma semana, eu tinha de observar primeiro a supernova por cerca de três horas e só depois as minhas galáxias. Foi muito legal. Fomos entrevistadas e saímos até no New York Times. O repórter ficou espantando de ver duas mulheres fazendo astrofísica numa montanha do Chile. Às vezes, a carreira das mulheres na ciência demora um pouco mais para avançar. Você diria que esse foi também o seu caso? Aconteceu comigo. Tive logo dois filhos, dava aulas na universidade e fazia doutorado ao mesmo tempo. Comecei o doutorado em 1981 com a Miriani e só fui defender a tese em 1987. Foi uma época complicada. Por mais que os maridos sejam teoricamente parceiros na criação das crianças, quando um filho fica doente, sobra sempre para a mãe. Há um acordo meio tácito nesse sentido. Meu marido viajava muito. Ainda bem que eu tinha uma condição financeira razoável para contratar ajuda e tive também apoio da minha mãe, que já estava aposentada, com as crianças naquele período. Quando terminei o doutorado, meus filhos tinham 5 e 6 anos. A situação da mulher pesquisadora mudou muito na astrofísica ao longo das últimas décadas?

Vejo mais mulheres agora nos congressos de astrofísica, mas poucas em posições de chefia nos institutos

Mudou menos do que eu gostaria. Nos congressos internacionais, vejo bem mais mulheres agora, mas, em posições de chefia nos institutos, há ainda muito poucas. Sempre me senti respeitada e bem tratada. Acho até que tive mais atenção por ser mulher. Não digo que não tenha sido alvo de preconceito em algum momento. De forma velada, isso sempre ocorre. Mas meus colegas do exterior sempre tiveram curiosidade por eu ser mulher e do Brasil. Acho que ainda hoje a maior dificuldade para a mulher é conciliar a carreira e a criação dos filhos. Ainda lembro bem de uma situação bastante complicada por que passei. Fiz em 1997 um pedido de tempo de observação no telescópio de 4 m do Cerro Tololo com o Andrew Wilson. Não sabia que estava grávida de quatro meses do meu terceiro filho quando mandei a proposta. Ela foi aceita e, quando chegou a hora de ir para o Chile, estava amamentando. Logo me informaram que eu não poderia ficar no observatório com um bebê. Os astrofísicos observam de noite e dormem de dia. Um bebê no

alojamento iria atrapalhar o sono deles. Mas eu queria muito ir. Insisti tanto que arrumaram uma casa perto do observatório, que fora usada por antigos engenheiros que trabalharam no projeto do observatório. Tive de levar uma babá para ajudar. Eles me chamavam no observatório quando o bebê chorava e eu descia para amamentá-lo. Ter ganho o prêmio da L´Oréal em 2015 mudou algo em sua vida? Este é um prêmio também da Unesco, mas meus colegas da ciência deram uma importância moderada ao fato. Mas a repercussão fora do meio científico foi enorme. Não passa uma semana sem que eu receba algum pedido para palestra ou entrevista. Tenho de recusar algumas solicitações por falta de tempo. Até os amigos e familiares passaram a ver o trabalho da gente de outra forma. Quando estive em Paris para receber o prêmio com dois dos meus filhos, percebi o orgulho que eles sentiram quando viram aqueles cartazes enormes com a foto da mãe no aeroporto e em outros pontos da cidade. Olhando em retrospecto, talvez eu não fizesse hoje tudo que fiz no passado. Mas, se não tivesse feito, também não teria obtido o reconhecimento que tive. Acho que deixei até de vivenciar algumas coisas com os filhos de tanto que me envolvi com minha carreira. Acho que até exagerei um pouquinho. Pegava todos os projetos que me ofereciam. Poderia ter feito um pouquinho menos, com mais calma. Que pesquisas você faz atualmente? Continuo estudando discos de acreção em galáxias com buracos negros. Uso muito os telescópios Gemini, de cujo board faço agora parte, para o estudo de fluxos de gás para dentro e para fora do entorno de buracos negros supermassivos. Também estou fazendo um trabalho com dados do Hubble. Tenho uma colaboração com um pesquisador do Chile para usar o radiotelescópio Alma (Atacama Large Millimeter/submillimeter Array) para estudar a captura de matéria pelo disco de acreção em galáxias ativas. Ainda participo do processo de seleção de projetos para o Alma e colaboro ainda com o Mapping Nearby Galaxies at APO (MaNGA), um levantamento do espectro de 10 mil galáxias que faz parte do Sloan Digital Sky Survey. n PESQUISA FAPESP 256 | 35


política c&T  Inovação y

Razões para

conceder estímulos FMI e OCDE sugerem que governos deem incentivos fiscais para impulsionar a pesquisa em empresas

A

concessão de incentivos fiscais na forma de redução de impostos para empresas que investem em pesquisa e desenvolvimento (P&D) ganhou fôlego na última década. Na França e no Japão, por exemplo, esse tipo de apoio representa mais de 70% do conjunto de instrumentos utilizados pelos governos para financiar atividades de inovação no setor privado. No início da década de 2000, a proporção era de 20%, segundo dados da Organização para Cooperação e Desenvolvimento Econômico (OCDE), que reúne alguns dos países mais industrializados do mundo. Difundido em países como Brasil e África do Sul, o modelo tornou-se objeto recentemente de estudos da OCDE e do Fundo Monetário Internacional (FMI). Embora muitas vezes tidas como mais ortodoxas, ambas as organizações reconheceram o papel do Estado no financiamento da

36  z  Junho DE 2017

pesquisa em universidades e em empresas. “Em grande medida, o futuro crescimento econômico deve resultar da melhoria da produtividade. Isso coloca a discussão sobre as políticas governamentais de apoio à inovação no centro do debate político”, disse à Pesquisa FAPESP o economista Ruud de Mooij, chefe da divisão de política tributária do FMI. Em março, ele publicou um artigo na revista Finance & Development em que discute o impacto e a eficácia de políticas fiscais e faz recomendações a autoridades e tomadores de decisão com base no relatório Monitor Fiscal, divulgado pelo FMI no ano passado. Mooij enfatiza que muitas empresas gastam pouco em P&D porque sabem que esses investimentos produzem benefícios não apenas para elas. “A criação do conhecimento transborda e beneficia outras firmas além da que foi responsável pelo investimento”, avalia.

lustraçãO Katie Edwards /Getty images

Bruno de Pierro


O FMI sugere que incentivos sejam direcionados para empresas nascentes de base tecnológica, as startups, contrariamente ao que acontece em muitos países, que dão vantagens a pequenas empresas já estabelecidas. “A ideia é que uma taxação menor poderia encorajar atividades de inovação nas pequenas empresas, mas na prática nem sempre isso acontece”, observou o economista. “A empresa pequena pode considerar pouco atrativo se tornar grande ao perceber que talvez perca os benefícios fiscais.” Segundo Mooij, há estudos mostrando que muitas empresas de pequeno porte param de crescer ao atingir um nível de rendimento que ainda as permita pleitear incentivos fiscais. Essa situação é menos frequente no caso de startups. Mooij defende a ideia de que, ao concentrar o apoio a empresas nascentes, é mais fácil garantir que os incentivos fiscais tenham caráter temporário. Países como Chile e França, segundo ele, adotaram políticas fiscais seguindo essa mentalidade. No relatório Fiscal incentives for R&D and innovation in a diverse world, divulgado no ano passado, a OCDE também sustenta a necessidade de oferecer incentivos fiscais a startups que precisam de capital para investir em novas tecnologias. A organização alerta, porém, que os incentivos fiscais devem ser compreendidos como parte de um arsenal de opções para promover P&D no setor privado e que cabe aos tomadores de decisão avaliar a solução adequada à realidade local. Nos Estados Unidos, por exemplo, há muito apoio direto a empresas por meio de compras governamentais. Na Europa, usam-se mais incentivos fiscais – na Alemanha, inclusive, ainda que em escala menor. Uma outra recomendação do FMI é que economias emergentes deixem de oferecer benefícios pESQUISA FAPESP 256  z  37


tributários para instalação de multinacionais no país. No lugar, sugere-se que os governos invistam em educação, infraestrutura e instituições de pesquisa para fortalecer sua capacidade de absorver novos conhecimentos e incentivar a transferência de tecnologias desenvolvidas por economias avançadas. De acordo com o relatório do fundo, muitos países sacrificam sua base tributária ao conceder incentivos para atrair capital estrangeiro. “Acontece que os incentivos fiscais têm relativamente pouco efeito sobre a escolha do local de investimento”, comenta Rafael Cagnin, economista do Instituto de Estudos para o Desenvolvimento Industrial (Iedi). Segundo ele, o tamanho do mercado de um país, sua integração na economia internacional e a qualidade de sua infraestrutura e ambiente de negócios têm mais peso que eventuais benefícios tributários nas decisões de investimento de grandes empresas. Mooij, do FMI, menciona o exemplo da China, que a partir de 2008 eliminou vários incentivos fiscais para o investimento estrangeiro e nem por isso deixou de atraí-lo. “O país trata as empresas nacionais e estrangeiras fixadas em seu território de maneira igual para fins fiscais, sem discriminação”, disse Mooij. lei do bem

No Brasil, incentivos fiscais a P&D e inovação tecnológica estão previstos em instrumentos como a Lei do Bem, de 2005, cuja reforma é discutida no Congresso Nacional. “Um dos problemas da lei é que ela não conseguiu promover incentivos para as pequenas empresas, privilegiando as mais 38  z  Junho DE 2017

consolidadas”, disse o advogado Aristóteles Moreira Filho, pesquisador do Centro de Estudos Sociedade e Tecnologia da Escola Politécnica da Universidade de São Paulo (Poli-USP). A justificativa, de acordo com ele, é que a lei permite dedução adicional de 60% a 100% dos dispêndios com P&D somente a empresas que apuram o imposto de renda sobre o lucro real. “Empresas pequenas e empresas jovens de base tecnológica acabam sendo prejudicadas por essa lógica, seja porque não são optantes pelo lucro real, seja porque não detêm um portfólio consolidado de produtos e serviços e, assim, demoram para fazer a sua ideia inovadora gerar lucro.” Outro problema é que os incentivos concedidos pela Lei do Bem podem ser interrompidos caso a empresa tenha problemas financeiros. “Ainda que a empresa dê continuidade a suas atividades de P&D em um ano em que obteve prejuízo, a dedução no imposto é interrompida”, explicou Luiz Eugênio Mello, vice-presidente da Associação Nacional de Pesquisa, Desenvolvimento e Engenharia das Empresas Inovadoras (Anpei). Para Mello, que também é gerente executivo de Inovação e Tecnologia da companhia Vale, a lei precisa criar condições para beneficiar pequenas e novas empresas, ressaltando que os incentivos fiscais também são importantes para grandes empresas. “O investimento anual da Vale em pesquisa é da ordem de centenas de milhões de reais. Os incentivos fiscais nos permitem um retorno de aproximadamente R$ 15 milhões. Para uma empresa que tem muitos acionistas e procura valorizar suas ações, essa quantia é relevante.”

Lucas Lacaz Ruiz / Folhapress

Política industrial brasileira criou estímulos à produção de automóveis


Para Rafael Cagnin, do Iedi, estímulos fiscais vinculados aos rendimentos da comercialização de produtos acabados podem não ser muito efetivos. “O processo de inovação implica erros ou mudanças inesperadas. É melhor dar incentivos fiscais no início do processo porque, ainda que a obtenção de um produto final seja incerta, as Patentes Nos últimos anos, disseminaram-se na Europa etapas de pesquisa permitem que a empresa acuos chamados regimes de patent box, em que é mule aprendizado”, disse Cagnin. “Nesse senticonferida renúncia fiscal sobre o lucro gerado por do, os incentivos fiscais representam uma peça produtos patenteados. Na avaliação do FMI, esse fundamental da política industrial. Trata-se do modelo não tem sido bem-sucedido na tarefa de setor público participando da partilha de riscos estimular a inovação nas empresas. “Muitos pro- que envolvem o processo de inovação, quando jetos de P&D não geram patentes nem conduzem os retornos privados não são facilmente calcua inovações rentáveis”, observou Mooij. “O apoio lados ou certos.” Moreira defende que a concessão de incentivos fiscal é mais eficiente quando reduz diretamente os custos da pesquisa.” Para Aristóteles Moreira fiscais seja direcionada a vários setores indusFilho, os regimes de patent box são controversos, triais, indiscriminadamente, para não se tornar pois atingem o final do processo de inovação. “Co- injusta. Na sua opinião, a concessão de incentimo o incentivo incide sobre o lucro obtido pela vos setoriais, além de não ser a forma mais efipatente, começaram a surgir casos de empresas, ciente, tenderia a ser antidemocrática. “Deixaespecialmente grupos multinacionais, que não -se de cobrar de um lado para sobrecarregar o outro. Setores com mais força política têm maior poder de influência para dialogar com o governo e, Para o FMI, incentivos fiscais para assim, conseguem impor atrair multinacionais sacrificam países suas agendas de maneira desigual em relação a seemergentes e trazem pouco benefício tores menos influentes, mas que também precisam de incentivos para crescer”, avaliou. A política industrial brasileira estabeleceu estíinvestiam diretamente em P&D, limitando-se a incorporar, nos países concedentes dos benefí- mulos à produção nacional de automóveis, equicios, seus ativos de propriedade intelectual em pamentos de informática, semicondutores, entre holdings sem atividade econômica substancial, outros. Nesse caso, a estratégia adotada ainda é a ou até mesmo adquirindo patentes de terceiros, de conceder isenções ou suspensões de impostos de modo a conseguir acesso a estímulos fiscais sobre o produto final, não estendendo essa posem promover qualquer volume adicional de lítica a concorrentes importados (ver Pesquisa investimento em inovação”, contou. Em 2015, a FAPESP nº 251). No início do ano, programas OCDE passou a exigir de seus países-membros como o Inovar Auto e a Lei de Informática foram que apliquem o regime de patent box apenas a considerados ilegais pela Organização Mundial patentes que tenham sido desenvolvidas pela do Comércio (OMC), após questionamentos da União Europeia e do Japão. “Infelizmente, a visão empresa beneficiada pelo incentivo. Uma das sugestões de mudanças na Lei do Bem de incentivos na política tributária brasileira é a é a proposta de eliminar a concessão de incentivos do tudo ou nada”, observou o economista José crescentes para quem patentear, que está alinhada Roberto Rodrigues Afonso, professor do Instituto à ideia de que o incentivo pode ser dado sem que Brasiliense de Direito Público da Fundação Getuuma patente seja necessária. Outra demanda em lio Vargas (FGV) e consultor do Banco Mundial. avaliação é permitir que o incentivo contemple Ele afirma que, no governo passado, as desoneraa contratação externa de P&D, junto a pequenas ções foram concedidas indiscriminadamente, sem empresas e startups. O objetivo é justamente for- levar em consideração avaliações técnicas. “No talecer empresas emergentes, além de reforçar atual governo, ocorre o outro extremo: qualquer estratégias de corporate venture, que consistem incentivo passou a ser visto como pecado capina criação de unidades de negócio voltadas para tal”, disse Afonso. “O Brasil está fora do debate a inovação dentro de grandes empresas – muitas internacional e parece não conseguir encontrar startups adquiridas por empresas consolidadas um equilíbrio político e competência técnica para sua política fiscal”, completou. n transformam-se nessas unidades de inovação. A Pesquisa de Inovação (Pintec) de 2014, divulgada em dezembro pelo Instituto Brasileiro de Geografia e Estatística (IBGE), mostra que os incentivos fiscais previstos na lei foram utilizados por apenas 3,5% das empresas inovadoras.

pESQUISA FAPESP 256  z  39


Cientometria y

Artigos adormecidos Para estudar o processo científico e aperfeiçoar sistemas de avaliação, pesquisadores analisam papers inovadores que têm reconhecimento tardio

P

esquisadores que acompanham a produção científica de sua área sabem que bons papers nem sempre têm repercussão instantânea. Não chega a ser incomum que ideias inovadoras demorem um pouco para ter sua importância assimilada – vencedores do prêmio Nobel, com frequência, são premiados por contribuições feitas há muitos anos, às vezes décadas –, assim como acontece de surgirem aplicações baseadas em conceitos já conhecidos, que ganham relevância extemporânea. Especialistas da área de cientometria, ramo que estuda aspectos quantitativos da produção do conhecimento, apelidaram de “belas adormecidas” os artigos que despertam interesse anos ou até décadas depois de terem sido divulgados. E passaram a estudá-los como expressões do fenômeno do reconhecimento tardio da produção científica. Um caso famoso e extremo foi o do virologista norte-americano Francis Peyton Rous, que em 1911 publicou um artigo demonstrando que alguns tipos de

40  z  junho DE 2017

câncer de pele observado em aves eram causados por vírus de RNA, os retrovírus. A importância do trabalho só se tornou visível em 1951, depois que um vírus da leucemia foi isolado, definindo o início da associação entre infecções causadas por esses organismos e o câncer. Em 1966, Rous foi agraciado com o Prêmio Nobel de Medicina. Episódios semelhantes foram analisados em estudos que buscam compreender a natureza dos artigos adormecidos e identificar quais fatores contribuem para despertá-los. Para o físico Anthony Van Raan, pesquisador da Universidade de Leiden, na Holanda, é preciso ter em mente que os artigos adormecidos com potencial de provocar mudanças de paradigma são bastante raros, o que torna a identificação deles uma tarefa complicada. “Em sua enorme maioria, artigos que passam despercebidos continuarão assim para sempre simplesmente porque não são interessantes”, comenta Raan, que cunhou pela primeira vez o termo “belas adormecidas” (sleeping beauties)

para se referir a papers que tardaram a ser reconhecidos e a ter impacto. Seus trabalhos mais recentes buscam identificar os “príncipes” responsáveis por quebrar o encanto e deflagrar o interesse por esses artigos. Em artigo publicado em fevereiro na revista Scientometrics, Raan mostrou que, na área de física, 16% dos artigos adormecidos indexados ao Web of Science foram despertados quando mencionados em patentes. Observou também que o intervalo de tempo entre o ano de publicação de um artigo adormecido e sua primeira citação em uma patente diminuiu a partir do início da década de 1990. “Isso pode significar que artigos adormecidos com importância tecnológica, talvez invenções potenciais, estão sendo descobertos cada vez mais cedo”, sugere Raan. Segundo ele, é comum que bons artigos que possam passar despercebidos apresentem conceitos ou tecnologias que estão à frente de seu tempo. Em 1958, por exemplo, foi publicado um artigo que descrevia uma


ilustrações negreiros

forma eficiente de obter óxido de grafite em larga escala. O estudo só começou a ser citado em 2007, quando se descobriu que o óxido de grafite poderia ser utilizado na obtenção, em escala industrial, do grafeno, material extremamente duro e maleável, caracterizado como uma folha de carbono com espessura atômica e detentor de propriedades elétricas, mecânicas e ópticas. O físico Ado Jório de Vasconcelos, professor da Universidade Federal de Minas Gerais (UFMG), publicou em 2002 um paper no qual descrevia a aplicação de uma técnica conhecida como espectroscopia Raman na identificação das propriedades de nanotubos de carbono, considerados bons condutores térmicos. “O artigo passou a ser citado intensamente apenas a partir de 2010, quando a comunidade científica começou a dar importância para o estudo da anomalia de Kohn, uma característica vibracional dos núcleos atômicos que se acoplam nos elétrons. Esse fenômeno era conhecido em materiais metálicos.

Meu trabalho já evidenciava que também era uma característica dos nanotubos”, conta Jório, que em 2016 foi incluído na lista dos 3 mil cientistas “mais influentes” do mundo, divulgada pela empresa Thomson Reuters. AVALIAÇÃO

Estudos sobre o reconhecimento tardio de papers também buscam aperfeiçoar os sistemas de avaliação da ciência, muitos deles baseados em indicadores que privilegiam o impacto obtido em curto prazo. Um trabalho publicado em abril na revista Nature sugere que artigos científicos que deram contribuições transformadoras, mesmo não se enquadrando propriamente no conceito de belas adormecidas, demoraram em geral mais tempo para repercutir do que aqueles que produziram avanços incrementais. “Observamos que pesquisas realmente inovadoras recebem citações a longo prazo, a partir de sete anos após a publicação”, disse à Pesquisa FAPESP Jian Wang, pesquisador da Universidade de pESQUISA FAPESP 256  z  41


Conhecimento latente Exemplos de artigos científicos que só foram reconhecidos muito tempo após sua publicação

Sistemas de previsão O matemático Charles Sanders Peirce publicou um artigo em 1884 na Science sobre formas de medir o sucesso de previsões. A partir dos anos 2000, o trabalho é citado em estudos de meteorologia, medicina e economia

Paradoxo de Einstein Em 1935, Albert Einstein publicou trabalho com dois físicos sugerindo que a teoria corrente da mecânica quântica estava incompleta. O artigo "despertou" nos anos 1990 e hoje recebe cerca de 100 citações por ano

Grafeno Artigo de 1958 de William Hummers e Richard Offeman descreveu método para obter óxido de grafite. Nos anos 2000, o trabalho passou a ser citado em estudos sobre a produção de grafeno, um material muito resistente

Células solares Artigo assinado por William Shockley e Hans-Joachim Queisser, em 1961, abordou o limite da conversão da energia solar em eletricidade. Nos anos 2000, com o avanço da pesquisa em células solares, o paper ganhou relevância. Hoje tem 4 mil citações

Fator de impacto O químico norte-americano Eugene Garfield propôs o conceito de fator de impacto, em 1955, baseado em citações recebidas por artigos. Nos anos 2000, a ideia passou a ser muito citada em estudos de cientometria

42  z  junho DE 2017

Leuven, na Bélgica, um dos autores do estudo. O estudo concluiu que indicadores bibliométricos que utilizam um período de citação de apenas três anos são claramente ineficientes para avaliar pesquisas cujos resultados necessitam de tempo para serem compreendidos. Wang e sua equipe analisaram citações de mais de 660 mil artigos publicados em 2001, em todas as áreas do conhecimento, indexados na base de dados Web of Science. Verificaram que 89% dos manuscritos apresentavam um baixo grau de inovação. Para caracterizar quais artigos seriam considerados inovadores foram selecionados trabalhos que apresentavam referências bibliográficas inusitadas, combinando autores e áreas do conhecimento de forma distinta do padrão de cada área. “Um método para verificar se um artigo contém novas ideias e conceitos é olhar sua capacidade de combinar diferentes referências bibliográficas de maneira inédita. Essa característica pode apontar a natureza mais arriscada da pesquisa”, explica Wang. Observou-se que, no período de três anos após a publicação, a probabilidade de que um artigo muito inovador estivesse no conjunto dos 1% altamente citados era menor que a dos demais. Segundo o estudo, os trabalhos que receberam muitas citações logo nos três primeiros anos tenderam a ficar obsoletos. “Já aqueles considerados disruptivos, com alto grau de novidade, representavam 60% dos trabalhos mais citados 15 anos após a publicação”, explica Wang. Ele conclui que, embora agências de fomento sustentem a importância de investir em pesquisas de caráter transformador, seus sistemas de avaliação acabam privilegiando estudos incrementais ao utilizar os indicadores de impacto mais populares. “O uso generalizado de parâmetros como o número de citações por agências de apoio e revisores pode desencorajar pesquisas com potencial de quebrar paradigmas”, sugere Wang. Como exemplo de órgãos que utilizam de alguma forma indicadores bibliométricos em seus processos de avaliação, o estudo cita o Conselho Europeu de Pesquisa (ERC), a Fundação Nacional de Ciências Naturais da China, a Fundação Nacional de Ciências dos Estados Unidos (NSF) e a brasileira Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), que criou o sis-


Comunidade científica reage com estranhamento a ideias diferentes do mainstream, diz Paulo Artaxo

tema Qualis de classificação de periódicos científicos. Rita Barradas Barata, diretora de Avaliação da Capes, explica que, para supervisionar os cerca de 4.200 programas de pós-graduação no país, a instituição monitora a produção científica de professores e alunos. “Como é impossível medir a qualidade de cada um dos mais de 800 mil artigos publicados pelos programas, fazemos uma classificação dos veículos nos quais os trabalhos são publicados”, informa. Para isso, são levados em consideração em várias disciplinas indicadores como o Journal Impact Factor (JIF), apontado no estudo de Wang como uma das ferramentas que desfavorecem artigos que demoram para serem reconhecidos. Rita reconhece que as instituições se acostumaram a concentrar sua atenção em artigos muito citados no curto prazo. “Há a tendência de orientar o olhar para aquilo que os indicadores bibliométricos dizem que é bom no momento.” Uma ideia em discussão, segundo a diretora, é que as agências e instituições de pesquisa adotem algum tipo de política de prospecção, na tentativa de garimpar temas que podem estar sendo subestimados. Na avaliação de Wang, as

agências não precisam buscar formas de favorecer pesquisadores pouco citados. “Basta julgarem cada proposta por seu próprio mérito, o que é difícil de fazer. Sistemas de avaliação por pares são um bom contraponto para o uso excessivo de métricas”, afirma. FATOR DE IMPACTO

Em estudo publicado em 2015 na revista PNAS, pesquisadores da Universidade de Indiana, nos Estados Unidos, analisaram 22 milhões de papers publicados ao longo de 100 anos, indexados aos arquivos da American Physical Society e da Web of Science, e verificaram que a maior parte dos artigos que permaneceram adormecidos por longos períodos de tempo, e depois tornaram-se célebres em suas áreas, é de química, física e estatística. O estudo dos pesquisadores de Indiana chama a atenção para o fato de que o próprio conceito de “fator de impacto” permaneceu escondido em um artigo publicado em 1955 por Eugene Garfield. No artigo, Garfield, que morreu em fevereiro, apresenta ideias e conceitos que mais tarde seriam usados para consolidar a base de dados Web of Science, da Thomson Reuters. “O paper

esteve adormecido por quase 50 anos, até se tornar popular no início dos anos 2000 e ser citado em trabalhos sobre bibliometria, alguns do próprio Garfield”, informa o estudo. Van Raan explica que, embora se concentrem mais nas ciências exatas, os artigos adormecidos podem ser encontrados em praticamente todas as áreas do conhecimento. “Estou começando a investigar as áreas médicas e também as ciências sociais e espero descobrir coisas interessantes”, conta Raan, que aposta no desenvolvimento de programas de computador capazes de identificar belas adormecidas da ciência. Paulo Artaxo, professor do Instituto de Física da USP, vê com naturalidade o fato de bons artigos não receberem, à primeira vista, o devido reconhecimento. “Pesquisas com ideias muito diferentes do mainstream demoram para ser digeridas pela comunidade científica, que muitas vezes reage com estranhamento e até com preconceito a novas ideias”, explica. Segundo ele, os estudos que tentam analisar os artigos adormecidos podem cumprir um papel importante. “Podem nos fornecer pistas para entender por que grandes ideias passam despercebidas. Trata-se de uma oportunidade de alertar as editoras a pensarem estratégias de tornar os artigos mais visíveis e legíveis, porque hoje o grau de especialização nas pesquisas é excessivo, o que dificulta o entendimento até para quem é da própria área de pesquisa”, observa. Para Ado Jório, cabe ao autor da pesquisa esforçar-se para divulgar seus trabalhos, especialmente quando sabe que está propondo algo que bate de frente com o paradigma vigente. “Não basta publicar o artigo e torcer para que ele seja lido, compreendido e citado. É preciso participar de congressos, conferências e debates, procurando sempre falar sobre sua pesquisa com as pessoas que possam se interessar por ela”, recomenda. n Bruno de Pierro pESQUISA FAPESP 256  z  43


ciência  ECOLOGIA y

Refazendo o Cerrado Plantio direto de sementes e reúso do solo se mostram técnicas viáveis para restaurar a vegetação nativa André Julião

E

m novembro de 2016, um grupo de biólogos, agrônomos e técnicos, alguns deles pilotando tratores com carretas normalmente usadas para aplicar calcário no solo, espalhou terra misturada com sementes de 80 espécies de gramíneas, arbustos e árvores nativas do Cerrado em um plantio experimental de 96 hectares no município de Alto Paraíso, nordeste de Goiás, que faz parte do Parque Nacional da Chapada dos Veadeiros. Em março deste ano, as plantas – já com 10 centímetros de altura – começavam a formar um tapete verde sobre a área antes ocupada por um capinzal de espécies africanas, que crescem com rapidez e tomam o espaço das nativas. Com esse trabalho, o grupo Restaura Cerrado, com pesquisadores do Instituto Chico Mendes de Conservação da Biodiversidade (ICMBio), da Embrapa Recursos Genéticos e Biotecnologia, da Embrapa Cerrados e da Universidade de Brasília (UnB), pretende colher evidências adicionais de que a chamada semeadura direta pode realmente ser uma alternativa viável para repor a vegetação desse ambiente natural do Brasil. Essa técnica de plantio consiste na aplicação de sementes já misturadas com terra sobre uma área a ser restaurada, que foi avaliada também por outro grupo de pesquisa em São Paulo. 44  z  junho DE 2017


Frenando Tatagiba / ICMBio

Trator faz semeadura direta de espécies de árvores, arbustos e ervas em experimento no Parque Nacional da Chapada dos Veadeiros, em novembro de 2016 pESQUISA FAPESP 256  z  45


1

“Estamos mostrando que o Cerrado pode, sim, ser recuperado, diferentemente do que se tem dito, até mesmo em centros de pesquisa acadêmicos”, afirma o engenheiro florestal Alexandre Sampaio, pesquisador do Centro Nacional de Avaliação da Biodiversidade e Pesquisa e Conservação do Cerrado do ICMBio, coordenador do experimento realizado desde 2012 na Chapada dos Veadeiros. Com uma área original de 2 milhões de quilômetros quadrados (km2), o equivalente a 22% do território nacional, o Cerrado é o segundo maior ambiente natural brasileiro, atrás apenas da Amazônia, e encolhe continuamente. Análises de imagens de satélites indicaram que a área sofreu uma redução de 260 mil km2, o equivalente ao dobro do tamanho da Inglaterra, em consequência da expansão da agropecuária, de 1990 a 2000 (ver Pesquisa FAPESP no 231). Estudos já realizados indicaram que a semeadura direta poderia ter um custo cerca de oito vezes menor que o de plantio de mudas de árvores, a técnica mais usada para recompor a vegetação original do Cerrado, que consiste no cultivo inicial das plantas em viveiros, antes de serem levadas para o campo. O problema é que as espécies desse tipo de vegetação nativa formam raízes muito longas e, para serem produzidas em viveiros, precisariam de saquinhos ou tubetes muito longos. “É comum uma árvore de 5 anos de idade ter poucos centímetros de altura e vários metros 46  z  junho DE 2017

de raiz”, observa Sampaio. Segundo ele, outros grupos importantes de plantas, os arbustos e as gramíneas, não são produzidos em viveiros. “A semeadura direta de arbustos e gramíneas nativas permite a rápida ocupação do solo, reduzindo a necessidade de roçar e aplicar herbicida entre as linhas de plantio de árvores”, diz a bióloga Isabel Belloni Schmidt, professora da UnB. Além dos 96 hectares (1 hectare equivale a 10 mil metros quadrados) semeados no final de 2016 como resultado de uma parceria com uma empresa de transmissão de energia que precisava fazer uma compensação ambiental, os pesquisadores de Brasília fizeram outros três plantios com semeadura direta em áreas menores na Chapada dos Veadeiros entre 2012 e 2014 e quatro no Distrito Federal. Em seguida, durante dois anos e meio, acompanharam o crescimento de 50 espécies nativas de árvores, 12 de arbustos e 13 de gramíneas. Após o primeiro ano, 36 espécies arbóreas e cinco arbustivas apresentaram sobrevivência acima de 60%, considerada satisfatória. Algumas plantas chegaram a 90%, como o cajuí (Anacardium humile), arbusto de até 2 metros (m) de altura e um fruto falso – ou pseudofruto, resultante de um tecido próximo à flor –, conhecido como caju-do-cerrado, de casca vermelha, polpa branca e suculento, usado em sucos, doces e licores. Gramíneas nativas como a Andropogon fastigiatus e a Aristida riparia já cobriam 30% da

O jatobá-do-cerrado (planta maior) se destaca entre as lobeiras e os mata-pastos que crescem em plantio experimental, um mês depois de semeados


A queima controlada precede em seis meses a semeadura no Parque Nacional da Chapada dos Veadeiros

2

A transferência do solo superficial, com raízes e sementes, tem mostrado bons resultados

área no final do primeiro ano após o plantio, como detalhado em um artigo de março de 2017 na Brazilian Journal of Botany. “Ainda restam em torno de 500 hectares para serem recuperados no Parque Nacional da Chapada dos Veadeiros. Vamos buscar parcerias para restaurá-los e monitorar os plantios já feitos para ver como prosperam. Já sabemos que quanto melhor prepararmos o solo e retirarmos as gramíneas exóticas e quanto mais sementes das espécies certas utilizarmos, maior será a chance de restaurar o Cerrado por meio da semeadura direta”, diz Sampaio.

fotos 1 mariana siqueira 2 fernando tatagiba /icmbio

Bons resultados do Topsoil

A transferência da camada superficial da terra, o chamado topsoil, de áreas conservadas para pastos abandonados e outras zonas a serem ocupadas por vegetação nativa, é também uma metodologia que tem mostrado bons resultados. Foi aplicada de forma bem-sucedida no reaproveitamento das plantas da Mata Atlântica (ver Pesquisa FAPESP no 209). A técnica é muito simples: antes da construção de uma hidrelétrica ou da implantação de uma área de mineração, por exemplo, um trator remove uma camada de 30 a 40 centímetros do solo, rico em matéria orgânica, microrganismos, raízes e sementes, e transfere esse material nor-

malmente descartado para uma nova área a ser ocupada com vegetação nativa. Em novembro de 2013, o ecólogo Daniel Vieira, pesquisador da Embrapa Recursos Genéticos e Biotecnologia, e o biólogo da UnB Maxmiller Ferreira acompanharam a retirada do topsoil de uma propriedade de 2 hectares, a 10 km de Brasília, para permitir a expansão de uma fábrica de cimento. Em seguida, o material foi depositado em um pasto abandonado a 1,4 km dali, como detalhado em um artigo a ser publicado em junho na Ecological Engineering. Seis meses depois, os pedaços de troncos e raízes que rebrotaram representavam 74% do número de espécies de árvores da área original, de onde veio o topsoil. Depois de 28 meses, cresciam ali 51 espécies de árvores, 8 de trepadeiras, 12 de arbustos e 34 de ervas, indicando que a diversidade havia começado a se restabelecer. “É muito importante reaproveitar esse solo. Muita coisa rebrota nele, trazendo uma grande variedade de espécies”, recomenda Vieira. Segundo ele, a densidade, a altura e a extensão da copa das árvores indicavam que o processo de formação de uma mata semelhante à original seguia em ritmo acelerado e instalava-se uma cobertura vegetal cuja sombra deveria conter o crescimento dos capins invasores, na maior parte braquiária (Urochloa decumbens) e andropogon (Andropogon gayanus). A densidade de árvores alcançada foi 11 vezes maior do que nas restaurações de Cerrado feitas a partir do plantio de mudas, que em geral estabelecem um predomínio de espécies arbóreas e deixam de lado as lianas, arbustos e ervas, importantes no começo da regeneração e na recuperação dos processos ecológicos. pESQUISA FAPESP 256  z  47


As secretarias de Meio Ambiente do Distrito Federal e de Mato Grosso reconheceram a utilidade desses estudos. “Com base nos resultados dessas pesquisas, estamos incorporando a transferência de topsoil e a semeadura direta às regras de compensação ambiental”, confirma Raul do Valle, chefe da Assessoria Jurídico Legislativa da Secretaria de Meio Ambiente do Distrito Federal. Em Mato Grosso, com cerca de 60% do território originalmente coberto por Cerrado, está em fase de elaboração um decreto que regulamentará a restauração de áreas degradadas usando essas técnicas, que, assim como no Distrito Federal, serão monitoradas. “Vamos avaliar a cobertura de solo, riqueza e densidade de regenerantes nativos [raízes, troncos, tubérculos etc.], aliados à avaliação de imagens de satélite, fotografias e vistorias em campo”, explica a bióloga Ligia Nara Vendramin, analista de meio ambiente da Secretaria de Estado de Meio Ambiente de Mato Grosso. Por sua vez, o grupo de pesquisa Restaura Cerrado e a Rede de Sementes do Cerrado, que promove a coleta de sementes e as distribui para projetos de restauração florestal, publicaram o Guia de restauração do Cerrado (bit.ly/guiacerrado), promovem cursos para produtores rurais e participam de debates com formuladores de políticas públicas e de feiras agropecuárias para disseminar as técnicas de restauração entre os possíveis usuários. regeneração natural

A engenheira florestal Giselda Durigan, com sua equipe do Instituto Florestal em Assis, interior paulista, refez a vegetação nativa de uma antiga pastagem da Floresta Estadual de Assis usando 48  z  junho DE 2017

o topsoil coletado em uma área conservada de Cerrado na Estação Ecológica de Santa Bárbara, a 150 km de distância. Em outro experimento, Giselda e a doutoranda em ecologia Natashi Pilon, da Universidade Estadual de Campinas (Unicamp), decepcionaram-se com os resultados da técnica chamada transferência de feno. Bastante utilizada em países de clima frio ou temperado do hemisfério Norte, essa técnica consiste em roçar e reunir a vegetação herbácea e as sementes que cobrem o solo de uma área conservada e depois espalhar esse material no terreno a ser restaurado. Apenas duas espécies do terreno original reapareceram. “As sementes do Cerrado germinam mais facilmente quando o clima esquenta muito durante o dia e esfria à noite”, observa Giselda. “Provavelmente, a palha manteve a temperatura estável, prejudicando a germinação.” Muitas vezes, esse tipo de vegetação pode se regenerar naturalmente. Em um pasto abandonado de uma fazenda em Canarana, Mato Grosso, o engenheiro-agrônomo Mário Cava, da Universidade Estadual Paulista (Unesp), campus de Botucatu, e o grupo de Giselda registraram 112 espécies de árvores, das quais apenas 16 tinham sido plantadas dois anos antes. O estudo integrava um experimento instalado pela Embrapa Agrossilvipastoril, comparando a regeneração natural com a semeadura direta e o plantio de mudas. O plantio de mudas apresentou custos mais elevados e não resultou em densidade ou riqueza superiores às outras abordagens. “A semeadura direta de espécies nativas parece promissora num primeiro momento, mas depois o

A vegetação rebrota três meses após queimada controlada no interior paulista (à esq.); marolo, fruto de alto valor comercial do maroleiro, uma árvore típica do Cerrado (acima)


brotam, uma abordagem semelhante à adotada pelo Restaura Cerrado. “O uso de herbicida pode ser eficiente para acabar com o capim invasor, mas mata também os nativos”, alerta a pesquisadora. Apelo da ABC e SBPC

fotos  giselda durigan /if

Plantas raras do Cerrado, como a gotas-de-orvalho, podem desaparecer com o adensamento da vegetação e a falta de luz, mas rebrotam após o fogo

que vimos foi uma baixa diversidade, com a predominância de apenas uma ou duas espécies”, explica a pesquisadora, apresentando um resultado diverso da experiência realizada em Goiás e Distrito Federal. A regeneração natural, embora seja o método mais barato, pode ser muito lenta e nem sempre atende às expectativas. “Em alguns casos ela seria até melhor que o plantio de mudas, mas iria demorar 20 anos para se concretizar. E quem está cumprindo acordos judiciais de recuperação ambiental normalmente tem alguns meses ou poucos anos para fazer a restauração”, conta o engenheiro-agrônomo Pedro Brancalion, da Escola Superior de Agricultura Luiz de Queiroz da Universidade de São Paulo (Esalq-USP). Sua conclusão se apoia em análise publicada em novembro de 2016 na revista Biotropica comparando 42 programas de empresas que precisavam restaurar áreas de Mata Atlântica, Amazônia e na transição desses ambientes com o Cerrado para cumprir o Código Florestal ou acordos com a Justiça. O capim braquiária, uma gramínea exótica, responde por parte da dificuldade de refazer a vegetação nativa. Em um estudo concluído no início deste ano, a equipe do Instituto Florestal observou que a braquiária, por crescer muito e com rapidez, causa perdas muito grandes entre as plantas nativas. “As espécies nativas não conseguem competir com a braquiária”, salienta Giselda. Entre as técnicas de erradicação avaliadas, a que apresentou melhor resultado foi a combinação da queima controlada com a posterior retirada das touceiras de braquiárias que re-

Em um comunicado oficial divulgado em abril, a Academia Brasileira de Ciências (ABC) e a Sociedade Brasileira para o Progresso da Ciência (SBPC) enfatizaram a necessidade de medidas urgentes de conservação dos ecossistemas naturais brasileiros, como a implantação da Política Nacional de Recuperação da Vegetação Nativa (Proveg), e pediram aos governos federal e estaduais a ampliação das unidades de conservação dos atuais 7,5% para pelo menos 20% da área original do Cerrado, um apoio efetivo às populações tradicionais e indígenas, ameaçadas pela expansão das cidades e da agropecuária, e a ampliação das pesquisas científicas e tecnológicas que propiciem maior aproveitamento dos recursos naturais desse ambiente natural brasileiro. “A pecuária nas áreas conservadas, com uma baixa densidade de gado, certificação e legislação específica, usando apenas os capins nativos, pode ser uma solução viável”, comenta Giselda. No Rio Grande do Sul, 24 pecuaristas e ambientalistas, depois de 12 anos de negociação, implantaram métodos certificados de criação de gado em campo nativo, vegetação típica do Sul do país (ver Pesquisa FAPESP no 240). n

Projeto Invasão do campo Cerrado por braquiária (Urochloa decumbens): Perdas de diversidade e experimentação de técnicas de restauração (no 13/24760-4); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Giselda Durigan (IF); Investimento R$ 139.392,99.

Artigos científicos Brancalion, P. H. S. et. al. Balancing economic costs and ecological outcomes of passive and active restoration in agricultural landscapes: The case of Brazil. Biotropica. v. 48, n. 6, p. 856–67, 2016. Cava, M. G. B. et. al. Comparação de técnicas para restauração da vegetação lenhosa de Cerrado em pastagens abandonadas. Hoehnea. v. 43, n. 2, p. 301-15. 2016. Ferreira, M. C. et al. Topsoil for restoration: Resprouting of root fragments and germination of pioneers trigger tropical dry forest regeneration. Ecological Engineering. v. 103, p. 1-12. 2017. Pellizzaro, K. F. et al. ‘‘Cerrado’’ restoration by direct seeding: Field establishment and initial growth of 75 trees, shrubs and grass species. Brazilian Journal of Botany, p.1-13. 2017.

Livro Sampaio, A. B. et. al. Guia de restauração do Cerrado. V. 1 – Semeadura direta. Universidade de Brasília, Rede de Sementes do Cerrado. 2015.

pESQUISA FAPESP 256  z  49


Epidemiologia y

Fronteiras

ultrapassadas Sequenciamento genético em tempo real reconstrói trajetória do vírus zika pelas Américas Maria Guimarães e Karina Toledo (da Agência FAPESP)

O

zika chegou ao Nordeste brasileiro um ano e meio antes de ser reconhecido como inimigo público. É o que está relatado em dois artigos de grupos distintos publicados no dia 24 de maio na revista Nature. O vírus se espalhou depressa, tirando proveito dos mosquitos Aedes aegypti e de uma população humana cujo sistema imunológico não tinha defesas contra ele, além de camuflar-se entre os sintomas de dengue e chikungunya. Pesquisadores trabalharam em paralelo, com recursos diferentes e um objetivo comum: monitorar a evolução do genoma viral, tanto para entender o que ocorreu como para prever surtos e manter os métodos diagnósticos atualizados. Parte dos resultados vem do projeto ZiBRA (Zika no Brasil Análise em Tempo Real). A bordo de um laboratório móvel e munido com uma tecnologia de sequenciamento genético que cabe na palma da mão, um grupo internacional investiga a trajetória do vírus zika desde que ele desembarcou no Brasil e começou a se espalhar pelas Américas (ver Pesquisa FAPESP nº 239). O sequenciamento completo do genoma foi disponibilizado para

50  z  junho DE 2017

outros grupos de pesquisa, ampliando o alcance do trabalho. “A combinação de dados epidemiológicos e genéticos nos permitiu perceber que houve circulação silenciosa do zika em todas as regiões das Américas pelo menos um ano antes da primeira confirmação do vírus, em maio de 2015”, diz o biomédico português Nuno Faria, da Universidade de Oxford, no Reino Unido, e primeiro autor do artigo que descreve os resultados do monitoramento realizado em 2016. Segundo Faria, o vírus foi introduzido no Nordeste brasileiro em fevereiro de 2014. Naquele ano, é provável que tenha havido alguma transmissão pela região, mas não muito acentuada. “O grande surto aconteceu muito provavelmente em 2015, simultaneamente ao de dengue. Do Nordeste, o zika teria se espalhado para a região Sudeste do Brasil [Rio de Janeiro, inicialmente] e também para o Caribe e outros países da América do Sul e Central, chegando à Flórida”, conta. As conclusões do Projeto ZiBRA se baseiam na análise de 254 genomas completos do patógeno – 54 dos quais sequenciados para o estudo publicado na Nature. A maior parte desses novos da-

dos genéticos foi obtida com um sequenciador portátil conhecido como MinION, da Oxford Nanopore Technologies, que pesa menos de 100 gramas. Os protocolos que permitiram usar essa tecnologia no sequenciamento do zika foram desenvolvidos no âmbito do projeto ZiBRA e renderam um segundo artigo, publicado no mesmo dia na Nature Protocols. A adaptação do método ao vírus circulante no Brasil foi feita no Instituto de Medicina Tropical de São Paulo da Universidade de São Paulo (IMT-USP), sob coordenação da epidemiologista Ester Sabino em parceria com colaboradores da Universidade de Birmingham, no Reino Unido. “Nossa estagiária Ingra Claro testava as amostras conforme as instruções de Joshua [Quick, primeiro autor do artigo sobre o método], para obter RNA suficiente do vírus”, explica Ester. Quanto maior é o número de sequências geradas, ela acrescenta, mais fácil se torna entender quando o vírus entrou no país, como ele se distribuiu no continente e, principalmente, de que forma está evoluindo. Essa análise é possível graças à técnica conhecida como relógio molecular, que avalia o acúmulo de alte-


Migração rápida e discreta Em todos os países a que chegou a partir do Nordeste brasileiro, a doença demorou meses até ser detectada Saída de ilhas do Pacífico

Primeira detecção

Brasil

Flórida, EUA

Honduras

Caribe Honduras

Colômbia

Porto Rico

Colômbia

Porto Rico Caribe Em cor escura, período estimado de início da circulação do vírus 2013

Flórida, EUA

Brasil

Várias entradas 2014

2015

2016

Fonte  worobey, Nature

rações em certos genes. Essas modificações ocorrem a uma taxa relativamente constante e os genes funcionam como se fossem cronômetros, indicando o tempo de divergência entre isolados virais.

infográfico ana paula campos

Laboratório na estrada

“A ideia do projeto surgiu em 2016, quando parte do grupo publicou na Science os primeiros achados epidemiológicos e genéticos do zika nas Américas. Havíamos sequenciado sete isolados virais, mas o número de amostras era insuficiente para ter uma noção ampla da diversidade do vírus no continente”, informa o geneticista Luiz Carlos Alcântara, da Fundação Oswaldo Cruz (Fiocruz) na Bahia. O projeto ZiBRA foi aprovado em uma chamada de propostas lançada em conjunto pelas agências de fomento britânicas Medical Research Council, Newton Fund e Wellcome Trust. Aos esforços se uniram pesquisadores de várias instituições: Fiocruz, Instituto Evandro Chagas, Ministério da Saúde, USP e as universidades de Birmingham e de Oxford. Um laboratório montado em um ônibus visitou ao longo de 2016 os Laboratórios Centrais de Saúde Pública (Lacen)

Laboratório montado em um ônibus visitou em 2016 Rio Grande do Norte, Paraíba, Pernambuco e Alagoas

do Rio Grande do Norte, da Paraíba, de Pernambuco e de Alagoas. Além de Alcântara, Faria e Ester, também coordenaram a iniciativa os pesquisadores Nicholas Loman, da Universidade de Birmingham, Oliver Pybus, da Universidade de Oxford, e Marcio Nunes, do Instituto Evandro Chagas, do Pará. “Analisamos, em cada Lacen, entre 300 e 400 amostras

de sangue de pacientes com suspeita de zika, totalizando 1.330 exames. Fazíamos o diagnóstico em tempo real e, quando dava positivo, o material genético do vírus era sequenciado”, conta Alcântara. Com o apoio de laboratórios fixos na Fiocruz da Bahia, em Salvador, e no IMT, em São Paulo, o grupo também analisou amostras da região Sudeste e do Tocantins. Nos Estados Unidos, colaboradores sequenciaram os genomas de quatro isolados virais do México e cinco da Colômbia. “As análises mostraram que os vírus encontrados até 2016 nas diversas regiões brasileiras e nos vizinhos latino-americanos ainda não apresentam grande diversidade”, diz Alcântara. De acordo com o pesquisador, o vírus originário da África chegou à Ásia um pouco antes de 2007, quando causou a primeira epidemia na Micronésia. Depois novos surtos foram registrados nas Filipinas (2012) e na Polinésia Francesa (2013 e 2014). Em seguida atingiu o Brasil, onde o maior número de casos foi registrado até agora (em dezembro de 2016 passavam de 200 mil). “Desde que saiu do continente africano, o vírus mudou bastante. Provavelmente, daqui pESQUISA FAPESP 256  z  51


Jaqueline Goes de Jesus, da Fiocruz, e Nuno Faria usam o MinION durante monitoramento em João Pessoa, Paraíba

a sete ou 10 anos, a diversidade aqui nas Américas vai estar bem maior. Precisamos fazer a vigilância genômica para estarmos preparados se um novo surto vier”, recomenda Alcântara. Além de auxiliar os Lacen no diagnóstico de centenas de casos suspeitos, os pesquisadores do ZiBRA treinaram equipes para fazer a vigilância genômica com o MinION. Agora teve início uma segunda etapa do projeto na qual, além do zika, serão monitorados os vírus da dengue, chikungunya e febre amarela. “Em Manaus, montaremos um laboratório fixo para analisar amostras dos Lacen do Amapá, Acre, Amazonas, de Roraima e Rondônia. Em outubro, vamos com um laboratório móvel para a região Centro-Oeste e, em março de 2018, seguiremos para o Sudeste”, adianta Alcântara. Monitoramento na bancada

O acompanhamento em tempo real também é o foco de outro grupo internacional, embora as análises genéticas sejam feitas em laboratórios fixos. Parte dos procedimentos foram os mesmos, usando em aparelhos mais potentes os protocolos desenvolvidos para o MinION. “Foram enfoques complementares”, avalia a geneticista Bronwyn MacInnis, do Instituto Broad, nos Estados Unidos. O trabalho coordenado por ela, em parceria com a colega Pardis Sabeti, envolveu 52  z  junho DE 2017

Com vigilância genética e redes estabelecidas, diminuem os riscos de os pesquisadores serem pegos de surpresa

o sequenciamento de 110 genomas do zika coletados em 10 países. As conclusões semelhantes obtidas por caminhos distintos pelas duas equipes reforçam as interpretações e validam novas técnicas de sequenciamento, abrindo possibilidades de acompanhamento de epidemias. Uma dificuldade que desafiou ambos os grupos foi a baixa carga viral (viremia) que se revelou típica da infecção pelo vírus zika. “Quando o paciente procura ajuda, a infecção já está diminuindo”, explica Bronwyn. Em sua experiên-

cia anterior, durante o surto de ebola na África em 2015, ela encontrou entre mil e 10 mil vezes mais cópias virais nas amostras recolhidas dos doentes. Apesar da diferença, o treinamento com o ebola foi o primeiro passo para que ela e seus colaboradores pudessem mergulhar no estudo da epidemia de zika, sem nem sequer ter tempo de tomar fôlego. “Aquela foi a primeira vez que se fez monitoramento genético em tempo real de uma epidemia”, conta. Até então, era necessário recolher as amostras dos pacientes e cultivar em laboratório para se obter uma quantidade suficiente de vírus. O problema é que nem tudo o que está na amostra prolifera em cultura e nesse processo se perde muita diversidade. A novidade foi conseguir fazer as análises genéticas diretamente do sangue recolhido dos doentes, usando técnicas para “pescar” o material genético (RNA, no caso do zika) da amostra. Diante da emergência da epidemia no Brasil e em outros países da América do Sul e do Caribe, Bronwyn buscou parceiros aqui para somar conhecimentos. Com Fernando Bozza, Thiago Souza e Patricia Bozza, da Fiocruz do Rio, ela estabeleceu o que qualifica como uma rica colaboração. “Eles trouxeram o entendimento de como a doença estava progredindo e como interagia com os vírus causadores da dengue e da chikungunya”, conta.


fotos  Ricardo Funari

Em Natal, Marta Giovanetti, da Fiocruz, prepara sequenciamento (à esq.) e mosquitos capturados na cidade são examinados

O grupo carioca já tinha construído um conhecimento epidemiológico da dengue, trabalhando com hospitais e fazendo uma vigilância sistemática da doença. “A zika nos deu muito trabalho no início por causa da viremia baixa”, lembra Fernando Bozza. Depois de conseguir um teste rápido para diagnóstico, seu grupo passou a recolher amostras e buscar melhorar o sucesso de extração do RNA, o que envolve refinar o rigor com que se coleta e armazena o material. A demora na identificação da zika depois da entrada do vírus no Brasil ressalta, para Bozza, a importância do monitoramento genético de doenças relevantes já conhecidas em outros continentes. “Quando identificamos o problema, já havia uma epidemia.” Conhecer a evolução do vírus e ter as técnicas para vigilância pode permitir aos pesquisadores desenvolver estratégias para detectar doenças com maior rapidez. Os dados genéticos indicam que em Porto Rico, Honduras, Colômbia e na área que inclui o Caribe e os Estados

Unidos também se passaram meses entre a entrada do vírus e a detecção dos primeiros casos. A circulação discreta permitiu ao zika chegar aos Estados Unidos a partir do Caribe, conforme mostra um quarto artigo publicado na Nature no mesmo dia. Naquele país, porém, apenas a Flórida tem as condições adequadas para a permanência do Aedes aegypti o ano todo, permitindo a disseminação do vírus. Por isso a doença ficou restrita a esse estado, sobretudo à região de Miami, destino de uma grande quantidade de visitantes de outros países. “O vírus foi introduzido muitas vezes, não foi um evento isolado”, assegura Bronwyn, coautora do trabalho. “Perceber como isso aconteceu é importante para coordenarmos esforços para o controle do vetor e protegermos as rotas de entrada.” Ela sabe que, mesmo que o momento seja de trégua antes do início do verão na Flórida, outras epidemias virão. Por enquanto, o vírus zika ainda reserva uma dose de mistério e sua circulação no Brasil no último verão foi menor do que se

esperava. “Vamos continuar monitorando para tentar entender como o vírus avança”, afirma Ester, cujo grupo tem feito um acompanhamento em amostras de sangue doado em quatro grandes hemocentros de São Paulo. “Estamos aprendendo formas de criar grupos de pesquisa capazes de dar respostas rápidas em uma emergência.” Com o aprendizado que permite a vigilância genética e as redes de colaboração estabelecidas, diminuem os riscos de os pesquisadores serem pegos de surpresa. As publicações concomitantes ressaltam que esse trabalho em parceria, reunindo especialistas de diversas áreas, é essencial para fazer frente às epidemias. Por isso os dois grupos trabalhando em paralelo – e sabendo disso – não se fecharam. “Ao longo do processo nos mantivemos em contato, comparando os resultados”, conta Bronwyn. n

Projeto Caracterização do vírus da dengue pela análise do genoma completo viral em amostras de doadores e receptores de sangue nos estados de Pernambuco e Rio de Janeiro (nº 12/03417-7); Modalidade Bolsa de Doutorado; Pesquisadora responsável Ester Cerdeira Sabino (USP); Bolsista Antonio Charlys da Costa; Investimento R$ 145.246,14.

Artigos científicos FARIA, N. R. et al. Establishment and cryptic transmission of Zika virus in Brazil and the Americas. Nature. 24 mai. 2017. GRUBAUGH, N. D. et al. Genomic epidemiology reveals multiple introductions of Zika virus into the United States. Nature. 24 mai. 2017. METSKY, H. C. et al. Zika virus evolution and spread in the Americas. Nature. 24 mai. 2017. QUICK, J. et al. Multiplex PCR method for MinION and Illumina sequencing of Zika and other virus genomes directly from clinical samples. Nature Protocols. v. 12, n. 6, p. 1261-76. 24 mai. 2017.

pESQUISA FAPESP 256  z  53


Farmacologia y

Uma chave

para entrar no cérebro Nanomaterial à base de carbono pode facilitar a chegada de medicamentos ao sistema nervoso central

N

ão é fácil fazer um medicamento chegar ao cérebro. Os vasos sanguíneos que irrigam o sistema nervoso central são revestidos por uma estrutura especial composta por três tipos de célula que, em conjunto, atuam como um filtro muito seletivo. Chamada de barreira hematoencefálica, essa estrutura só permite a passagem de alguns compostos necessários para o funcionamento cerebral adequado, como nutrientes, hormônios e gases. Essa seletividade protege o sistema nervoso central de moléculas tóxicas encontradas no sangue e também impede que um fármaco consumido por via oral ou injetado na corrente sanguínea atinja o cérebro, mesmo quando isso é necessário. Na Universidade Estadual de Campinas (Unicamp), o grupo liderado pela bióloga Maria Alice da Cruz-Höfling testa atualmente a possibilidade de usar o óxido de grafeno reduzido – um composto nanoestruturado formado por átomos de carbono – para abrir a barreira e fazer certos medicamentos chegarem ao cérebro com menos efeitos colaterais do que os provocados por compostos atualmente em uso.

Ricardo Aguiar

Bactérias, anticorpos e compostos químicos

Barreira hematoencefálica: Células endoteliais Pericitos Astrócitos

vaso sanguíneo

cérebro

Oxigênio e glicose

FILTRO SUPEREFICIENTE A barreira hematoencefálica é uma estrutura especial que reveste os vasos sanguíneos no sistema nervoso central. Formada por três tipos de célula (células endoteliais, pericitos e astrócitos), ela permite que apenas alguns compostos cheguem ao cérebro. Trocas de informações entre os astrócitos da barreira e os neurônios a tornam mais restritiva ou mais permeável 54  z  junho DE 2017


imagem  ZEPHYR/SCIENCE PHOTO LIBRARY infográfico  ana paula campos

Os testes iniciais com o óxido de grafeno reduzido foram promissores. Experimentos feitos com células e com animais de laboratório indicam que ele abre temporariamente a barreira e, nas doses avaliadas, aparentemente não é tóxico para o organismo. “Trabalhamos com esse composto porque os nanomateriais da família do grafeno mostravam potencial para interagir com o sistema nervoso, já que o grafeno é um excelente condutor elétrico e as células neurais se comunicam por meio de impulsos elétricos”, explica a farmacêutica e bioquímica Monique Mendonça, pesquisadora em estágio de pós-doutorado no Instituto de Biologia da Unicamp e primeira autora dos artigos que descreveram esses resultados, publicados em 2015 e 2016 no Journal of Nanobiotechnology e na Molecular Pharmaceutics. Constituído por uma única camada de átomos de carbono organizados em hexágonos regulares, o grafeno é 200 vezes mais resistente do que o aço e um dos melhores condutores elétricos conhecidos. O grafeno puro, porém, tem aplicações biológicas limitadas por ser pouco solúvel em água. Já o óxido de grafeno reduzido dilui-se em água e preserva propriedades elétricas similares às do grafeno. Monique conheceu o óxido de grafeno reduzido em 2013, em uma conversa com pesquisadores do Laboratório de Nanoengenharia e Diamantes da Faculdade de Engenharia Elétrica e Computação (FEEC) da Unicamp, e decidiu avaliar o seu potencial de atravessar a barreira. “Adaptamos o processo de produção desse material para sintetizá-lo sem a necessidade de processos químicos intermediários e aumentar o seu grau de pureza para cerca de 99%”, conta o pesquisador Helder Ceragioli, da FEEC. Os métodos de produção descritos na literatura científica costumam deixar impurezas (átomos de ferro, tungstênio ou níquel) que podem ser tóxicas. Segundo as previsões teóricas, quanto mais puro o óxido reduzido de grafeno, menor o risco de causar danos aos tecidos vivos. Nos experimentos, Monique injetou o óxido de grafeno reduzido na circulação sanguínea de ratos e, usando técnicas que permitem o rastreamento do composto no organismo, observou que uma hora mais tarde ele já havia penetrado em es-

Óxido de grafeno reduzido parece mais seguro para abrir a barreira hematoencefálica do que compostos usados hoje

truturas cerebrais como o hipocampo e o tálamo. Por detectar uma redução no nível das proteínas que mantêm unidas as células que revestem os vasos sanguíneos, ela concluiu que o óxido de grafeno reduzido havia aberto a barreira ao criar espaço entre as células que a formam. Monique notou ainda que, algumas horas após a injeção do composto, a barreira voltava a se fechar. O grupo da Unicamp atualmente investiga os possíveis mecanismos bioquímicos que seriam ativados nas células para abrir a barreira. neurônios preservados

Sete dias após a aplicação, a maior parte do composto já havia sido eliminada do organismo, sugerindo que não tende a se acumular e tornar-se tóxico às células. Outros exames constataram que não houve morte neuronal nos roedores tratados e que a morfologia do cérebro permaneceu intacta. O material também não produziu danos nas células sanguíneas nem em órgãos como o fígado e os rins. Além disso, o óxido de grafeno reduzido parece ter vantagens sobre compostos como o manitol, usado pelos médicos para abrir a barreira hematoencefálica. “O óxido de grafeno reduzido é potencialmente mais seguro que o manitol, que altera o fluxo de líquidos no sistema nervoso central e pode deixar os neurônios suscetíveis a danos, além de prejudicar o funcionamento dos rins”, comenta o médico Licio Velloso, professor da Faculdade de Ciências Médicas (FCM) da

Unicamp. Velloso atualmente investiga alterações no organismo que mudam a permeabilidade da barreira e considera o óxido de grafeno reduzido um candidato promissor a desempenhar essa função. “No entanto”, ele pondera, “o uso farmacológico das nanopartículas ainda está em fase inicial e são necessários mais estudos para verificar se elas causam efeitos colaterais no longo prazo”. “Os resultados obtidos até agora indicam que o óxido de grafeno reduzido tem potencial para transportar medicamentos até o cérebro ou para abrir a barreira e permitir que outros transportadores levem os fármacos até lá”, conta Maria Alice, que começou a investigar formas de abrir a barreira hematoencefálica há 20 anos, quando estudava o efeito do veneno de aranhas do gênero Phoneutria, as armadeiras. “Como pessoas picadas por essas aranhas apresentavam sintomas neurotóxicos, pressupus que o veneno poderia atravessar a barreira”, lembra. Mais tarde ela verificou que doses baixas abriam a barreira em ratos. Com a dificuldade de isolar o componente do veneno responsável por esse efeito, Maria Alice passou a testar outros compostos. Apesar dos resultados animadores, é cedo para dizer se o óxido de grafeno reduzido poderá ser usado na prática clínica. Antes, é preciso avaliar se ele é seguro para seres humanos e se, de fato, permite a chegada de outros compostos ao cérebro de forma mais eficaz. n

Projeto Óxido de grafeno e sistema nervoso central: Avaliação dos efeitos na barreira hematoencefálica e perfil nanotoxicológico (nº 12/24782-5); Modalidade Bolsa de Doutorado; Pesquisadora responsável Maria Alice da Cruz Höfling (Unicamp); Bolsista Monique Culturato Padilha Mendonça; Investimento R$ 135.835,83 e R$ 31.276,24 (Bepe).

Artigos científicos MENDONÇA, M. C. P. et al. PEGylation of reduced graphene oxide induces toxicity in cells of the blood-brain barrier: An in Vitro and in Vivo Study. Molecular Pharmaceutics. v. 13 (11). 18 out. 2016. MENDONÇA, M. C. P. et al. Reduced graphene oxide: Nanotoxicological profile in rats. Journal of Nanobiotechnology. v. 14 (53). 24 jun. 2016. MENDONÇA, M. C. P. et al. Reduced graphene oxide induces transient blood-brain barrier opening: An in vivo study. Journal of Nanobiotechnology. v. 13 (78). 30 out. 2015. DE PAULA LE SUEUR, L. et al. Breakdown of the bloodbrain barrier and neuropathological changes induced by Phoneutria nigriventer spider venom. Acta Neuropathologica. v. 105 (2), p. 125-34. fev. 2003.

pESQUISA FAPESP 256  z  55


GEOFÍSICA y

Moradores de João Câmara, no Rio Grande do Norte, no início de dezembro de 1986, após um tremor de magnitude 5,3


Tensão sob a terra Caracterização dos movimentos de falhas geológicas na crosta elucida tremores sísmicos no Brasil Everton Lopes Batista

JOSENILDO TENÓRIO / ESTADÃO CONTEÚDO

N

a manhã do dia 2 de maio deste ano um ponto vermelho começou a piscar em um dos monitores de parede do Centro de Sismologia da Universidade de São Paulo, formado pelo Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) e pelo Instituto de Energia e Ambiente (IEE). Era um terremoto de magnitude 4,0, que ocorria a cerca de 3 mil quilômetros (km) dali, na fronteira entre o Peru e a Bolívia, detectado pela Rede Sismográfica Brasileira (RSBR, www.rsbr.gov.br), da qual o centro faz parte. Desde 2010, registrando continuamente episódios como esse, as 80 estações sismológicas da RSBR permitem o detalhamento e o estudo das prováveis causas dos tremores de terra no Brasil. Dotadas de um sismógrafo e de um transmissor de dados, as estações são gerenciadas por universidades, institutos de pesquisa e empresas. Com base nos dados da RSBR, em estudos anteriores e em análises das ondas geradas pelos tremores de terra, pesquisadores da USP, da Universidade Estadual do Oeste do Pará e Universidade da Califórnia em Davis, nos Estados Unidos, identificaram os tipos e a direção das tensões que causam a movimentação das falhas geológicas – as rupturas dos grandes blocos de rocha superficiais – na América do Sul. A quebra dos blocos de rocha da crosta, a camada mais superficial do planeta, libera uma energia que se expressa na forma de terremotos. Os pesquisadores estudaram os movimentos horizontais ou verticais das falhas geológicas, os chamados mecanismos focais, associados a quase 400 terremotos da América do Sul, a maioria ao longo da cordilheira dos

Andes e 76 no Brasil. No artigo publicado em novembro de 2016 na revista Journal of South American Earth Sciences, eles argumentaram que a identificação do padrão de tensão da crosta poderia fornecer novas informações sobre os movimentos das placas litosféricas, formadas pelas camadas mais externas da Terra, complementando os modelos matemáticos adotados para descrever esses fenômenos. A caracterização da direção e do tipo dos movimentos das falhas geológicas ajudou a compreender as tensões que geraram os três tremores registrados nas últimas décadas no estado do Amazonas e o maior de todos já ocorrido no Brasil. Em 1690, um terremoto com magnitude estimada em 7,0 revirou a terra, derrubou árvores e ergueu no rio Amazonas ondas que alagaram povoados, a 45 km de onde hoje é Manaus, de acordo com o relato de jesuítas da época (ver Pesquisa FAPESP nº 224). “Os mecanismos focais revelam a direção dos esforços que causaram o movimento das falhas geológicas, mas não as causas das falhas”, explica o geofísico Fabio Luiz Dias, pesquisador da USP, atualmente no Observatório Nacional, no Rio de Janeiro, e um dos autores desse estudo. “Antes do nosso trabalho, a determinação do mecanismo focal desses tremores não era possível em virtude da limitação das técnicas existentes.” O aprimoramento dessa metodologia permitiu a identificação do mecanismo focal de 12 tremores mais próximos das estações sismográficas, com magnitude de 3,0 a 5,3, ocorridos no Brasil desde 1992, cujas causas permaneciam incertas. Agora, com base nessa abordagem, o tremor de magnitude 4,0 ocorrido em Montes Claros, norte de Minas Gerais, em pESQUISA FAPESP 256  z  57


2012, está associado à movimentação de uma falha geológica a apenas 1 km de profundidade, sob um dos bairros do município mineiro. A ruptura das rochas sob a superfície é o resultado da compressão ou do estiramento da crosta. Os dois efeitos expressam a pressão aplicada principalmente pela expansão da cordilheira meso-oceânica, que ocupa a região central do oceano Atlântico, e pelo mergulho da placa tectônica de Nazca sob a placa Sul-americana, sobre a qual está o Brasil. “Constatamos que a maioria dos terremotos da região Sudeste e do Pantanal são gerados por tensões que concordam com essa compressão leste-oeste”, afirma Dias. A compressão horizontal das rochas da crosta explica também o tremor de magnitude 3,6 ocorrido na madrugada de 6 de janeiro de 2006 no município de Telêmaco Borba, no Paraná. “Caracterizar a movimentação da falha geológica associada a esse tremor foi um dos dados mais surpreendentes desse trabalho, porque são escassos os registros de tremores para a região Sul”, afirma Dias. Em busca de mais informações, uma equipe coordenada pelo geofísico Marcelo Assumpção, coordenador do Centro de Sismologia e professor do IAG-USP, está implantando cerca de 40 estações sismológicas no Sul do país, em colaboração com instituições da Argentina, do Uruguai, do Paraguai e da Bolívia. De acordo com o estudo publicado na South American Earth Sciences, toda a região equatorial do Brasil – do Rio Grande do Norte até a foz do rio Amazonas – está sujeita a um mesmo tipo de tensão geológica: “A superposição de uma compressão paralela à costa, na direção leste-oeste com uma extensão devido ao contraste da densidade das crostas continental e oceânica”, descreve Dias. Esse tipo de tensão foi a causa de um tremor de magnitude 4,3 em Vargem Grande, no Maranhão, o evento de maior magnitude dos últimos quatro anos no Brasil, ocorrido em janeiro de 2017. “A estação sismológica mais próxima está a 40 quilômetros 58  z  junho DE 2017

JOÃO MIRANDA /O TEMPO /FOLHAPRESS

Tremor de magnitude 4,0 destruiu a sacada desta casa de Montes Claros (MG) em dezembro de 2012

Ceará, Rio Grande do Norte, sul de Minas Gerais e Pantanal são as regiões sob maior risco de sofrer abalos

do epicentro desse tremor, o que ajudou a determinar seu mecanismo focal com boa precisão”, afirma Assumpção. Nas regiões Norte e Centro-Oeste, também predominam as compressões da crosta, mas na direção noroeste-sudeste. As causas dessa orientação diferente são incertas, mas, para os especialistas, poderiam estar relacionadas com movimentos de convecção do manto na região da Amazônia. Inversamente, nos estados do Ceará e do Rio Grande do Norte a crosta está sendo esticada, por causa da proximidade da costa e da ação da gravidade, de acordo com Assumpção. Segundo ele,

há uma tendência de a crosta continental se esparramar em direção ao oceano, “causando uma tensão de tração”. No Nordeste, além da crosta ser menos espessa, a litosfera, a camada formada pela crosta e pela camada superior do manto, também é mais fina do que no interior do país, o que facilita a ocorrência de terremotos. “Onde a litosfera é mais fina, a pressão que vem do encontro das placas litosféricas vizinhas se distribui por uma área menor, concentrando as tensões e facilitando a ocorrência de rupturas nas falhas geológicas.” Como no Nordeste, onde os sismos são mais frequentes, no Centro-Oeste há áreas em que a crosta terrestre é mais fina. A diferença é que, na região central, o manto, a camada mais densa abaixo da crosta, é mais raso do que em outras regiões. Como resultado, a litosfera, formada pela crosta e pela camada mais externa do manto, curva-se e trinca, gerando os tremores de terra (ver Pesquisa FAPESP no 207). Risco de terremotos

As informações da RSBR indicaram as regiões com maior risco de serem atingidas por tremores de terra: os estados do Ceará e Rio Grande do Norte, o sul de Minas Gerais e o Pantanal mato-grossense, de acordo com o mapa de risco sísmico apresentado em dezembro de 2016 no Boletim da Sociedade Brasileira de Geofísica. No artigo que contém o mapa, os pesquisadores informam que, no Brasil, apenas instalações críticas fa-


Possível origem dos terremotos Mapa dos movimentos de compressão ou estiramento (tração) de falhas geológicas e localização dos tremores no Brasil Metros 2000

1000

0

-1000

Profundidade (km) Magnitude

0-60

70-200 550-650

-2000

3 4

-3000

5 6

-4000

Compressão Tração

-5000 Fonte sbg/iag-usp

zem análises sismológicas sistematicamente, como usinas nucleares e barragens hidrelétricas. “Aqui quase ninguém planeja a construção de casas e edifícios em função dos possíveis sismos, que podem ocorrer em qualquer lugar”, afirma o geofísico Lucas Vieira Barros, professor da Universidade de Brasília (UnB). O poder de destruição de um terremoto não depende apenas da magnitude do tremor. A qualidade das construções e a capacidade de resposta da população podem aumentar ou diminuir o impacto. No Brasil, com base em registros históricos, ocorrem em média dois tremores de magnitude 6,0 ou maior por século, enquanto nos Andes os eventos com essa intensidade são mensais. “Um terremoto resulta da liberação abrupta de energia, acumulada ao longo de muitos anos, mas logo após um sismo a energia começa a se acumular outra vez”, diz Barros. Por essa razão, um tremor de mesma magnitude poderia ocorrer no mesmo lugar, muitos anos depois. Essa perspectiva pode ser inquietante para regiões como o município de Porto dos Gaúchos, norte de Mato Grosso. Ali ocorreu o maior terremoto já registrado

no Brasil, de magnitude 6,2, em 1955, dois anos antes da chegada dos primeiros colonizadores à região. Hoje vivem cerca de 300 mil pessoas num raio de 100 quilômetros em torno do epicentro desse abalo. Por meio de sismógrafos, Barros e sua equipe identificaram uma falha geológica com 5 km de comprimento, evidenciando o risco de outro tremor avassalador. Em abril de 2009, um terremoto de magnitude semelhante, 6,3, arrasou a cidade italiana de L’Aquila e causou a morte de quase 300 pessoas. A ideia de que os terremotos no Brasil são inofensivos está começando a mudar em razão de episódios trágicos. Em 2007 um abalo de terra de magnitude 4,9 na comunidade rural de Caraíbas, no município de Itacarambi, norte de Minas Gerais, fez a primeira vítima fatal decorrente de terremoto no país, uma criança de 5 anos de idade, e pôs abaixo quase todas as casas do bairro. Resposta rápida

No Centro de Sismologia, três monitores recebem dados via satélite ou de internet das 80 estações sismológicas. Outros três acompanham a movimentação do site do

IAG (sismo.iag.usp.br) e da página do centro no Facebook (facebook.com/sismoUSP), pelos quais chegam relatos de terremotos no Brasil. Desde 2015, o site já recebeu mais de 700 relatos, a maior parte de moradores das regiões Sudeste e Nordeste. Foi assim que a equipe do IAG soube dos tremores em Jurupema, distrito de 2 mil habitantes no município de Taquaritinga, interior paulista, no início deste ano. “O que mais assusta é o estouro que vem debaixo da terra e o barulho que parece vir da tubulação do esgoto”, relatou o empresário Paulo César Andreguetto, de 46 anos, que trabalha em Jurupema. Em resposta, os pesquisadores instalaram o primeiro sensor em Jurupema em abril e outros três nos meses seguintes, já que os tremores se tornaram frequentes – no final de maio, já haviam passado de 100. Os tremores são de intensidade baixa, não atingem magnitude 2,0, mas, por surgirem próximos ao solo, assustam os moradores, fazem tremer as janelas e os quadros caírem das paredes. “Os tremores em Jurupema ocorrem com maior frequência quando chove mais”, observa José Roberto Barbosa, técnico do Centro de Sismologia responsável pela instalação dos sensores em Taquaritinga. Segundo ele, a hipótese provisória é de que os poços para extração de água perfurados há pouco tempo contribuam para os abalos, como já aconteceu em Bebedouro, também no interior paulista (ver Pesquisa FAPESP no 170). As perfurações poderiam intensificar as fraturas das rochas basálticas sob a superfície. Por causa desses poços, supõe-se que, quando chove, a água penetre mais facilmente e em maior quantidade pelas fraturas das rochas, atuando como um lubrificante e ajudando a liberar as tensões acumuladas nessas fraturas. “Os poços anteciparam um tremor que deveria acontecer somente daqui a uns 100 anos”, supõe Barbosa. n

Projeto Mecanismos focais no Brasil com modelagem em forma de onda (nº 14/26015-7) Modalidade Bolsa de Doutorado; Pesquisador responsável Marcelo Sousa de Assumpção (USP); Bolsista Fabio Luiz Dias; Investimento R$ 59.667,09.

Artigo científico Assumpção, M. et al. Intraplate stress field in South America from earthquake focal mechanisms. Journal of South American Earth Sciences. v. 71. p. 278-95. 2016.

pESQUISA FAPESP 256  z  59


astrofísica y

Uma colisão

reveladora Ondas gravitacionais emitidas por fusão de buracos negros confirmam a existência de uma nova população desses objetos celestes Ricardo Zorzetto

A

Concepção artística dos buracos negros que se fundiram e produziram as ondas gravitacionais detectadas pelo Ligo 60  z  junho DE 2017

s galáxias podem conter uma população pequena e esparsa de buracos negros com massa bem superior à daqueles conhecidos até bem pouco tempo atrás. Esses buracos negros mais encorpados, com massa algumas dezenas de vezes superior à do Sol, parecem se formar em eventos catastróficos e raros: o choque e a fusão de dois buracos negros com massa menor, detectados pela primeira vez no final de 2015 pelos instrumentos do Observatório Interferométrico de Ondas Gravitacionais (Ligo). Em um artigo publicado em 1º de junho na revista Physical Review Letters, os pesquisadores do Ligo descrevem o terceiro evento já registrado desse tipo e também o mais distante. O choque e a fusão de buracos negros apresentados agora ocorreram a 3 bilhões de anos-luz da Terra. É o resultado da colisão de um buraco negro de 31,2 massas solares com outro de 19,4. Dela, nasceu um buraco negro com massa 48,7 vezes superior à do Sol. Na fração de segundo que durou o evento, foi liberada uma quantidade colossal de energia – equivalente à armazenada na massa de duas estrelas como o Sol – na forma de ondas gravitacionais. Previstas pela teoria da relatividade geral formulada em 1915 por Albert Einstein, essas sutis defor-


ilustraçãO Aurore Simonnet – Sonoma State University / Caltech / MIT / LIGO

origem incerta

Antes, só havia notícias de buracos negros estelares, resultado da morte explosiva de estrelas, com menos de 20 massas solares. “Eram objetos completamente diferentes, encontrados em nossa própria galáxia, a Via Láctea, que não haviam se originado da fusão de sistemas binários de buracos negros”, afirma o físico italiano Riccardo Sturani, professor da Universidade Federal do Rio Grande do Norte, que, assim como o físico Odylio Aguiar e sua equipe no Instituto Nacional de Pesquisas Espaciais (Inpe), integra a colaboração Ligo. Sturani estuda a dinâmica de sistemas binários de buracos negros e as ondas

Os peso-pesados da família

Buracos negros detectados pelo Ligo Massa (medida em massas solares)

mações no espaço-tempo se propagam no vácuo à velocidade da luz e viajaram por 3 bilhões de anos até aqui. No dia 4 de janeiro deste ano – precisamente às 10 horas, 11 minutos e 58 segundos no horário universal, eram duas horas mais cedo no horário de Brasília –, os dois detectores do Ligo, situados a 3 mil quilômetros de distância um do outro nos Estados Unidos, registraram quase simultaneamente a passagem dessa onda gravitacional pelo planeta. A detecção atual ocorreu poucas semanas após o início da segunda campanha de coleta de dados do Ligo, depois que seus detectores passaram por um aprimoramento que os tornou mais sensíveis. Antes, duas outras detecções diretas de ondas gravitacionais haviam sido confirmadas: a primeira em setembro de 2015, resultado do nascimento de um buraco negro com 62 massas solares a 1,3 bilhão de anos-luz da Terra, e a segunda, em dezembro daquele ano, de um buraco negro de 21 massas solares que se formou um pouco mais longe, a 1,4 bilhão de anos-luz daqui (ver bit.ly/ GravOndas e Pesquisa FAPESP nº 241). “Temos mais uma confirmação da existência de buracos negros de origem estelar com massa superior a 20 massas solares”, informou o físico David Shoemaker, do Instituto de Tecnologia de Massachusetts (MIT), no comunicado à imprensa que noticiou a terceira detecção de uma onda gravitacional. Ele foi eleito recentemente porta-voz da colaboração científica Ligo, que reúne quase mil pesquisadores de vários países, inclusive o Brasil. “Esses são objetos que desconhecíamos até o Ligo detectá-los.”

Fusão

Detecção não confirmada

Buracos negros detectados por

GW150914

emissão de raios X GW170104 LVT151012 GW151226

Resultado de fusões, os buracos negros detectados pelo Ligo (em azul) têm massa mais elevada do que se esperava. Antes, só se conheciam buracos negros com massa inferior a 20 massas solares (em roxo), identificados a partir da radiação que emitem na frequência dos raios X.

gravitacionais que produzem ao se fundirem. “Os buracos negros detectados pelo Ligo devem se originar da explosão de estrelas com massa muito elevada”, supõe o físico italiano. “Mas ainda não sabemos se, nessas duplas, os buracos negros surgem da explosão de estrelas que se formaram e sempre viveram próximas ou se eles aparecem separadamente e depois se aproximam, capturados pela atração gravitacional um do outro.” Os resultados apresentados no início de junho são incrementais e menos impactantes do que os publicados anteriormente pela colaboração Ligo. Ainda assim, trazem alguma pista sobre o que pode ter ocorrido com a dupla de buracos negros detectada neste ano. A forma das ondas gravitacionais emitidas na fusão sugere que eles não giravam no mesmo sentido antes de colidir, o que seria de esperar se tivessem se formado juntos. Por essa razão, suspeita-se que tenham surgido independentemente no interior de um grande aglomerado de estrelas e apenas depois se unido. “Estamos começando a reunir estatísticas de sistemas binários de buracos negros”, contou à imprensa o físico Keita Kawabe, do Instituto de Tecnologia da Califórnia (Caltech). Para Sturani, ainda é preciso detectar outros 20 ou 30 eventos como esses para que se possa dizer, com algum poder estatístico, qual dos dois modelos descreve melhor o que ocorre na natureza.

“As três detecções de ondas gravitacionais feitas pelo Ligo começam a revelar que existe uma população desses objetos”, comenta o físico Rodrigo Nemmen, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP), que não participa do Ligo. Ele estuda o comportamento de buracos negros estelares e afirma que os resultados do Ligo devem levar à revisão dos modelos de evolução estelar. “Importantes mudanças no conhecimento, como as produzidas por Galileu e Copérnico, foram consequência de avanços nos aparatos instrumentais”, lembra Nemmen. “O Ligo faz o mesmo ao permitir estudar esses fenômenos muito energéticos que não emitem luz e nos mostrar algo que não esperávamos.” n

Projetos 1. Pesquisa em ondas gravitacionais (nº 13/045385); Modalidade Programa Jovens Pesquisadores; Pesquisador responsável Riccardo Sturani (IFT-Unesp); Investimento R$ 256.541,00. 2. Gravitational wave astronomy – FAPESP-MIT (nº 14/50727-7); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Riccardo Sturani (IFT-Unesp); Investimento R$ 29.715,00. 3. Nova física no espaço: Ondas gravitacionais (nº 06/56041-3); Modalidade Projeto Temático; Pesquisador responsável Odylio Denys de Aguiar (Inpe); Investimento R$ 1.019.874,01.

Artigo científico ABBOTT, B. P. et al. GW170104: Observation of a 50-solarmass binary black hole coalescence at redshift 0.2. Physical Review Letters. 1º jun. 2017.

pESQUISA FAPESP 256  z  61


Metrologia y

Para

manter

O

peso A constante de Planck deve substituir o cilindro metálico usado desde 1889 como referência internacional do quilograma

62  z  junho DE 2017

D

epois de décadas de debates, físicos e outros especialistas em medições, os metrologistas, estão finalizando a redefinição do conceito de quilograma, a unidade básica de medida da massa no Sistema Internacional de Unidades (SI). A partir de 2018, se os planos derem certo, o quilograma usado como referência mundial para mensurar a quantidade de matéria dos corpos deixará de ser representado por um objeto: o protótipo internacional do quilograma, um cilindro feito de uma liga especial de irídio e platina com massa igual à de 1 litro de água muito pura (destilada). No lugar desse cilindro metálico, guardado a vácuo desde 1889 sob redomas de vidro no Escritório Internacional de Pesos e Medidas (BIPM), em Sèvres, na França, deve-se passar a definir o quilograma a partir de uma constante fundamental da física, uma grandeza que, ao menos em teoria, é universal e não se altera com o tempo. Essa mudança, segundo os físicos, deve democratizar a capacidade de medir-se com precisão o quilograma, uma vez que não se dependerá mais da comparação com o cilindro metálico de Sèvres.


ilustraçãO  daniel kondo  foto Japs 88 / wikimedia commons

Réplica do protótipo exposta no museu Cité des Sciences et de l’Industrie, em Paris

A grandeza invariável que servirá de base para definir o quilo é a constante de Planck. Proposta em 1900 pelo físico alemão Max Planck (1858-1947), essa constante, representada pela letra h, estabelece uma relação entre a energia das partículas de luz (fótons) e a frequência com que elas vibram. É medida em unidades de energia ( joule) multiplicadas por unidade de tempo (segundo) e descreve vários fenômenos do universo das partículas elementares. Seu valor é um número extremamente pequeno – aproximadamente 6,63x10-34 joules-segundo, um número com 34 zeros depois da vírgula – que se mede cada vez com mais precisão. Embora o valor de uma constante seja inalterável, seus valores medidos mudam conforme o grau de precisão das diferentes medições. Como essa precisão nunca é absoluta, é impossível conhecer o valor absoluto de uma constante. Para contornar o problema, físicos e metrologistas devem estabelecer um valor consensual, a ser definido em julho deste ano, para a constante de Planck. A relação entre essa constante, que trata de fenômenos do mundo subatômico, e a massa equivalente à de 1 litro de água pura não é óbvia. Ela emerge de experimentos propostos no final dos anos 1950 para medir com mais precisão o valor do ampere, a unidade de medida da corrente elétrica. Para esses experimentos, criou-se um aparelho – mais tarde chamado de balança de watt – que funciona equilibrando duas forças, como as balanças usadas até tempos atrás para pesar alimentos nas feiras-livres. Nessas balanças, com dois pratos suspensos por uma barra, a massa a ser medida é colocada em um dos lados e deve entrar em equilíbrio com objetos (contrapesos) de massa conhecida, posicionados no outro. Já a balança de watt substitui o efeito dos contrapesos pelo de uma força magnética. Em meados dos anos 1970, o físico e metrologista inglês Bryan Kibble, do Laboratório Físico Nacional (NPL), em Teddington, Inglaterra, mostrou como a balança de watt podia ser usada para

Essa é a última das principais unidades internacionais de medida ainda definida com base em um objeto

medir tanto a massa de um objeto como a constante de Planck de modo muito preciso. O segredo da precisão dessa balança – depois aprimorada pelo Instituto Nacional de Padrões e Tecnologia (Nist), dos Estados Unidos, e renomeada em 2016 para balança de Kibble – é o seu funcionamento em duas etapas. Em um primeiro momento, coloca-se o objeto cuja massa será medida em um dos pratos da balança, que está imerso no campo magnético de um grande ímã. A ação da gravidade sobre essa massa gera uma força chamada peso, que faz o prato baixar. Como o prato está imerso

no campo magnético do ímã, a passagem de uma corrente elétrica pela bobina instalada na base do prato produz uma força magnética (de mesma intensidade e sentido contrário) que se contrapõe à força-peso. Assim, mede-se com precisão a corrente elétrica que equilibra perfeitamente o prato – essa corrente é proporcional ao peso e, portanto, à massa. Para haver o equilíbrio, a força-peso tem de ser igual à força magnética, definida por uma constante multiplicada pela corrente. O problema, então, é determinar com alta precisão o valor da constante. Aí entra a genialidade de Kibble. Ele percebeu que, realizando outra medição, torna-se desnecessário conhecer o valor dessa constante. Em uma segunda operação, retira-se o objeto do prato e prende-se o fio que o sustenta a um motor, que faz a bobina se mover na vertical sempre com a mesma velocidade. O movimento da bobina no interior do campo magnético induz nela o surgimento de uma voltagem, proporcional à velocidade de deslocamento. Essa voltagem é definida pela velocidade de deslocamento dividida por uma constante, justamente aquela da primeira etapa de medição. Como existe uma relação de proporcionalidade entre a corrente e a voltagem, uma operação matemática permite eliminar essa constante das equações e definir a massa do objeto em função da velocidade. Na medição da corrente e da voltagem, usam-se equipamentos feitos de pESQUISA FAPESP 256  z  63


Em julho, especialistas devem definir o valor da constante de Planck a ser usado no cálculo da unidade de massa

Contando átomos

A busca de novos critérios para definir o quilo começou na década de 1980, quando se constatou um problema com o cilindro metálico de Sèvres: o quilograma usado como referência mundial estava perdendo massa, possivelmente por sua manipulação na limpeza ou pela evaporação do material que o compõe. Medi-

64  z  junho DE 2017

Esfera de silício usada no Projeto Internacional Avogadro

ções realizadas de tempos em tempos no último século revelaram também que a massa das cópias do quilo distribuídas pelo mundo oscilava – algumas ganhavam e outras perdiam frações de 1 grama. Mesmo muito pequena, essa variação é indesejável para uma unidade de medida. É que, para servir como base de comparação, o padrão que define essa unidade deve ser quantificado com a maior precisão possível e permanecer inalterado ao longo do tempo. Em 2011, a Conferência Geral sobre Pesos e Medidas (CGPM), organização internacional com 51 estados-membros, entre eles o Brasil, reconheceu oficialmente as limitações do quilograma padrão e decidiu que a unidade de massa deveria ser redefinida a partir do valor das constantes fundamentais da física, medidas de forma cada vez mais precisa. Uma comissão de especialistas da CGPM decidiu que a unidade de massa deveria ser estabelecida a partir da constante de Planck. Antes, no entanto, recomendou que o valor da constante fosse definido a partir das três medições mais precisas, feitas usando ao menos dois métodos diferentes – o resultado das medições com as técnicas distintas deveria ser concordante e apresentar um nível de incerteza inferior a um valor preestabelecido. O primeiro desses métodos consiste em definir o valor da constante de Planck a partir da contagem dos átomos de uma esfera de silício puro com massa de 1 quilograma. A contagem dos átomos dessa esfera permite calcular o valor da constante de Avogadro, que indica o número de partículas em uma determinada massa, e, posteriormente, chegar ao valor da constante de Planck. Contando os átomos dessas esferas especiais – há apenas duas no mundo, cuidadosamente produzidas a um custo de US$ 3,2 milhões cada –, os pesquisadores do Projeto Internacional Avogadro já conseguiram medir o valor da constante de Avogadro, e consequentemente da de Planck, com uma imprecisão de 30 partes por bilhão. Esse grau de exatidão corresponderia a medir um quarteirão de 100 metros de comprimento com uma variação de micrômetros. A outra forma de medir a constante de Planck usa a balança de watt. Trabalhando com uma das versões mais recentes da balança produzida pelo Nist, o físico Stephan Schlamminger e sua equipe mediram a constante de Planck com uma

fotos 1 Commonwealth Scientific and Industrial Research Organisation (Csiro)  2 ANDREW BROOKES, NATIONAL PHYSICAL LABORATORY / SCIENCE PHOTO LIBRARY

materiais especiais que funcionam como supercondutores a baixíssimas temperaturas. Nesses materiais, as correntes e as voltagens são quantizadas, o que significa que só assumem valores múltiplos da constante de Planck. Hoje, diferentes grupos usam a balança de watt para, por meio dessa sequência de procedimentos, medir o valor da constante de Planck a partir de uma massa previamente conhecida – no caso, eles usam o protótipo do quilograma e suas réplicas, cuja massa se conhece com muita precisão. Assim que as medições atingirem um grau aceitável de precisão, o cilindro de Sèvres e suas cópias se tornarão desnecessários para as futuras aferições. É que, embora bem conhecida, a massa desses cilindros deve continuar mudando, enquanto o valor da constante, uma vez obtido com precisão, permitirá usar a balança de watt para medir a massa que corresponde a exatamente 1 quilograma de modo muito preciso e sem alteração ao longo do tempo.


Na balança de watt, uma força magnética faz o papel dos contrapesos das balanças antigas

incerteza de 34 partes por bilhão. Esse resultado, publicado em 2016 na revista Review of Scientific Instruments, indica que a balança de watt de quarta geração, Nist-4, em operação desde 2015, seria acurada o suficiente para ser usada para redefinir o quilograma. Mais recentemente, pesquisadores do Conselho Nacional de Pesquisa (NRC) do Canadá, usando a balança de watt produzida por Kibble nos anos 1970, obtiveram uma incerteza menor, de nove partes por bilhão. Esses e outros grupos terão de submeter seus resultados até julho deste ano à CGPM, que estabelecerá o valor a ser usado no cálculo do quilograma. “O valor da constante de Planck já atingiu um grau de precisão mais do que suficiente para ser usado na nova definição do quilograma”, diz o físico Vanderlei Bagnato, professor do Instituto de Física de São Carlos (IFSC) da Universidade de São Paulo. Ele preside a comissão das constantes fundamentais da União Internacional de Física Pura e Aplicada (Iupap), uma das instituições que colaboram para a redefinição do qui-

lograma e que deverá discutir o assunto em sua reunião anual, que se realizará pela primeira vez em São Paulo em outubro deste ano. “Não precisamos mais depender de um artefato como o cilindro metálico de Sèvres”, acrescenta. à moda antiga

O quilograma é a última das sete principais unidades internacionais de medida ainda aferida com base em um objeto – a mensuração das outras já é feita há anos por meio de constantes fundamentais da física. Com a alteração, que pode valer a partir de 2018, a aferição deve se tornar mais confiável, o que tem importância óbvia para a física – o quilograma entra na definição de outras 20 unidades de medida – e para o comércio internacional. Em princípio, também deve se tornar mais acessível a averiguação do valor do quilo. Qualquer laboratório com tecnologia suficiente para produzir uma balança de watt bastante precisa será capaz de medir com exatidão a massa dos corpos, dispensando a necessidade de ter acesso ao artefato guardado na França.

A nova forma de medir o quilograma não afetará o dia a dia das pessoas. “Nada mudará na vida de quem frequenta as padarias, lojas, supermercados ou aeroportos”, diz o físico Humberto Brandi, professor titular aposentado da Universidade Federal do Rio de Janeiro (UFRJ) e diretor de metrologia científica do Instituto Nacional de Metrologia, Qualidade e Tecnologia (Inmetro). “Essa mudança beneficiará o comércio internacional de produtos manufaturados de alta tecnologia e das áreas da saúde.” A chamada metrologia científica tem um papel importante, por exemplo, no controle de qualidade de produtos exportados e importados, ajudando no estabelecimento de padrões internacionais de comércio – principalmente em produtos de alta tecnologia. n

Artigos científicos HADDAD, D. et al. Invited article: A precise instrument to determine the Planck constant, and the future kilogram. Review of Scientific Instruments. v. 87. 061301. 2016. MANA, G. et al. The correlation of the NA measurements by counting 28Si atoms. Journal of Physical and Chemical Reference Data. v. 44. 031209. 2015

pESQUISA FAPESP 256  z  65


tecnologia  sistemas Aeroespaciaisy

Propulsão verde Inpe e Aeronáutica desenvolvem motor e combustível sustentável para uso em foguetes e satélites 66  z  junho DE 2017


Yuri Vasconcelos

U

Sequência da reação química entre gota de peróxido de hidrogênio e o combustível formado por etanol, etanolamina e sais de cobre. A temperatura chega a 900 ºC e os gases fariam a propulsão de um satélite fotos  léo ramos chaves

em órbita. O experimento foi realizado no Inpe, em Cachoeira Paulista

tilizar um combustível renovável para foguetes e satélites, com baixo índice de toxicidade, menos agressivo à saúde humana e mais amigável ao meio ambiente, é o objetivo de dois grupos de pesquisa brasileiros, um do Instituto Nacional de Pesquisas Espaciais (Inpe) e outro no Instituto de Aeronáutica e Espaço (IAE), braço de pesquisa do Departamento de Ciência e Tecnologia Aeroespacial (DCTA) do Comando da Aeronáutica. No Inpe, cientistas do Laboratório Associado de Combustão e Propulsão (LCP), em Cachoeira Paulista (SP), desenvolveram um novo combustível espacial, também chamado de propelente, que tem entre seus ingredientes o etanol e o peróxido de hidrogênio, a popular água oxigenada. Um diferencial do combustível é que ele não precisa de uma fonte de ignição, como uma faísca, para entrar em combustão e fazer o motor funcionar. No IAE, em São José dos Campos (SP), a pesquisa foi realizada em conjunto com o Centro Aeroespacial Alemão (DLR), direcionada ao desenvolvimento de um motor para veículos lançadores de satélite que funcione com etanol e oxigênio líquido. Os principais propelentes utilizados em foguetes e satélites são a hidrazina, que é o combustível, e o tetróxido de nitrogênio, a substância que provoca a reação de queima. Essas substâncias apresentam bom desempenho em propulsores, mas têm desvantagens. Além de serem caros, a hidrazina e seus derivados são cancerígenos, o que requer um cuidado muito grande com o seu manuseio. Já o tetróxido de nitrogênio pode ser fatal após alguns minutos de exposição, em caso de vazamento ou má manipulação. A busca por um combustível espacial alternativo, menos nocivo à saúde e ao ambiente, não é uma exclusividade de instituições brasileiras. “Agências espaciais de vários países – entre elas a Nasa, dos Estados Unidos – fazem pesquisa nesse sentido [ver quadro na página 68]”, afirma o engenheiro Carlos Alberto Gurgel Veras, diretor da Divisão de Satélites, Aplicações e Desenvolvimento da Agência Espacial Brasileira (AEB). “Como o Brasil pESQUISA FAPESP 256  z  67


Maquete do foguete L75 desenvolvido no IAE, que funciona com etanol e oxigênio líquido

não domina o ciclo de produção dos propelentes tradicionais usados em motores de foguetes, desenvolver um combustível alternativo a eles seria um avanço significativo para o setor”, destaca Gurgel. Ter um combustível de fácil aquisição no país, em grande parte renovável e a preços baixos, faz parte do pacote de desenvolvimen-

to tecnológico a ser conquistado pela indústria aeroespacial brasileira. Há mais de 20 anos, o Inpe desenvolve satélites de pequeno porte de coleta de dados ambientais e, em conjunto com a China, para sensoriamento remoto, destinados à captação de imagens da superfície terrestre. Todos foram lançados por foguetes estrangeiros. O Brasil possui tecnologia de motores de propulsão com combustíveis sólidos para pequenos foguetes usados em experimentos científicos e tecnológicos. “Nosso principal objetivo é dominar as tecnologias necessárias para o desenvolvimento de um motor de foguete movido a propelente líquido. Para lançar satélites de grande porte é imprescindível o emprego desse tipo de propulsão”, afirma o engenheiro metalúrgico Daniel Soares de Almeida, gerente do projeto no IAE. Especialista em combustíveis de foguetes e professora do curso de engenharia aeroespacial da Universidade Federal do ABC (UFABC), em São Bernardo do Campo (SP), a engenheira química Thais Maia Araujo considera importante que o Brasil trabalhe na criação de um propelente renovável para o setor. “O combustível em desenvolvimento no Inpe, além de ser mais seguro e fácil de manusear, é mais barato do que os propelentes tradicionais e tem o apelo da sustentabilidade. O etanol é um combustível renovável e largamente disponível no Brasil”, comenta. O esforço do Inpe para criar um propelente espacial à base de etanol teve início há três anos.

Alternativas pelo mundo A Nasa e a ESA têm projetos de propelentes que podem substituir com vantagens a hidrazina

A agência espacial norte-americana,

gestora do projeto. Segundo a Ball, o

combustível verde. Um dos projetos

Nasa, planeja testar ainda este ano

novo propelente tem desempenho

é o do monopropelente

um propelente alternativo à

quase 50% superior ao dos sistemas

LMP-103S, desenvolvido pela empresa

hidrazina, tradicional combustível

que usam a hidrazina. Com isso, um

sueca Ecaps, parceira da ESA.

de foguetes. Batizado de AF-M315E,

mesmo tanque pode levar um volume

O principal ingrediente é uma

ele é um líquido à base de nitrato

maior de AF-M315E, ampliando, em

substância conhecida como

de amônia, substância mais fácil de

tese, a duração de missões espaciais.

dinitramida de amônio (ADN), obtida

obter e menos perigosa de manipular

O novo propelente é considerado

por meio de processos químicos cujos

que a hidrazina. Iniciado em 2012,

verde pelos norte-americanos porque

resíduos são menos nocivos ao

o programa Green Propellant Infusion

tem vantagens ambientais, como a de

ambiente quando comparados

Mission (Missão de Desenvolvimento

ser menos tóxico do que a hidrazina.

aos de outros propelentes espaciais.

de Propelente Verde) da Nasa

Ele será usado para manobrar um

Metanol, amônia e água também

conta com a parceria do Laboratório

satélite de pequeno porte no espaço.

entram em sua formulação.

de Pesquisas da Força Aérea dos

Durante 13 meses, serão feitas

Estados Unidos, responsável pela

alterações na altitude e inclinação

a Ecaps, é mais estável, eficiente

criação do combustível, e das

orbital do artefato para demonstrar a

e seguro de ser manuseado do que a

empresas americanas Aerojet

viabilidade do sistema propulsivo.

hidrazina. Com ele é possível

Rocketdyne, que projetou o propulsor, e Ball Aerospace & Technology,

68  z  junho DE 2017

A Agência Espacial Europeia (ESA) também tem candidatos a

O novo combustível, segundo

reutilizar componentes dos sistemas propulsivos que usam a hidrazina.


Bancada de testes de motores no IAE, em São José dos Campos

O combustível com etanol é indicado principalmente para que os satélites se posicionem em órbita

Coordenada pelo químico industrial Ricardo Vieira, chefe do LCP, a pesquisa teve a participação do doutorando Leandro José Maschio, da Escola de Engenharia de Lorena da Universidade de São Paulo (USP). Embora possa ser usado em foguetes, o novo combustível é indicado principalmente para satélites. “Nosso propelente pode ser mais bem utilizado nos chamados motores de apogeu, usados na transferência de órbita de satélites”, explica Vieira. Após serem lançados no espaço, esses aparelhos precisam se posicionar na órbita correta e o deslocamento é feito por propulsores existentes no próprio artefato.

fotos IAE

adição estratégica

O novo propelente, segundo Vieira, tem uma eficiência próxima à dos combustíveis tradicionais. “A composição contém cerca de 30% de etanol, 60% de etanolamina [composto orgânico resultante da reação entre o óxido de etileno e amônia] e 10% de sais de cobre”, conta o chefe do LCP. “A adição de etanol foi puramente estratégica, uma vez que o Brasil é um grande produtor de álcool. Entretanto, durante o desenvolvimento, constatamos que o etanol aumentou o desempenho do motor, reduziu o tempo de ignição da mistura e barateou o combustível.” Para fazer o motor funcionar, a mistura formada por etanol, etanolamina e sais de cobre reage com o peróxido de hidrogênio. “Ele funciona como um

oxidante ao fornecer oxigênio para a reação, elemento inexistente no espaço. O peróxido de hidrogênio se decompõe quando entra em contato com o combustível. A reação é catalisada pelo cobre, gera calor – em torno de 900 oC –, o que provoca a ignição do etanol da etanolamina”, explica Vieira. O resultado é a produção de grande volume de gases, responsável pela propulsão desejada. A combustão espontânea é proporcionada diretamente pelo contato dos componentes químicos. A mistura é controlada por softwares e, havendo possibilidade, pela interferência de técnicos da terra. Outra vantagem é o baixo custo. O Inpe importa hidrazina por cerca de R$ 700 o quilo (kg) e tetróxido de nitrogênio por R$ 1,3 mil/kg. “Estimamos que o combustível à base de etanol e etanolamina venha a ter um custo aproximado de R$ 35/kg e o peróxido de hidrogênio a R$ 15/kg. Como um satélite carrega mais de 100 kg de propelente, a economia é grande nesse aspecto, porém relativamente pequena em relação ao custo final do aparelho”, ressalta Vieira. “Mas se levarmos em conta sua aplicação futura em estágios de foguetes lançadores de satélites, a economia passa a ser bastante significativa.” Para demonstrar que o propelente é viável e funciona, o Inpe projetou e testou em seu laboratório um propulsor empregando o novo combustível com sucesso. De acordo com Vieira, o próximo passo seria fabricar um motor maior e realizar ensaios no vácuo, simulando as condições do espaço. “Segundo o pesquisador, a AEB já demonstrou interesse em financiar a fabricação e os testes de um motor empregando o combustível à base de etanol. “Se estabelecermos bem o ciclo para a realização do projeto e encontrarmos os parceiros certos, creio que o motor movido a etanol e etanolamina pode ficar pronto em 10 anos”, afirma Gurgel. No IAE, a equipe encarregada do projeto de um motor de foguete alimentado por etanol deu pESQUISA FAPESP 256  z  69


Teste do motor L75 realizado em 2016 no Centro Espacial Alemão, em parceria com pesquisadores brasileiros

desempenho duplo

O projeto do motor L75 teve início no IAE em 2008 e cinco anos depois passou a contar com a colaboração de técnicos e cientistas do DLR. Nos ensaios feitos este ano na Alemanha, foram testados dois cabeçotes de injeção de combustível com conceitos distintos, desenvolvidos simultaneamente por pesquisadores do IAE e do DLR. O objetivo dos ensaios foi verificar parâmetros de desempenho de combustão e definir a melhor tecnologia propulsiva. Os dois cabeçotes diferem na forma como o combustível é pulverizado na câmara de combustão e misturado ao oxigênio. “Nessa primeira série de ensaios, os principais objetivos foram atingidos”, ressaltou a engenheira aeroespacial alemã Lysan Pfützenreuter, gerente do projeto no DLR. “Foi realizado com êxito um total de 42 ignições durante um período de 20 dias. Pudemos analisar de perto, entre outras coisas, o comportamento e a estabilidade do sistema durante a ignição e o arranque na câmara de empuxo.” Análises preliminares dos resultados mostraram que os dois cabeçotes tiveram desempenho similar. A cooperação entre o IAE e o DLR remonta o final da década de 1960, quando o Centro de Lançamento da Barreira do Inferno (CLBI), no Rio Grande do Norte, foi usado para lançar foguetes relacionados a experimentos científicos do Instituto Max Planck para Física Extraterrestre. 70  z  junho DE 2017

No final dos anos 1960, foguetes do Instituto Max Planck foram lançados do Centro da Barreira do Inferno

Por volta do ano 2000, a cooperação se fortaleceu com um acordo para o desenvolvimento conjunto de um foguete de sondagem de dois estágios, que viria a ser batizado de VSB-30 e que fez seu voo de qualificação em 2004. Mais recentemente, em 2012, os alemães empregaram um foguete suborbital brasileiro, o VS-40M, para levar ao espaço o experimento Shefex II (Sharp Edge Flight Experiment), cujo objetivo foi desenvolver tecnologias-chave, como sistemas de proteção térmica, para naves espaciais com capacidade de ir ao espaço e retornar à Terra, suportando as duras condições de reentrada na atmosfera. Segundo o IAE, ainda serão necessários cerca de 10 anos para que o motor L75 realize seu primeiro voo de qualificação, quando todos os parâmetros do propulsor serão testados. O projeto foi dividido em quatro etapas (estudo de viabilidade, projeto preliminar, projeto detalhado e qualificação) e encontra-se hoje na conclusão da segunda fase. “A próxima é elaborar o projeto detalhado, o que deve ocorrer entre 2017 e 2021. Depois, para o período 2022-2026, o motor L75 entrará na fase de qualificação, podendo, após esse período, realizar seus primeiros voos”, afirma Almeida. n Projeto Estudo da ignição hipergólica do peróxido de hidrogênio com etanol cataliticamente promovido (nº 14/23149-2); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Ricardo Vieira (Inpe); Investimento R$ 156.558,58.

foto DLR

um passo importante com a realização de testes bem-sucedidos. Os ensaios foram feitos no final do segundo semestre de 2016 nos laboratórios do Instituto de Propulsão Espacial do DLR, em Lampoldshausen, na Alemanha, colaborador do IAE no projeto. O motor L75 emprega etanol de melhor qualidade do que o automotivo e oxigênio líquido. Seu nome é uma referência ao combustível líquido (L) e empuxo do motor (a força que o empurra) de 75 quilonewtons (kN) – o suficiente para tirar do chão um caminhão de 7,5 toneladas.


Engenharia espacial y

Novo satélite de comunicações SGDC trará ganhos tecnológicos para o país e melhorará o sistema de comunicações civil e militar

esa-cnes-arianespace

U

Guiana Francesa: fase final de preparação para ser acoplado ao foguete Ariane

m novo satélite de comunicações para o Brasil foi lançado ao espaço em 4 de maio do Centro Espacial de Kourou, na Guiana Francesa. Além de conferir maior autonomia à comunicação civil e à militar no país, o Satélite Geoestacionário de Defesa e Comunicações Estratégicas (SGDC) também deverá trazer ganhos relevantes para a indústria aeroespacial brasileira porque o contrato de aquisição com a fabricante franco-italiana Thales Alenia Space previu a transferência de tecnologias para empresas brasileiras do setor. O SGDC deve levar o sinal de internet a todos os municípios brasileiros e será a espinha dorsal do sistema de comunicações das Forças Armadas. Atualmente, os satélites utilizados pelo Brasil, tanto na comunicação civil quanto militar, são gerenciados por estações terrestres localizadas fora do país ou controladas por empresas com capital estrangeiro. “Nos dois casos, o país fica vulnerável, porque há risco de o sigilo das informações ser violado e de o serviço ser interrompido em uma situação de conflito de interesse, levando parte das telecomunicações ao colapso”, comenta Eduardo Bonini, presidente da Visiona Tecnologia Espacial, de São JopESQUISA FAPESP 256  z  71


POR DENTRO DO SGDC Aparelho levará o sinal de internet para todo o país e tornará mais seguras as comunicações das Forças Armadas

Painel espelhado: regula a temperatura interna do equipamento

Painéis solares para captação de energia Antena de comunicação

está posicionado a 36 mil km de altitude, 1 OnaSGDC linha do Equador. Nessa órbita, ele gira na mesma direção e velocidade de rotação da Terra. Dos mais de 1.400 satélites operacionais, a metade é de órbita geoestacionária

2 Satélites como o SGDC criam canais de comunicação

entre uma fonte transmissora e outra receptora, situadas em regiões geográficas distintas. São usados para transmissão de dados (televisão, telefone, rádio, internet)

O SGDC vai operar em duas faixas de frequência: a banda X, de uso exclusivo das

3 A principal estação de controle do satélite fica

4 O sinal enviado pelo SGDC é captado por

Forças Armadas, e a

uma rede de antenas distribuídas pelo país,

banda Ka, que será

de Janeiro. Outras cinco são responsáveis por

que levam o sinal para os consumidores.

usada pela Telebras para

enviar para o SGDC sinais eletromagnéticos, que

Aviões e navios também irão usar o SGDC

ampliar a oferta de

são amplificados e rebatidos de volta ao Brasil

para se comunicar com centros de controle

banda larga pelo país

em Brasília – com uma estação back up no Rio

72  z  junho DE 2017


SGDC Satélite Geoestacionário de Defesa e Comunicações Estratégicas Peso

5,8 toneladas Altura

7 metros Vida útil

imagem  esa-cnes-arianespace  infográfico  ana paula campos  ilustraçãO  fabio otubo

18 anos

sé dos Campos (SP), empresa coordenadora do projeto. Fruto de uma parceria entre o Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC) e o Ministério da Defesa, o projeto do SGDC custou R$ 2,1 bilhões. O satélite será operado pela Telebras e terá duas faixas de frequência. A chamada banda Ka, correspondente a 70% de sua capacidade, será usada para ampliar a oferta de banda larga no país, atendendo o Programa Nacional de Banda Larga (PNBL), que prevê levar internet de qualidade para regiões mais carentes em infraestrutura e tecnologia. Já a banda X, com os 30% restantes, será de uso militar. Com 5,8 toneladas e 7 metros de altura, o artefato está em órbita a 36 mil quilômetros da superfície terrestre. O funcionamento pleno do SGDC deve acontecer em seis meses depois do lançamento, período em que ele passa por ajustes técnicos e se posiciona no local exato para cobrir todo o território nacional e parte do oceano Atlântico. A vida útil do aparelho é estimada em 18 anos. Seu desenvolvimento teve início em novembro de 2013, quando a Telebras contratou a Visiona para coordenar o projeto. A companhia, uma joint-venture entre a Embraer e a própria Telebras, havia sido criada um ano antes com foco na integração de sistemas espaciais. “Como naquela época o Brasil não possuía empresas com domínio tecnológico para projetar e construir um satélite do porte e com as especificações do SGDC, procuramos um fornecedor internacional entre as grandes companhias globais do setor”, conta Bonini. Ao fim de um processo seletivo que durou um ano, a franco-italiana Thales Alenia Space foi escolhida como fornecedora do artefato. A responsabilidade por colocar o satélite em órbita ficou a cargo da Arianespace, multinacional francesa que opera os foguetes Ariane a partir da base de lançamentos de Kourou, na Guiana Francesa. TRANSFERÊNCIA DE TECNOLOGIA

Um aspecto relevante do contrato firmado entre a Visiona e a Thales é uma cláusula que obriga a fabricante francesa a repassar tecnologias embarcadas no satélite a empresas e órgãos brasileiros. A Thales, pelo contrato, repassou uma lista de tecnologias espaciais acordada durante a fase de seleção. Em complemento à transferência de tecnologia, também

Engenheiros brasileiros aprenderam a desenvolver softwares para controle da posição do satélite em relação à Terra

foi formulado um Plano de Absorção de Tecnologia Espacial (PAT), coordenado pela Agência Espacial Brasileira (AEB), com a participação da Visiona, do Instituto Nacional de Pesquisas Espaciais (Inpe), do Ministério da Defesa, MCTIC e Telebras. Foram enviados 51 engenheiros brasileiros funcionários dessas instituições à Thales, em Cannes e Toulouse, na França. Eles participaram durante três anos do desenvolvimento do satélite, desde as fases de projeto e engenharia até a construção do equipamento e sua integração ao foguete Ariane V. Os engenheiros fizeram simulações de manutenção de órbita e atitude (posição do satélite em relação à Terra), montagem, integração e testes de módulos e de várias partes do engenho espacial, além da construção de subsistemas. Segundo Bonini, essa cooperação permitiu que os engenheiros brasileiros aprendessem a desenvolver o software de controle de atitude orbital, que, para ele, é o maior obstáculo na construção de satélites no Brasil. “Esse programa garantiu que os engenheiros participassem do desenvolvimento do SGDC, trabalhando lado a lado com técnicos e líderes da Thales em todas as fases do projeto”, conta Petrônio Noronha de Souza, diretor de Políticas Espaciais e Investimentos Estratégicos da AEB. pESQUISA FAPESP 256  z  73


Quatro empresas paulistas e uma gaúcha participam do acordo de transferência de tecnologia

Na Thales Alenia Space, na França, o SGDC (acima) entra em uma câmara de vácuo térmico que simula o ambiente espacial. Ao lado, os painéis solares abertos

Iniciado em 2014, o PAT também capacitou os profissionais da Telebras e os militares que irão trabalhar nas estações de controle do satélite, situadas na Base Aérea de Brasília e em uma área da Marinha na Ilha do Governador, na capital fluminense. Segundo Souza, com a experiência adquirida durante a construção do satélite, os engenheiros também estarão aptos a atuar em futuros projetos espaciais civis ou militares, entre eles aqueles que integram o Programa Nacional de Atividades Espaciais (PNAE) e o Programa Estratégico de Sistemas Espaciais (Pese), que preveem a construção de outros satélites no país com participação de empresas nacionais. Além da qualificação de recursos humanos via PAT, o contrato do SGDC contemplou um Acordo de Transferência de Tecnologia Espacial (ToT) firmado entre a Thales e a Agência Espacial Brasileira (AEB). O documento previu o repasse de cerca de 20 tecnologias críticas de satélites da empresa francesa para fabricantes nacionais, entre elas softwares do sistema de controle de atitude, 74  z  junho DE 2017

componentes do sistema de propulsão e sistemas eletrônicos diversos. Em janeiro de 2015, a AEB divulgou o resultado de uma chamada pública com o nome das cinco primeiras empresas participantes do programa – uma do Rio Grande do Sul e quatro de São Paulo. Conhecimento integrado

A Fibraforte Engenharia, de São José dos Campos, foi selecionada para receber capacitação técnica voltada ao domínio do ciclo de desenvolvimento do sistema de propulsão monopropelente (que usa apenas um combustível) para pequenos satélites, ao passo que a Orbital Engenharia, da mesma cidade, irá absorver

tecnologias aplicáveis à construção de sistemas de potência e geradores solares para satélites. Já a AEL Sistema, com sede em Porto Alegre, recebeu o projeto de transferência de tecnologia de dois tipos de circuitos integrados para aplicações embarcadas em satélites. Instalada no Parque Tecnológico Univap, em São José dos Campos (SP), a Equatorial Sistemas foi designada para receber tecnologias de controle térmico para satélites, e a Cenic Engenharia, também de São José dos Campos, ficou encarregada do desenvolvimento de estruturas mecânicas à base de fibra de carbono para cargas úteis de observação da Terra, como câmeras ópticas.


Além do SGDC, o Brasil utiliza cerca de 45 satélites de comunicação, todos eles pertencentes a companhias privadas, como Globalstar, Iridium e Embratel Star One, detentora da maior frota de satélites do Brasil e da América Latina. Hoje, a Embratel Star One é uma multinacional, pertencente ao grupo mexicano America Movil, que também é dono da operadora de telefonia celular Claro e controla no país nove satélites, entre eles os Star One C1 e C2, usados pelas Forças Armadas brasileiras. SENSORIAMENTO REMOTO

fotos  esa-cnes-arianespace

Montagem do satélite de 7 metros de altura envolveu, além dos técnicos franceses, 51 engenheiros brasileiros

“As cinco empresas estão cumprindo um plano de trabalho e recebendo assistência periódica da Thales. Temos a intenção de fazer uma nova chamada e selecionar mais empresas para participar do programa. Pelo acordo com a Thales, podemos implementar a transferência de tecnologia em até dois anos após o lançamento do satélite, o que já estamos fazendo”, explica Petrônio Souza, da AEB. Segundo ele, um próximo satélite de comunicação brasileiro já deverá contar com equipamentos desenvolvidos por empresas nacionais. “A curto e médio prazo não seremos capazes de fazer um satélite com esse grau de complexidade, mas poderemos implementar vários conteúdos nacionais”, analisa. Bonini, da Visiona, anunciou que a empresa já faz testes em um sistema de controle de atitude e órbita totalmente feito no Brasil. Se der certo, poderá ser utilizado em futuros satélites brasileiros. Com o SGDC, o Brasil regressa ao reduzido grupo de países cujos governos

contam com seu próprio satélite geoestacionário de comunicações, que se encontra sempre em um mesmo ponto fixo no espaço, sobre a linha do Equador a uma altitude de 35.786 quilômetros, e gira na mesma velocidade da Terra. Em 1985, o Brasil entrou nesse grupo por meio do Brasilsat A1 lançado pela Empresa Brasileira de Telecomunicações (Embratel). “A Embratel, na condição de empresa estatal, foi pioneira ao lançar, em 1985, o primeiro satélite geoestacionário de comunicações do país, o Brasilsat A1, de uso essencialmente civil. Nove anos depois, ainda como empresa governamental, colocou em operação o Brasilsat B1, primeiro satélite geoestacionário brasileiro de uso civil e também militar, desativado em 2010”, conta Lincoln Oliveira, diretor-geral da Embratel Star One, nome atual da empresa privatizada em 1998. Na sequência vieram o B3 e o B4, esse último já na fase que o governo havia decidido privatizar as telecomunicações do país.

A integração de todos os componentes do SGDC é o principal projeto da Visiona, que tem em seu quadro de funcionários cerca de 30 engenheiros, quase todos com mestrado, doutorado e com passagem pelo Plano de Absorção de Tecnologia Espacial. “Muitos de nossos profissionais trabalharam anos no Inpe e têm vasta experiência”, afirma Bonini. Segundo ele, ao participar como coordenadora do programa do SGDC, a empresa pôde se estruturar para outros desafios. “Temos condições de construir satélites menores, de 100 quilos, de órbita baixa, entre 600 e mil quilômetros, para aplicações de sensoriamento remoto, meteorologia, observação e coleta de dados”, diz o presidente da Visiona. Enquanto a demanda por novos dispositivos não vem, a empresa aposta em uma outra área de negócio: o desenvolvimento de projetos de sensoriamento remoto no Brasil e em países vizinhos em áreas como defesa, proteção ambiental, prevenção de desastres naturais, energia e planejamento territorial. A empresa faturou com esse serviço R$ 8,5 milhões em 2016 e conquistou projetos relevantes com o Inpe, no combate ao desmatamento da Amazônia, e com a Petrobras, no monitoramento ambiental da Bacia de Campos, no Rio de Janeiro. Para isso, a Visiona, que não é proprietária de satélites, firmou acordos de compra de imagens com alguns dos principais operadores de satélites de observação da Terra, entre eles Airbus, DigitalGlobe, Restec e SI Imaging Services. No total, ela terá acesso a uma rede de cerca de 28 satélites. “Essas parcerias nos permitem desenvolver soluções integradas na área de sensoriamento remoto”, avalia Bonini. n Yuri Vasconcelos pESQUISA FAPESP 256  z  75


Ambiente y

Controle da paisagem Softwares ajudam a monitorar a saúde das árvores das cidades Evanildo da Silveira

Á

rvores reduzem a poluição atmosférica e sonora, diminuem a temperatura em seu entorno, minimizam danos ao alterar a velocidade e a direção dos ventos, além de deixar as cidades mais bonitas. Se não forem bem cuidadas, podem cair, causando ferimentos e mortes, interrompendo vias e o fornecimento de eletricidade. Como exemplo, entre janeiro e maio deste ano, na cidade de São Paulo, caíram 2.192 árvores, o que dá uma média de 14,5 por dia. Para que os benefícios da floresta urbana superem as desvantagens, é preciso que ela seja bem cuidada. É o que pretendem três softwares desenvolvidos no Brasil para programar podas e cortes, saber qual a idade da árvore e até indicar se uma espécie pode ser plantada em determinado lugar. O que está em estágio mais adiantado é o Arbio, criado no Instituto de Pesquisas Tecnológicas do Estado de São Paulo (IPT) para gerenciar principalmente as árvores localizadas no sistema viário e em praças. “O programa permite fazer inventários, ao cadastrar as plantas de uma localidade, e o planejamento da arborização, ao definir os locais e as espécies mais adequadas para o plantio”, 76  z  junho DE 2017

conta o biólogo Sérgio Brazolin, chefe do Laboratório de Árvores, Madeiras e Móveis do IPT, coordenador da equipe que desenvolveu o software. Ele explica que o Arbio tem capacidade para conter as informações individualizadas de cada árvore, como localização, identificação botânica (nome científico e popular), condições de entorno, abrangendo as vias de tráfego, tipo de imóvel associado, condições da calçada, canteiro, interferências dos fios de eletricidade e telefonia na copa, situação do tronco e das raízes, dendrometria (medição da massa lenhosa) e existência de doenças ou infestação de cupins. Em Belo Horizonte, a empresa Digicade criou, em parceria com o Google, o sistema Geosite, que também facilita o monitoramento de árvores urbanas. “Trata-se de um sistema integrado a informações geográficas, que torna mais eficiente a gestão, em uma só ferramenta, de operações de inspeção, poda e manejo de árvores em cidades”, afirma João Carlos Tavares da Silva, coordenador de Desenvolvimento da empresa. A empresa CAA Tecnologia da Informação, de Botucatu (SP), está finalizando um software semelhante ao Arbio e ao


foto  Renato Mendes / Brazil Photo Press /Folhapress

Em 2014, árvore caída na avenida 23 de maio, em São Paulo, depois de tempestade: programas podem auxiliar a administração pública a evitar queda

pESQUISA FAPESP 256  z  77


Árvore em lugar impróprio em São Paulo, próximo à passagem dos carros e de pedestres. Os softwares indicam os melhores lugares para plantio

Geosite, em termos de funcionalidades e objetivos. “O programa poderá ser usado no planejamento e na gestão das árvores, além de promover a interatividade com a população”, afirma o coordenador do projeto na empresa, o engenheiro florestal Guilherme Corrêa Sereghetti. Os três programas têm entre seus potenciais usuários prefeituras, universidades, concessionárias de energia, consultorias ambientais e condomínios e organizações não governamentais. A coleta dos dados para alimentar os softwares pode ser realizada por técnicos treinados. A responsabilidade pela análise ou tomada de decisão de manejo, no entanto, cabe a biólogos, engenheiros florestais ou agrônomos. “O sistema móvel [software em smartphone] facilita a inspeção da árvore pelo técnico e o armazenamento das informações coletadas”, explica Brazolin. Um diferencial do Arbio, segundo Brazolin, é a capacidade de analisar o risco de queda de uma árvore. “O software tem um modelo de cálculo probabilístico, elaborado pelo IPT”, explica. “O programa é alimentado com uma série de informações, como tamanho da planta e da sua copa, diâmetro do tronco e estado de deterioração, como apodrecimento ou cavidades no tronco. Utilizando conceitos de biomecânica, o software faz cálculos matemáticos que determinam a probabilidade de queda para 12 diferentes velocidades de vento e gera um gráfico com os resultados.” Para chegar a ele é preciso medir a altura total da árvore utilizando um aparelho chamado de hipsômetro e a largura da copa pode ser obtida pela medida projetada no chão com fita métrica. Com isso, o Arbio calcula a área estimada da copa para os cálculos no modelo estrutural de risco de queda. Os softwares também podem ser alimentados com dados fenológicos das plantas, como época da queda das folhas, da floração e da frutificação, além de informações sobre pragas ou doenças. “Nosso programa possibilitará a participação da população, que poderá solicitar poda ou corte de uma árvore ou 78  z  junho DE 2017

a inclusão de um exemplar ainda não cadastrado, inclusive com envio de foto pelo celular”, conta Sereghetti, da CAA. plano diretor

Os três programas estão em fases diferentes de desenvolvimento, nenhum ainda em uso comercial. O Arbio começou a ser criado em 2013 e já está pronto para uso. A primeira cidade a implantá-lo nos próximos meses será Mauá (SP), na Região Metropolitana de São Paulo, cidade com 457 mil moradores. “O desenvolvimento desse software resultou de um projeto de capacitação financiado pelo governo do estado de São Paulo para aprimorar a gestão da arborização”, explica Brazolin. “O IPT está estudan-

do disponibilizá-lo gratuitamente para os municípios do estado de São Paulo.” Em Mauá, o Arbio integrará o Plano Diretor de Arborização Urbana, com recursos de R$ 2 milhões do Fundo de Interesses Difusos da Secretaria de Estado da Justiça e Defesa da Cidadania. O objetivo é manter atualizada a base de dados sobre as árvores da cidade e fazer os plantios adequados, além de executar podas corretas, evitando que as plantas fiquem deformadas. Para operar o Arbio, a prefeitura conta com um biólogo, dois engenheiros florestais e um engenheiro-agrônomo. Ainda deverão ser contratados mais um biólogo e um engenheiro-agrônomo, além de outros profissionais como fiscais e técnicos ambientais.


As cidades podem ser mais integradas à biosfera do que são hoje, sugere Buckeridge

fotos  eduardo cesar

Cortes e podas podem ser programados com sistemas de acompanhamento de árvores urbanas

Na cidade de São Paulo, a Secretaria Municipal do Verde e do Meio Ambiente utiliza um antigo sistema desenvolvido pelo IPT em 2004, o Sistema de Gerenciamento de Árvores Urbanas (Sisgau). Segundo a secretaria, existem cerca de 652 mil árvores na capital paulista, que são monitoradas com informações passadas por engenheiros-agrônomos das prefeituras regionais. Ele é utilizado para cadastrar informações geográficas, fitossanitárias e intervenções de manejo realizados ao longo da vida de cada árvore. Brazolin, do IPT, que participou da produção desse sistema, afirma que o Sisgau não tem funcionalidades presentes no Arbio como a de tentar prever ou gerenciar queda de árvore. O Geosite, por sua vez, foi lançado em novembro do ano passado. “No momento ele está sendo testado, por meio de prova de conceito, em algumas prefeituras e por uma companhia de energia elétrica”, conta Silva. O programa da CAA começou a ser desenvolvido em novembro de 2016 e o primeiro protótipo está sendo

finalizado. Os dois sistemas serão comercializados em breve, mas os preços ainda não estão definidos. sistemas no exterior

No exterior, já existem sistemas semelhantes em uso. Um exemplo é o Arbomapweb, criado na Espanha pela empresa Tecnigral, utilizado em cidades como Madri e Córdoba. Ele integra ações georreferenciadas de inventário, gestão e incidentes, fazendo planejamento, geração e acompanhamento da floresta urbana. Nos Estados Unidos surgiu o OpenTreeMap, um sistema de acesso via internet com o qual é possível criar projetos de arborização urbana, pagando US$ 164 ao mês. Ele foi desenvolvido por um pool de empresas, com recursos do fundo de apoio para pesquisa e inovação do Departamento de Agricultura dos Estados Unidos (Usda). Além do inventário e fotos de árvores de uma localidade, o software calcula os benefícios da floresta urbana para a cidade como a quantidade de redução de dióxido de carbono (CO2),

um dos gases do efeito estufa, nível da qualidade do ar e filtragem da água da chuva para o solo. É usado em vários países, além dos Estados Unidos, como Reino Unido, México e Portugal. De acordo com o biólogo Marcos Buckeridge, do Instituto de Biociências da Universidade de São Paulo (IB-USP), que estuda a arborização em cidades, o sistema de monitoramento da floresta urbana usado em Nova York, chamado de New York City Street Tree Map, é um dos mais avançados do mundo. “Eles têm um bom mapeamento árvore por árvore e possuem um mecanismo de produzir um cálculo dos benefícios para a cidade”, comenta. O software estima o valor financeiro que cada planta dá de retorno à sociedade por meio de indicadores como, por exemplo, interceptação de água das chuvas, remoção de poluentes do ar e redução de CO2 e outros poluentes. Para Buckeridge, seria um bom início passar a incluir um planejamento de arborização de forma mais séria e científica em planos futuros de uma cidade como São Paulo. Ele lembra que as cidades sempre terão características artificiais. “Mas elas podem pelo menos tentar ser mais integradas à biosfera do que são hoje”, analisa. n

Projeto Sistema RIA (Rich Internet Application) para planejamento e gestão de arborização urbana (nº 14/50612-5); Modalidade Programa Pesquisa Inovativa em Pequenas Empresa (Pipe); Pesquisador responsável Guilherme Corrêa Sereghetti (CAA Tecnologia da Informação); Investimento R$ 119.187,40.

pESQUISA FAPESP 256  z  79


humanidades   SOCIEDADE y

1

Do chão de fábrica ao plenário Pesquisadoras resgatam a história de luta dos movimentos feministas brasileiros Danilo Albergaria

80  z  junho DE 2017

N

os últimos 100 anos a luta feminista por direitos da mulher e igualdade provocou impacto no cenário político brasileiro. De operárias grevistas em 1917 aos atuais grupos de pressão política, as mulheres tiveram de lutar muito para que algumas de suas demandas fossem atendidas. Pesquisas recentes aprofundaram a compreensão de diferentes momentos dessa história. Parte desses trabalhos está no livro 50 anos de feminismo: Argentina, Brasil e Chile (Edusp, 2017), fruto do projeto coordenado pelas sociólogas Eva Blay, da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP), e Lúcia Avelar, do Centro de Estudos de Opinião Pública da Universidade Estadual de Campinas (Cesop-Unicamp). O livro ajuda a compreender o papel central das organizações feministas na conquista da proteção jurídica e social das mulheres. Para ficar apenas no campo da vida privada, houve vitórias fundamentais, como a eliminação do pátrio poder e a criminalização da violência doméstica e do assédio sexual.


fotos 1 Paim de Souza / Folhapress  2 Nelson Antoine / FotoArena / Folhapress

2

Apesar dos avanços, as mulheres brasileiras ainda são sub-representadas politicamente. O Brasil é o 154º colocado num ranking de 190 países organizado pela organização Inter-Parliamentary Union sobre a presença feminina nos parlamentos. Apenas uma em cada 10 cadeiras da Câmara dos Deputados, com 513 representantes, é ocupada por mulheres. No Senado, essa presença é de 14% dos 81 eleitos. Nesse quesito, o país está atrás até mesmo da Arábia Saudita, com todo o seu histórico de cerceamento de direitos e liberdades femininas. Segundo Lúcia Avelar, as organizações feministas brasileiras funcionam como uma espécie de representação extraparlamentar das mulheres, com atuação articulada à pequena, mas atuante bancada feminina. Coautora de um dos artigos do livro, a cientista política Patrícia Rangel, hoje em um estágio de pós-doutorado na Freie Universität Berlin, Alemanha, argumenta que essa articulação política organizada levou às mudanças legais que asseguraram igualdade jurídica entre mulheres e homens, aboliram da legislação termos discri-

minatórios e permitiram a elas figurar legalmente como chefes de família. Para Patrícia, frutos dessa articulação também são a ampliação do salário-maternidade (1988), a lei de cotas eleitorais (de 1995, com a exigência de que 30% das candidaturas sejam de mulheres), a esterilização em hospitais da rede pública (1996), a normatização do atendimento ao aborto legal no Sistema Único de Saúde, o SUS (1998), e a Lei Maria da Penha (2006), contra a violência doméstica e intrafamiliar. Lúcia Avelar afirma que o Brasil, mesmo com baixa representatividade de mulheres no parlamento, é um dos países com maior nível organizacional do movimento feminista. “Essa mobilização alcançou um alto nível de articulação, com redes que fazem a ponte entre a sociedade e o Estado. As redes são internacionalmente reconhecidas, como a Articulação de Mulheres Brasileiras e a Marcha Mundial de Mulheres”, aponta. A socióloga identificou o ponto de inflexão para esse nível de organização: “A entrada progressiva das mulheres em cursos de educação

Passeata pelas Diretas já! no centro de São Paulo (à esq.), em 1984, e manifestantes durante a Marcha Mundial das Mulheres (acima), na rodovia Anhanguera (SP), em 2010

pESQUISA FAPESP 256  z  81


superior e a formação de ONGs [organizações não governamentais] feministas”. As conquistas feministas Exiladas das entraram pelo século XXI no ditaduras Brasil, especialmente em relação à atuação na esfera pública. do Brasil, Chile “Um grande ganho obtido dos governos até 2014 foi a criação e Argentina do Orçamento Mulher, um caso excepcional entre os países lativeram contato tino-americanos”, conta Lúcia. com movimentos Trata-se de um extrato do orçamento da União contendo as feministas ações que impactam a qualidade de vida das mulheres brasileiras, na Europa nos como saúde, enfrentamento da violência, igualdade no mundo anos 1970 do trabalho, entre outros itens. Foi coordenado pelo Centro Feminista de Estudos e Assessoria (CFEMEA) para monitorar o processo orçamentário e garantir que as verbas aprovadas fossem efetivamente liberadas para a implementação das políticas públicas definidas no Orçamento Mulher. Bertha Lutz em 1925: uma das criadoras da Federação Brasileira pelo Progresso Feminino, em 1922

82  z  junho DE 2017

Resistentes e exiladas

Parte da organização feminista surgiu a partir da oposição de mulheres à ditadura militar (19641985). O recrudescimento do autoritarismo, principalmente a partir de 1968, produziu ondas de

exilados entre os que se opunham ao regime. Muitas mulheres tiveram contato com o feminismo no exterior, principalmente na França. De lá, brasileiras e outras latino-americanas, também expatriadas em consequência dos golpes militares no Chile (1973) e na Argentina (1976), editaram publicações que procuraram servir como ponto de encontro do debate feminista no exílio. Esses grupos foram estudados pela socióloga Maira Abreu, doutora em ciências sociais pela Unicamp, que publicou o livro Feminismo no exílio (Alameda, 2016). A autora mostra como esses grupos constituíram uma presença importante na comunidade brasileira na França e foram um elemento de divulgação de ideias feministas. Quando retornaram aos seus países de origem, muitas trouxeram consigo essa experiência e influenciaram, em alguma medida, os debates em curso no feminismo latino-americano. “Mas não se deve pensar numa simples relação de importação de ideias”, alerta Maira, “e sim numa encontro de feminismos gestados em realidades distintas”. Mesmo com a crescente organização, as mulheres continuam com pouca inserção nas estruturas partidárias. Lúcia Avelar aponta para o caráter oligárquico dos partidos brasileiros e a centralização de seu poder como algumas das principais causas dessa exclusão. A socióloga avalia que atualmente os partidos de esquerda oferecem oportunidades políticas um pouco melhores às mulheres. “Nos partidos com raízes nos movimentos sociais, a disputa interna entre tendências melhora a posição das mulheres, pois a abertura para novos segmentos costuma ser maior”, afirma. Para Patrícia Rangel os partidos parecem não compreender que a presença das mulheres também é sinônimo de democracia. “Isso tem efeitos negativos para as mulheres no geral, visto que são as instâncias partidárias que determinam o acesso à política institucionalizada e têm papel importante na mudança do sistema político”, afirma. A não compreensão do papel das mulheres as deixou, durante muito tempo, relegadas à condição de coadjuvantes e subordinadas em partidos e sindicatos, meios nos quais se poderia esperar, por coerência ideológica, uma defesa do igualitarismo. “O enfrentamento do patriarcado era geralmente colocado em segundo plano, depois da prioridade política, que era a crítica ao capitalismo”, diz Patrícia. Eva Blay afirma que havia uma crença de que a modernização da sociedade produziria a igualdade entre homens e mulheres. “Essa visão mecanicista foi questionada à medida que se verificou que a própria modernização mantinha os padrões patriarcais, dando-lhes nova roupagem e recompondo padrões de dominação, de violência contra a mulher, de desigualdades no trabalho e no salário”, sustenta.


Esses questionamentos vieram das feministas da década de 1970, mas as primeiras transformações fomentadas pelo feminismo brasileiro têm raízes mais antigas.

fotos 1 Hemeroteca digital bn / wikimedia commons 2 biblioteca nacional

Operárias e intelectuais

No Brasil dos anos 1920 as mulheres não tinham direitos políticos, não podiam votar nem se candidatar a cargos eletivos. Para exercer atividade profissional fora de casa, precisavam de autorização do marido e chegavam a ganhar menos da metade do que os homens, cumprindo as mesmas funções. Essa situação só começou a ser superada a partir da resistência das trabalhadoras e do surgimento de organizações como a Federação Brasileira pelo Progresso Feminino (FBPF), liderada pela bióloga Bertha Lutz (1894-1976). Filha do bacteriologista Adolfo Lutz (18551940), Bertha nasceu em São Paulo e estudou na França, onde foi influenciada pelo cenário internacional de explosão do feminismo, aglutinado em torno da demanda pelo sufrágio universal. Fundada em 1922, a FBPF é geralmente vista como indício de que os primeiros passos do feminismo no Brasil foram dados apenas por mulheres da elite econômica e intelectual, desconectados da realidade da maioria de trabalhadoras. Não foi bem assim que aconteceu. Estudo da historiadora Glaucia Fraccaro resgata a importância da atuação política das mulheres da classe

O jornal A Manhã, do Rio de Janeiro, fazia campanha pelo voto da mulher em 1926

trabalhadora e sua influência indireta sobre líderes e organizações feministas nos anos 1930. A pesquisadora defendeu recentemente a tese “Os direitos das mulheres: Organização social e legislação trabalhista no entreguerras brasileiro (1917-1937)”, no Instituto de Filosofia e Ciências Humanas da Unicamp. Glaucia argumenta que a falta de atenção à história das mulheres trabalhadoras é um dos motivos que consagraram o feminismo brasileiro como oriundo das classes mais altas. Ao mesmo tempo, cristalizaram a noção de que a classe trabalhadora havia faltado na emergência do movimento feminista. Contudo, uma das raízes da atuação feminina organizada em busca de direitos não está nos movimentos de mulheres de elite, mas no protagonismo das operárias na greve que parou São Paulo há 100 anos. A greve geral de 1917 foi uma reação à diminuição do poder de compra, à deterioração das condições de trabalho e ao crescimento da exploração de menores na indústria. Reflexo da Primeira Guerra Mundial, a aceleração das exportações pesava sobre as famílias trabalhadoras, empobrecidas e esgotadas pelo aumento da jornada de trabalho. As mulheres eram a maior parte do operariado no setor têxtil e representavam cerca de um terço da força de trabalho urbana – dos menores explorados pela indústria, as meninas eram a maioria. “Quando trabalhadores e trabalhadoras se ergueram em numerosas greves a partir de 1917, emergiu a noção de que os direitos sociais não são neutros e deveriam abarcar a condição das mulheres”, conta Glaucia. A luta levou a conquistas no primeiro governo de Getúlio Vargas (1930-1945). Nesse período, a atuação política de Bertha Lutz foi influenciada indiretamente por demandas da classe trabalhadora. “Mulheres do Partido Comunista Brasileiro denunciavam na imprensa a falta de preocupação da FBPF com as trabalhadoras”, lembra Glaucia, “enquanto a rede transnacional na qual a federação se inseria impôs uma agenda que envolvia licença-maternidade, a proibição do trabalho noturno das mulheres e o direito ao voto”. As pressões exercidas pelos movimentos levaram Vargas a aprovar em 1932 um decreto que atendia a essas demandas, incluindo a lei por igualdade salarial, que nunca foi cumprida. n

Projeto 50 anos de feminismo (1965-2015): Novos paradigmas, desafios futuros (nº 12/23065-8); Modalidade Projeto Temático; Pesquisadora responsável Eva Alterman Blay (USP); Investimento R$ 273.280,93.

Livros BLAY, E. A. e AVELAR, L. (org). 50 anos de feminismo: Argentina, Brasil e Chile: A construção das mulheres como atores políticos e democráticos. São Paulo: Edusp, 2017. ABREU, M. Feminismo no exílio. São Paulo: Alameda Editorial, 2016.

pESQUISA FAPESP 256  z  83


CINEMA y

Horror a brasileira Atual onda de filmes do gênero foi precedida por uma tradição pouco conhecida e estudada

N

os últimos anos, o filme de horror ganhou espaço no cinema brasileiro, um fenômeno que tem sua parcela mais visível em títulos que entram em circuito comercial com a promessa de qualidade técnica e atores conhecidos por seus trabalhos na televisão. É o caso dos longas Isolados, Quando eu era vivo, O rastro, entre outros. Mesmo que os resultados de bilheteria não sejam excepcionais, há um filão inegável, reconhecido por críticos e pesquisadores. Segundo estimativa do pesquisador e professor independente Carlos Primati, um novo filme de horror brasileiro é lançado comercialmente a cada mês ou mês e meio. Pela semelhança que alguns desses filmes guardam com a produção estrangeira do gênero, sobretudo a norte-americana contemporânea, o surto pode parecer uma novidade no cinema nacional. O Brasil, no entanto, tem uma tradição pouco lembrada no campo do terror, na qual se destaca a obra do cineasta e ator José Mojica Ma84  z  junho DE 2017

rins, 81 anos, e os dois primeiros filmes em que interpretou o personagem Zé do Caixão, realizados na década de 1960. A centralidade de Mojica no cinema de horror brasileiro é unânime entre pesquisadores e cineastas que vêm se dedicando ao gênero, mesmo os que não se identificam com o estilo do diretor, de acordo com Laura Cánepa, professora e coordenadora do Programa de Pós-graduação em Comunicação da Universidade Anhembi-Morumbi, em São Paulo, que em 2008 defendeu a tese de doutorado em Multimeios na Universidade Estadual de Campinas (Unicamp) “Medo de quê: Uma história dos filmes de horror no cinema brasileiro”. A pesquisadora segue se dedicando aos estudos sobre esse gênero, publicando artigos e capítulos de livros que abarcam até a produção atual. No doutorado, seu objetivo foi caracterizar o gênero, localizá-lo na história do cinema brasileiro e mapear uma produção dispersa que ainda não havia sido estudada sob esse ângulo. Vale destacar

que, a partir do começo dos anos 2000, intensificaram-se as pesquisas sobre o cinema brasileiro de gênero, como se observa em trabalhos sobre ficção científica, cinema juvenil, filmes de cangaço, filmes policiais, entre outros. O trabalho foi, segundo a pesquisadora, descritivo e se baseou em uma busca por filmes esquecidos, desaparecidos ou antes dados como perdidos, mas recuperados em compartilhamentos na internet e em locadoras que ainda trabalhavam com fitas VHS, além de arquivos de colecionadores e entrevistas com diretores. Em levantamento feito em dicionários de cinema, guias de filmes e outros documentos, Cánepa constatou que havia um terreno vasto de obras aparentadas ao gênero, que se autoclassificavam como comédias, dramas e filmes eróticos. Apenas dois diretores anunciavam seus filmes como sendo de horror ou terror, Mojica e Ivan Cardoso – este último dedicado a um veio paródico que apelidou de “terrir”. O primeiro filme brasilei-

fotos Divulgação / Acervo particular Carlos Primati

Márcio Ferrari


ivan cardoso

Fenômeno único: Mojica em O estranho mundo do Zé do Caixão (no alto à esq.), de 1968; cena e cartaz de Esta noite encarnarei no teu cadáver (no centro e à dir.), de 1967, fusão de fotos do personagem e imagem de O despertar da besta (abaixo), de 1970

ro definido publicitariamente como de terror foi À meia-noite levarei sua alma (1964), que marcou a estreia do personagem Zé do Caixão. A pesquisa de Cánepa levou à observação, por exemplo, de brincadeiras com elementos de horror até em um filme de 1936, O jovem tataravô, dirigido por Luis de Barros (1893-1981). Traçado o panorama, a pesquisadora concluiu que “se é possível falar em uma época ‘de ouro’ do cinema de horror nacional, ela se concentra entre 1963 e 1983”. Esse período inclui os filmes mais importantes de Mojica e “uma extensa e variada cinematografia dividida entre propostas marcadamente autorais e outras derivadas do filme erótico explorado à exaustão por produtores paulistas e cariocas”, o que abarca a abordagem do gênero também em alguns filmes de cineastas como Walter Hugo Khouri (1929-2003) e Carlos Hugo Christensen (1914-1999). Sobretudo no ciclo da pornochanchada oriunda da Boca do Lixo (região no Centro de São Paulo onde se concentravam produtoras e distribuidoras nos anos 1970), houve diretores cujas obras, à semelhança de produções europeias, misturavam o apelo erótico a elementos pESQUISA FAPESP 256  z  85


Quando eu era vivo (à esq.), de 2014, e Rafael Cardoso e Leandra Leal em O rastro (à dir.), de 2017

Marat Descartes e Helena Albergaria em Trabalhar cansa, de 2011

sobrenaturais, como John Doo (19422012), Jean Garret (1946-1996) e Luiz Castillini (1944-2015). Cánepa agrupou a produção em vertentes cronologicamente transversais. “Havia a opção de abordar o gênero como uma categoria da indústria, derivada das formas tradicionais organizadas por Hollywood para o cinema popular, ou como uma tendência temática que se manifesta de maneira esparsa, que foi a minha escolha”, conta. Seguindo esse princípio, as principais vertentes são as seguintes: o horror de autor, do qual Mojica é o grande representante; o horror clássico, que remete ao romance gótico do século XVIII e se caracteriza mais pela criação de atmosferas terríficas do que pela exposição detalhada e explícita dos fatos horroríficos, representada por diretores como Khouri e Christensen; o horror de exploração, caracterizado pelo sensacionalismo, filão no qual se destacam os títulos do ciclo da pornochanchada; o horror paródico, em que se inserem os filmes de Ivan Cardoso, Amácio Mazzaropi (1912-1981) – como O Jeca contra o capeta (1976) –, além de longas como Bacalhau (1975), dirigido por Adriano Stuart (1944-2012), sátira de Tubarão (1975), de Steven Spielberg. Finalmente, há um grupo que reúne “casos relacionados a subgêneros como os filmes espíritas, os de lobisomem e os infantis que dialogaram com o universo do horror”. Na catalogação de Carlos Primati, essa perspectiva híbrida engloba cerca de 500 filmes desde a terceira década do século XX. 86  z  junho DE 2017

1 Is abor rendit que Antus, quatur sinciaeri Jeaquam inihil molestiunt at volores

O horror clássico tem alguma dificuldade de penetração no país porque aqui o sobrenatural seria visto, em parte, como benéfico

O capítulo sobre Mojica do estudo de Cánepa pôde contar com algum diálogo com pesquisas anteriores. Embora fosse um cineasta elogiado por colegas ilustres como Rogério Sganzerla (1946-2004) e Glauber Rocha (1939-1981), além de críticos como Jairo Ferreira (1945-2003), havia, na época em que a pesquisadora elaborou seu doutorado, a tese de doutorado defendida pelo jornalista Alexandre Agabiti Fernandez na Universidade Paris III, na França, além da biografia escrita pelos também jornalistas Ivan Finotti e André Barcinski, Maldito: A vida e a obra de José Mojica Marins, o Zé do Caixão (editora 34, 1998), e o trabalho de especialistas como Primati, um dos organizadores da caixa de DVDs Coleção Zé do Caixão: 50 anos do cinema de José Mojica Marins (2002), da qual constam entrevistas com especialistas e cineastas.


fotos Divulgação

O personagem Zé do Caixão foi protagonista de dois filmes, À meia-noite levarei sua alma e Esta noite encarnarei no teu cadáver (1967), ambos grandes sucessos de público. Em outras produções, aparecia como mestre de cerimônias ou em cenas de pseudodocumentários. Por causa de pressões da censura no regime militar, que reprovava a violência de seus filmes, Mojica só retomou o personagem em Encarnação do demônio (2008). Trata-se de um fenômeno único que caracteriza um horror brasileiro, de acordo com Cánepa. Inspirada em observações do escritor de livros de horror Rubens Lucchetti, que colaborou com Mojica e Cardoso como roteirista, a pesquisadora considera que o cineasta conseguiu “resolver uma equação” que instalou o cinema de horror no Brasil. Para ela, o horror clássico tem alguma dificuldade de penetração no país porque aqui o sobrenatural seria visto, em grande parte, como benéfico. “Dada a tradição espírita, os fantasmas costumeiramente surgem na trama como salvadores”, afirma. Mojica criou um personagem que nada tem de sobre-humano. Ao contrário, são as forças incompreensíveis que vingam sua crueldade, baseada, antes de tudo, no racionalismo – nos filmes, intervenções sobrenaturais acabam por exterminar o vilão. Zé do Caixão é dono de uma funerária cuja missão é dar continuidade a sua estirpe gerando um filho “perfeito”.

Isso o leva a uma racionalidade extrema e cruel: a morte, com requintes de dor, seria o destino natural dos que têm medo e das mulheres que resistem a perpetuar sua superioridade. “Eu sou invencível e só creio na força do sangue e da hereditariedade”, declara o personagem. Contudo, diz Cánepa, “Zé do Caixão, descrente e pecador, será eliminado pela própria culpa e pelas forças sobrenaturais em que dizia não acreditar”. Orixá Exu

Embora os filmes do personagem tenham uma solução em que o bem triunfa, Alexandre Agabiti Fernandez destaca um atrativo que pode ter seduzido o público. “O personagem desafia o poder estabelecido, a religião e as convenções sociais em torno da morte”, afirma. “O tabu relacionado a esses temas exerce enorme poder de atração.” Como outros pesquisadores de cinema, Fernandez aponta as semelhanças, na própria caracterização do personagem, com o orixá Exu, sobreposto na tradição sincrética ao demônio do imaginário cristão. As religiões afro-brasileiras, segundo Primati, caracterizam muitos dos títulos do horror nacional, e há alguns que se valem de elementos da literatura de cordel. Para o pesquisador, elementos como esses se misturam às tradições do gênero, criando híbridos que desafiam classificações. Os filmes de Mojica, de acordo

com o pesquisador Rodrigo Carreiro, da Universidade Federal de Pernambuco (UFPE), devem parte de sua estranheza ao fato de que são influenciados mais por manifestações populares como circo e as histórias em quadrinhos do que por uma cultura cinematográfica, que o cineasta teria absorvido apenas intuitivamente. Quanto à atual onda de horror, os pesquisadores concordam em afirmar que não há continuidade da tradição aberta por Mojica, ainda que os cineastas reconheçam sua importância. Pode haver algo do cineasta pioneiro na produção qualificada por Cánepa como “cinema de guerrilha”, filmes feitos em esquema amador que circulam entre os fãs do gênero, mas não naqueles que hoje procuram público numeroso, nem nos que tangenciam o terror, como Trabalhar cansa (Juliana Rojas e Marco Dutra, 2011). Isso não impede, no entanto, que nesses filmes, como nos de Mojica, haja uma atmosfera de que “a qualquer momento algo terrível pode acontecer”. n

Artigos científicos CÁNEPA, L. Configurações do horror cinematográfico brasileiro nos anos 2000: Continuidades e inovações. Miradas sobre o cinema ibero-latino-americano. p. 121-43. 2016. CÁNEPA, L. L. e PIEDADE, L. R. O horror como performance da morte: José Mojica Marins e a tradição do Grand Guignol. Galaxia. n. 28. 2014. CARREIRO, R. O problema do estilo na obra de José Mojica Marins, Galaxia. n. 26, p. 98-109. 2013.

pESQUISA FAPESP 256  z  87


memória

Pela saúde das plantas e dos animais Criado há 90 anos, Instituto Biológico consolidou-se como um centro de pesquisas em sanidade animal e vegetal no Brasil Rodrigo de Oliveira Andrade

Perspectiva artística do prédio feita pelo engenheiro Mário Whately

N

o início dos anos 1920, no auge da cafeicultura paulista, uma praga irrompeu nos cafezais. Um minúsculo besouro, cuja larva atacava a coroa dos grãos, sorvendo-lhe a polpa, deixava ocos os frutos e ameaçava as safras. Era preciso desenvolver mecanismos de combate à chamada broca-do-café, e para isso o governo paulista formou uma comissão de pesquisadores, chefiada pelo médico e entomologista Arthur Neiva. O resultado foi uma ação precursora do controle biológico, por meio de uma vespa trazida de Uganda, África. O trabalho da comissão abriu caminho para a criação de uma instituição de fiscalização e vigilância que realizasse de forma permanente a definição e divulgação de medidas de combate à broca, certificando-se de que as fazendas implementassem as medidas definidas. Criado há 90 anos, em dezembro de 1927, o Instituto Biológico de Defesa Agrícola e Animal – hoje conhecido apenas como Instituto Biológico – tornou-se então um centro de excelência em pesquisas voltadas à sanidade animal e vegetal e um dos principais polos


fotos reprodução centro de memória do instituto biológico

Apresentação do Biológico ao presidente Getúlio Vargas e a Ademar de Barros (de bigode) em 1945

de discussão científica do Brasil, referência para pesquisadores do país e do exterior. A criação do Instituto Biológico é fruto do espírito inquieto de Arthur Neiva (1880-1943), o primeiro a assumir o cargo de diretor na instituição. Nascido em Salvador, Neiva iniciou os estudos na Faculdade de Medicina da Bahia, concluindo-os no Rio de Janeiro, em 1903. Discípulo do médico sanitarista Oswaldo Cruz (1872-1917), passou a trabalhar com ele no Instituto Soroterápico — atual Instituto Oswaldo Cruz. Em 1910 embarcou para Washington, Estados Unidos, para estudar entomologia médica. Três anos depois, em 1913, descreveu uma nova espécie de Triatoma, besouro responsável pela transmissão do Trypanosoma cruzi, causador da doença de Chagas, em Buenos Aires, Argentina. Voltou à capital portenha em 1915 para instalar e dirigir a Seção de Zoologia Animal e Parasitologia do Instituto Bacteriológico daquele país, onde ficou por dois anos antes de retornar ao Brasil para assumir a direção do Serviço Sanitário do Estado de São Paulo. Quando o Biológico foi criado, Neiva assumiu sua direção e deu continuidade às estratégias de controle da broca-do-café propostas

Médico Arthur Neiva, primeiro diretor, entre 1927 e 1931

no relatório produzido pela comissão que chefiou. Poucos meses depois o instituto ampliou seu campo de atuação para outras áreas. À época, várias casas, espalhadas por diferentes endereços, foram alugadas para que nelas fossem distribuídos os laboratórios que compunham as seções de Parasitologia, Virologia e de Ornitopatologia e Bacteriologia. Neste último, os médicos José Reis (1907-2002) e Paulo da Cunha Nóbrega (1907-1974), especializados em ornitopalogia, trabalhavam no diagnóstico de doenças que acometiam as galinhas, procurando atender às demandas dos produtores locais. “O trabalho era bem organizado”, explica o engenheiro-agrônomo Antonio Batista Filho, atual diretor do Instituto Biológico. “O produtor trazia o animal, vivo ou morto, contava os sintomas e os pesquisadores, após estudar o caso, apresentavam uma solução de tratamento ou de manejo da produção”, descreve. As pesquisas experimentais eram constantes nos laboratórios de Ornitopatologia e Bacteriologia: isolava-se o agente e reproduzia-se a doença para um estudo mais detalhado. O conhecimento produzido era, então, levado por José Reis às cooperativas e sítios no interior de PESQUISA FAPESP 256 | 89


Durante a Revolução de 1930 o Biológico, ainda inacabado, foi ocupado por acampamento militar dos soldados do 5º Batalhão de Engenharia

São Paulo por meio de palestras para orientar os produtores sobre a saúde de seus animais. A satisfação e a capacidade de explicar conceitos científicos a audiências mais amplas levaram-no a escrever livros em uma linguagem acessível, não científica, e a uma longeva coluna de divulgação científica no jornal Folha de S.Paulo. À medida que a instituição crescia, tornou-se necessário reunir todos os laboratórios em um único lugar. Neiva negociou a doação de um terreno público na região da Vila Mariana, zona sul de São Paulo, para a construção da sede do Instituto Biológico. O local escolhido era uma terra pouco valorizada, uma várzea cheia de aves e pequenos espelhos d’água. Ocupava uma área de aproximadamente 240 mil metros quadrados, estendendo-se por onde hoje é o Parque do Ibirapuera. As obras começaram em 1928. O projeto, desenvolvido pelo arquiteto paulista Mário Whately (1885-1943), previa a construção de um imponente edifício no estilo art déco, com o uso de formas geométricas influenciadas por movimentos vanguardistas como o cubismo e o construtivismo. Já o desenho dos parques e jardins do seu entorno, reservados aos campos experimentais com cafeeiros e árvores frutíferas, foi projetado pelo paisagista belga Arsène Puttemans (1873-1937). 90 | junho DE 2017

A planta original, no entanto, nunca foi completamente executada. As obras do edifício foram concluídas em 1945. ocupações militares

Durante a Revolução de 1930, o prédio foi usado por tropas gaúchas. Em 17 de novembro, Whately informou ao secretário da Viação e Obras Públicas sobre a ocupação do Biológico por 800 combatentes do 5º Batalhão de Engenharia. “Os soldados estão dormindo no próprio edifício em construção e, no primeiro andar,

Cartaz de divulgação de medidas de combate à broca distribuído aos produtores

é preparado o alimento para os soldados”, alertou o engenheiro em carta recuperada e hoje preservada pela bióloga Márcia Rebouças, colaboradora do Centro de Memória do instituto, cujo acervo conta com uma coleção de cerca de 340 mil documentos, entre jornais, artigos, ilustrações científicas, fotografias etc. Em abril de 1932, durante a Revolução Constitucionalista, o prédio foi novamente ocupado. Dessa vez, por soldados do 2º Batalhão de Engenharia, que se preparavam para lutar contra as tropas constitucionalistas. “As sucessivas ocupações aceleraram a transferência dos laboratórios para o prédio, ainda inacabado”, conta Márcia. Um ano antes do início das obras, Neiva havia convidado o patologista e microbiologista carioca Henrique da Rocha Lima (1879-1956) para assumir a direção da Divisão Animal da instituição. Rocha Lima formou-se no curso de medicina na Faculdade de Medicina do Rio de Janeiro em 1901 e, como Neiva, também trabalhou no Instituto Soroterápico, onde conheceu Oswaldo Cruz. O convívio com o médico sanitarista mudou os rumos de sua carreira, afastando-o da clínica e aproximando-o das atividades científicas. Rocha Lima embarcou para a Alemanha em 1901 para um estágio


Maurício Rocha e Silva (3º da esq. para dir.) e José Reis (3º da dir. para esq.) foram alguns dos pesquisadores que trabalharam no instituto

fotos reprodução centro de memória do instituto biológico

no Laboratório de Microbiologia e de Anatomia Patológica do Instituto de Higiene de Berlim. No exterior, construiu uma sólida carreira internacional como anatomopatologista e bacteriologista, cujo ápice foi a descoberta do agente do tifo exantemático, em 1916 (ver Pesquisa FAPESP nº 190). Durante esse período, trabalhou na Universidade de Jena e no Instituto de Moléstias Tropicais de Hamburgo. “Rocha Lima alcançou uma posição incomum para um cientista sul-americano no sistema acadêmico alemão”, afirma o historiador André

Felipe Cândido da Silva, pesquisador da Casa Oswaldo Cruz, da Fundação Oswaldo Cruz (Fiocruz), e autor de tese de doutorado sobre a trajetória do brasileiro e as relações científicas entre Brasil e Alemanha na primeira metade do século XX. “Como era pouco provável que conquistasse postos de maior prestígio, e por circunstâncias de sua vida pessoal, ele aceitou o convite de Neiva para trabalhar no instituto recém-criado em São Paulo.” Bem relacionado politicamente, Neiva afastou-se do Instituto Biológico em 1931, quando Vargas

o convidou para ser interventor em Salvador. Rocha Lima assumiu a diretoria do Instituto Biológico em 1933 em meio a controvérsias sobre a sucessão, ocasionadas pelo conturbado levante civil ocorrido em São Paulo no ano anterior. “Em alguns momentos o médico baiano acusou o bacteriologista de se aproveitar das circunstâncias para alimentar a indisposição dos membros do Biológico contra ele para assumir a direção”, relata Cândido da Silva. Sob a liderança de Rocha Lima o Instituto Biológico tornou-se um centro de pesquisa de referência internacional, privilegiando a interface entre a pesquisa básica e aplicada e o diálogo com os produtores locais. Nessa época, a instituição ampliou as ações de combate à broca-do-café por meio da criação da vespa trazida de Uganda em seus laboratórios. Entre junho e agosto de 1936, 228 mil exemplares de vespas foram enviados a 270 produtores. Em 1939, mais de 2 milhões desses insetos

Henrique da Rocha Lima (de jaleco) e o anatomista italiano Alfonso Bovero (de óculos e gravata-borboleta) durante uma reunião sextaferina PESQUISA FAPESP 256 | 91


Planta do projeto paisagístico concebida por Arsène Puttemans envolvia os parques e jardins no entorno do prédio

haviam sido distribuídos para diversas regiões do país. Também durante a década de 1930 o instituto investiu na contratação de pesquisadores brasileiros e internacionais para áreas diversas, entre eles o alemão Karl Martin Silberschmidt, que passou a trabalhar na organização da seção de Fisiologia Vegetal do Biológico. Ciente da importância da divulgação do conhecimento, Rocha Lima lançou, em 1935, a revista O Biológico, que junto com a revista Arquivos do Instituto Biológico, criada por Neiva, em 1928, disseminava textos voltados aos lavradores e produtores do campo e artigos científicos para a comunidade de pesquisadores, respectivamente. Em outra frente, instituiu reuniões às sextas-feiras, também conhecidas como “reuniões sextaferinas”, nas quais pesquisadores do Biológico e de outras instituições discutiam artigos científicos relevantes. “O Instituto Biológico foi um dos primeiros centros de debate científico no estado de São Paulo”, afirma Antonio Batista Filho. Além de Rocha Lima, participavam das reuniões pesquisadores como José Reis e Zeferino Vaz, idealizador

da Universidade Estadual de Campinas (Unicamp), criada em 1966 (ver Especial Unicamp 50 anos). “Foi durante essas reuniões que se começou a planejar a Sociedade Brasileira para o Progresso da Ciência (SBPC) e a Sociedade Brasileira de Entomologia”, conta Márcia Rebouças. À época também foi criado o Serviço de Planejamento e Documentação Científica, que contava com as seções de Planejamento de Experimentos, Fotomicrografia, Biblioteca e Desenho. Este último teve grande destaque no

Biológico. Ao todo, 17 desenhistas produziam entre as décadas de 1930 e 1970 uma profusão de ilustrações de plantas, animais e suas doenças para dar visibilidade à pesquisa, integrando artigos científicos, aulas, folhetos de divulgação, entre outros (ver Pesquisa FAPESP nº 238). As ilustrações retratavam com riqueza de elementos e rigor científico detalhes de insetos, ácaros, larvas, órgãos de animais, vegetais, plantas e suas patologias, registrando, traduzindo e complementando as observações e os experimentos científicos desenvolvidos no Biológico. Em 1942 Rocha Lima criou uma Divisão de Biologia, responsável por pesquisas básicas que embasassem o trabalho de agrônomos e veterinários no combate a pragas e doenças. Também foram criadas as divisões de Defesa Sanitária Vegetal e de Defesa Sanitária Animal, além da de Ensino e Documentação Científica. Anos mais tarde, em 1947, a Divisão de Biologia foi dividida em duas, a de Biologia

Entre 1930 e 1970 os ilustradores do instituto produziram uma vasta quantidade de desenhos científicos, dando mais visibilidade às pesquisas desenvolvidas ali 92 | junho DE 2017


Todos os anos, no mês de maio, é realizado no Biológico o evento Sabor da Colheita, que marca simbolicamente o início da safra de café em São Paulo

Animal e Vegetal. “Essa foi uma época extremamente profícua no Biológico”, conta Márcia Rebouças. “O Instituto passou a fabricar mais de 30 diferentes produtos voltados à sanidade animal em todo o país, estabelecendo contratos com empresas farmacopecuárias”, comenta.

Rocha Lima transformou a instituição em um centro de pesquisa de referência internacional

fotos reprodução centro de memória do instituto biológico

pressão sob controle

Em fins da década de 1940, outro feito importante foi obtido no Biológico. Os médicos Maurício Rocha e Silva (1910-1983), Wilson Teixeira Beraldo (1917-1998) e Gastão Rosenfeld (1912-1990) identificaram o chamado Fator de Potenciação da Bradicinina a partir da globulina do plasma do veneno da jararaca. A substância, verificou-se mais tarde, relaxava os músculos e os vasos sanguíneos, sendo por isso considerada um potencial regulador da pressão arterial. A descoberta resultou em uma comunicação publicada em 1949 no número inaugural da revista Ciência & Cultura, editada pela então recém-criada SBPC. No ano seguinte uma versão ampliada do trabalho foi publicada na revista American Journal of Physiology.

Tempos depois, a bradicinina foi usada como princípio ativo de remédios contra hipertensão. Rocha Lima aposentou-se em 1949, ao completar 70 anos. Em seu lugar, assumiu o engenheiro-agrônomo Agesilau Antonio Bitancourt (1899-1987), que até então dirigia a divisão de Biologia Vegetal. Em sua gestão, de 1949 a 1953, Bitancourt criou três cursos anuais de formação em fitopatologia, entomologia agrícola e patologia animal, atraindo profissionais de todo o país. Na década de 1970 o instituto ampliou seus trabalhos de desenvolvimento de defensivos agrícolas graças a uma parceria firmada com a Organização das Nações Unidas para Alimentação e Agricultura (FAO) e a Organização

Mundial da Saúde (OMS), que possibilitou a compra de equipamentos e a melhoria das instalações, como a construção do Centro Piloto de Formulações de Defensivos Agrícolas, na Fazenda Experimental Mato Dentro, em Campinas. Em 1988 foi realizada a primeira Reunião Anual do Instituto Biológico (Raib), reunindo pesquisadores e estudantes das áreas de sanidade animal e vegetal, proteção ambiental, além de profissionais do agronegócio, entre outros, para discutir os problemas da agricultura no país. O Biológico hoje sofre em razão da evasão de pesquisadores para universidades, empresas e institutos federais e da falta de reposição de mão de obra qualificada. Ainda assim continua como um dos principais centros de diagnóstico fitossanitário e zoossanitário do Brasil. Possui um dos dois laboratórios brasileiros que produzem imunobiológicos para o diagnóstico da brucelose e da tuberculose animal, distribuindo esses produtos para vários estados e países da América Latina. Também atende a 90% das Centrais de Inseminação Artificial do Brasil realizando exames de diagnóstico de doenças da reprodução animal. Oferece 350 tipos de exames nas áreas animal, vegetal e de resíduos em alimentos, realizando em média 500 diagnósticos por dia, além de participar de campanhas sanitárias contra a febre aftosa, raiva, tuberculose, brucelose, cancro cítrico e clorose variegada dos citros. Em 2007 a instituição passou a oferecer cursos de mestrado e, a partir de 2013, de doutorado. Mais recentemente, começou a investir em eventos educacionais, aproximando o público das atividades desenvolvidas por meio de programas como Biológico de Portas Abertas e Planeta Inseto, no Museu do Instituto Biológico, onde são realizadas as famosas corridas de baratas, em um circuito conhecido como Baratódromo. Também todos os anos o instituto realiza o Sabor da Colheita, evento que marca simbolicamente o início da colheita do café no estado de São Paulo. “Os participantes são convidados para colher frutos do café em meio aos mais de 1.500 pés plantados nas dependências do Biológico”, conta Antonio Batista Filho. n PESQUISA FAPESP 256 | 93


resenha

Machado de Assis sob novas lentes Jean Pierre Chauvin

E

m 2018 completam-se 110 anos da morte de Joaquim Maria Machado de Assis (1839 – 1908), um dos maiores escritores de que se tem notícia – não por acaso, alçado ao panteão da literatura universal, ao lado de William Shakespeare, Miguel de Cervantes, Laurence Sterne, Jonathan Swift, Xavier de Maistre, Stendhal, Gustave Flaubert, Almeida Garrett, Eça de Queirós e outros. Às vésperas da efeméride, os leitores poderão contar com ótimas companhias em torno de sua obra. Refiro-me a Machado de Assis: Lido e relido, coletânea de ensaios organizada por João Cezar de Castro Rocha (docente da Universidade Estadual do Rio de Janeiro, Uerj), e Machado de Assis, o escritor que nos lê – ensaio de Hélio de Seixas Guimarães (professor da Universidade de São Paulo, USP). O livro de Castro Rocha é a versão em português de The author as plagiarist: The case of Machado de Assis (2005), resultado de um colóquio internacional realizado nos Estados Unidos. A versão brasileira reúne mais de 40 especialistas debruçados em torno do que Machado produziu em diversos gêneros: crítica, romance, conto, poesia, crônica e congêneres. Afora nomes bastante conhecidos de nossa crítica, a coletânea dá voz a estudiosos que atuam ou atuaram em instituições de diversos países, a exemplo de Earl Fitz (Universidade Vanderbilt), Idelber Avelar (Universidade Tulane), Michael Wood (Universidade de Princeton), Stephen Hart (University College London), Hans Ulrich Gumbrecht (Universidade Stanford), Karl Ludwig Pfeiffer (Universidade de Siegen), Pedro Meira Monteiro (Princeton), Abel Barros Baptista (Universidade Nova de Lisboa), Frank Sousa (Universidade de Massachusetts Lowel), Pablo Rocca (Universidad de la República – Montevidéu), Paul Dixon (Universidade Purdue) e Arnaldo Saraiva (Universidade do Porto). Registre-se, ainda, a voz de José Saramago, que comparece com um tocante relato às páginas finais do volume. O escritor português, que possuía a quarta edição das Memórias póstumas de Brás Cubas, de 1914, descreve Machado como um desses grandes nomes que “são filhos do que leram e de si mesmos”. A síntese faz jus à multiplicidade de temas abordados pelos especialistas nos capítulos que o precedem. Lá estão os

94 | junho DE 2017

Machado de Assis: Lido e relido João Cezar de Castro Rocha (org.) Editora Alameda 748 páginas | R$ 128,00

Machado de Assis: O escritor que nos lê Hélio de Seixas Guimarães Unesp 310 páginas | R$ 56,00

intertextos de Machado com a cultura em geral e a literatura europeia, o que se traduz em temas como a abordagem da loucura, a representação do ceticismo, a figuração do leitor implícito, os diálogos entre música e literatura, a tonalidade irônica e o questionamento da ciência. Nesse painel cabem complicações do amor; as etiquetas e os códigos de conduta numa sociedade abrasada pela lógica recompensatória do utilitarismo; o papel dos narradores e a postura ambígua dos personagens; a capacidade de mimetizar a mentalidade dos leitores. Os ensaios levam em conta a nova roupagem que o romancista brasileiro deu a nomes da literatura mundial, distribuídos entre a Antiguidade e o Oitocentos, com escalas nos séculos XVI, XVII e XVIII. Acima de outras vozes, ressoam aquelas de Shakespeare, na representação trágica da existência; de Sterne, como paradigma do estilo autoirônico dos narradores machadianos; de Honoré de Balzac, na representação implacável da sociedade de arrivistas. Machado de Assis: Lido e relido explicita o fato de que o autor não só dialogava com a melhor literatura de seu tempo, mas também colocou o seu nome entre os escritores que mais cultivava. Por sua vez, em Machado de Assis, o escritor que nos lê, publicado em 2017, Hélio de Seixas Guimarães passa em revista sua extensa pesquisa em torno da obra machadiana. Resultado de sua


tese de livre-docência (2013), o livro extrapola o retrato de um homem de origem humilde e enfatiza o reconhecimento de Machado como uma das referências nacionais de seu tempo: “Com menos de 30 anos, ele já era escritor respeitado, a ponto de chamar a atenção e inspirar a confiança de José de Alencar, naquela altura o grande patriarca da literatura brasileira”. Guimarães recorre à ampla documentação, o que lhe permite reexaminar a recepção à obra machadiana e a figuração dos seus leitores como parte de um projeto literário tocado por um homem consciente de seu protagonismo na cultura brasileira. O ensaísta situa as margens teóricas de uma crítica em que predominava o impressionismo, ocasião em que juízos de valor se orientavam por dados biográficos e critérios acanhados. Isso explicaria a surpresa que alguns de seus romances provocaram em seu tempo. Nem sempre as narrativas protagonizadas por Brás Cubas ou Rubião foram bem compreendidas pela crítica sedenta por descritivismo paisagístico e maior comprometimento do escritor em torno dos assuntos nacionais. Guimarães lembra que o nome e a imagem de Machado de Assis ganharam forte impulso desde sua morte, em 1908. A seu ver, o “livro de Alcides Maya [Machado de Assis – Algumas notas sobre o humour], publicado em 1912, pode ser considerado o marco inicial da crítica post mortem e baliza importante para o processo de integração de Machado à vida e à literatura nacionais”. Após um relativo silêncio, outras vozes em torno do romancista se manifestaram na década de 1930. Manuel Bandeira comparou poesia e prosa machadianas, em benefício da segunda. Mário de Andrade parecia “ressentir-se da contenção de Machado, no seu excessivo controle sobre o texto, marcado pela frieza, por certo formalismo a que falta expressividade e subjetividade”. No mesmo decênio, Augusto Meyer, Lúcia Miguel Pereira e Astrojildo Pereira desenvolveram teses densas a respeito do escritor, recorrendo a uma análise psicológica do romancista e considerando sua extração social como fator interpretativo. Ainda em 1939, por iniciativa de uma comissão criada pelo governo de Getúlio Vargas, foi decretada a comemoração oficial do “primeiro centenário de nascimento de Joaquim Maria Machado de Assis”, com direito à promoção de um concurso homônimo. O Estado Novo fazia de Machado um símbolo brasileiro. As décadas de 1950 e 1960 assinalaram um período de reavivamento da crítica. O ensaio da norte-americana Helen Caldwell provocou novas dissensões na crítica brasileira, inclusive

ressalvas de Eugênio Gomes. Também Wilson Martins, “então professor da Universidade do Kansas”, posicionou-se firmemente em relação a Caldwell, supondo-a incapaz “de notar a ironia e o understatement machadianos”. Para Hélio Guimarães, durante as décadas de 1970 e 1980 houve um “adensamento” crítico no país. Alfredo Bosi, John Gledson e Roberto Schwarz protagonizaram um cenário de grande relevo para os estudos sobre a prosa machadiana. Fosse pela aproximação da literatura com a história, fosse pela abordagem predominantemente sociológica, fosse pela interpretação de fundo estético e em diálogo com os moralistas do século XVII, as figuras machadianas passaram a ser interpretadas como tipos sociais de relativa complexidade e ambivalentes do ponto de vista ético. Desde os estudos de Raymundo Faoro, nos anos 1970, a vasta galeria machadiana passou a ser examinada sob as lentes da instabilidaJosé Saramago de emocional e do poder pessoal, descreveu exercido na sociedade classista do Segundo Reinado. Avultam sujeitos o escritor carioca capazes de tiranias, impulsionados como um por veleidades. Em meio aos intensos debates, na década de 1990 desses grandes outra pesquisadora norte-amerinomes que cana avançou na interpretação de Machado. Susan Sontag constatou “são filhos “que a ansiedade com a recepção do que leram da obra, que permanece viva e continua a ter desdobramentos mais e de si mesmo” de um século depois da escritura e publicação de Brás Cubas, está inscrita no próprio romance”. A hipótese suscitou nova leitura da obra machadiana, concedendo maior fôlego à teoria do leitor implícito – figura prevista pelo autor durante a composição de suas narrativas. Porta-vozes de novas leituras sobre Machado, é feliz coincidência que Castro Rocha e Hélio Guimarães tenham se dedicado aos protocolos de leitura suscitados pelo escritor. Em face dos numerosos enigmas legados pelo romancista, eles reforçam a necessidade de o leitor firmar pactos com os narradores machadianos e trilhar outras sendas, capazes de os conduzir para além da convenção literária. Afinal, quem garante não sermos produto inacabado de sua ficção? Jean Pierre Chauvin é docente da Escola de Comunicações e Artes da USP e autor de O alienista: A teoria dos contrastes em Machado de Assis (Reis, 2005) e O poder pelo avesso na literatura brasileira: Manuel Antônio de Almeida, Machado de Assis e Lima Barreto (Annablume, 2013)

PESQUISA FAPESP 256 | 95


carreiras

Pós-graduação

Foco no mercado Mestrado profissional é alternativa para quem deseja aplicar conhecimento na resolução de problemas específicos do mercado de trabalho Os cursos de mestrado profissional estão se firmando no Brasil como uma alternativa de formação e qualificação profissional em diversas áreas, por oferecerem uma proposta curricular que procura articular a pesquisa científica com a prática profissional, de modo a qualificar o indivíduo para o mercado de trabalho e a ampliar a competitividade e a produtividade de empresas e organizações públicas e privadas. Reconhecido pela Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) em 1999, o mestrado profissional tornou-se uma das modalidades de pós-graduação que mais cresceram nos últimos anos no país. No início dos anos 2000, pouco tempo após ser instituído, eram oferecidos cerca de 60 cursos, sobretudo em instituições privadas de ensino superior. Nos últimos sete anos, no entanto, a oferta cresceu de forma exponencial, chegando a 338 cursos, em 2011, e a cerca de 700, em 2016. Em março deste ano o Ministério da Educação (MEC) também instituiu o doutorado profissional no âmbito do Sistema Nacional de Pós-graduação, com o propósito de estreitar as relações entre as universidades e o setor produtivo nacional. 96 | junho DE 2017

Mais próximo do mercado de trabalho do que o mestrado acadêmico e mais teórico do que os cursos de especialização e MBA (Master in Business Administration), o mestrado profissional foi inicialmente desenvolvido à imagem do tradicional – o acadêmico. “Com o tempo a modalidade passou ser orientada pela transferência do conhecimento produzido na universidade para a sociedade, por meio do aprimoramento de metodologias, técnicas e processos que atendam demandas específicas do mercado de trabalho”, afirma a professora Ana Lúcia Gomes da Silva, do Departamento de Ciências Humanas da Universidade Estadual da Bahia (Uneb). Esse movimento gerou apreensão em alguns setores da academia. O argumento foi de que esse tipo de curso poderia ameaçar o futuro do mestrado e doutorado tradicionais, comprometendo a geração de novos conhecimentos e a formação de pesquisadores para atender às demandas da ciência no Brasil. “Como consequência desse debate, surgiram muitas dúvidas sobre as semelhanças e diferenças entre essas duas modalidades de pós-graduação”, comenta Ana Lúcia.


ilustrações zansky

De modo geral, o processo seletivo para ingressar no mestrado profissional costuma ser semelhante ao do acadêmico, com prova escrita, entrevista e avaliação do currículo. Em ambos os casos, os cursos duram dois anos. Muitas vezes o aluno não precisa apresentar um projeto de pesquisa para ser admitido ou fazer uma dissertação para obter o título de mestre na modalidade profissional. Dependendo da instituição, o trabalho final pode ser uma revisão de literatura, um artigo, um estudo de caso, um relatório, uma proposta de intervenção, um projeto de adequação ou inovação tecnológica, desenvolvimento de instrumentos, equipamentos, protótipos, dentre outros formatos. Em outras situações, exige-se do candidato um projeto de pesquisa semelhante ao do mestrado acadêmico, com objetivos e metodologias bem definidos e coerentes com o tipo de investigação que se pretende desenvolver. “Seja como for, a investigação no âmbito do mestrado profissional precisa estar comprometida com o aprimoramento profissional do indivíduo, seja ele funcionário ou empresário, enfatizando a articulação entre conhecimento atualizado, domínio da metodologia e aplicação orientada para uma área específica”, explica Ana Lúcia. Diferentemente do mestrado acadêmico, o profissional é orientado por linhas de atuação, que visam à construção de um conhecimento instrumental, de rápida aplicação. “É fundamental que a pesquisa realizada nessa modalidade possa ser incorporada ao exercício da profissão não acadêmica, aproximando teoria e prática, com propostas de intervenção apresentadas ao final do curso”, afirma a professora Marli Eliza André, do Programa de Estudos Pós-graduados em Psicologia da Educação da Pontifícia Universidade Católica de São Paulo (PUC-SP). Segundo ela, o mestrado profissional deve estar comprometido com a instrumentalização da prática profissional do estudante.

Os cursos oferecidos hoje abrangem áreas como economia, administração, direito, entre outras. Ainda assim, alguns campos se destacam. A área da educação é a que lidera a oferta de cursos de mestrado profissional no país. São 82 cursos destinados sobretudo à formação de professores da educação básica. “O objetivo do mestrado profissional em educação é estreitar as relações entre a universidade, as redes de ensino e os gestores educacionais por meio da formação de recursos humanos para atuar em setores acadêmicos e não acadêmicos”, afirma Ana Lúcia. A área da saúde coletiva também tem uma participação significativa, com 39 cursos. De acordo com a nutricionista Silvia Medici Saldiva, coordenadora do Programa de Mestrado Profissional em Saúde Coletiva oferecido pelo Instituto de

Saúde de São Paulo, essa modalidade de ensino pode contribuir para a formação de indivíduos aptos a identificar problemas por meio de abordagens multidisciplinares, capazes de estabelecer prioridades e intervir sobre a situação da saúde de diferentes grupos populacionais. A Capes, além de regular os programas de mestrado profissional, avalia os cursos. O título de mestre tem validade nacional e confere ao seu detentor os mesmos direitos concedidos aos titulados na versão acadêmica, como poder dar aulas em cursos de ensino superior. Diante da vasta oferta de cursos é preciso critério para encontrar programas de boa qualidade. Alguns se destacam, como o mestrado profissional em engenharia aeronáutica e mecânica oferecido pelo Instituto Tecnológico da Aeronáutica (ITA) em parceria com a Empresa Brasileira de Aeronáutica (Embraer). Com duração de 18 meses e uma estrutura curricular voltada às necessidades tecnológicas da própria companhia, o curso oferece especializações nas áreas de aerodinâmica, propulsão e energia, estruturas e mecânica dos sólidos e mecatrônica e dinâmica de sistemas aeroespaciais. Já formou mais de 1.400 profissionais, segundo Daniela Sena, diretora de recursos humanos da Embraer. “Quase todos são contratados pela empresa para implementar os projetos desenvolvidos durante o curso.” No site da Capes é possível conferir as notas dos programas e a proposta curricular dos cursos oferecidos hoje no país: bit.ly/1DI9DJ7. n Rodrigo de Oliveira Andrade PESQUISA FAPESP 256 | 97


O colecionador de ossos Médico ortopedista Herculano Alvarenga tornou-se um especialista em paleontologia e hoje dirige o Museu de História Natural de Taubaté

Acervo de Alvarenga abarca todos os períodos geológicos, apresentando a evolução da vida na Terra

As aves sempre fascinaram Herculano Alvarenga. Ainda jovem, colecionava exemplares que ele próprio se dava ao trabalho de empalhar. Seu interesse pela zoologia, no entanto, não se estendeu à universidade. Alvarenga formou-se médico pela Faculdade de Medicina de Taubaté, em 1973, especializando-se em ortopedia. Dois anos depois, ingressou como professor na mesma instituição. Em 1977 a faculdade entrou em greve. Com tempo livre, pôde retomar o antigo passatempo. Por coincidência, no mesmo ano, trabalhadores depararam-se com uma ossada vultosa em uma mina de argila no Vale do Paraíba, região do estado de São Paulo conhecida por abrigar grande variedade de fósseis de animais pré-históricos. Tratava-se de um esqueleto quase completo do que parecia ser um animal gigante. Alvarenga foi chamado para examinar a ossada. “No início, pensei que fosse o fóssil de um mamífero”, relembra. “Levei a ossada para casa para analisá-la melhor.” O conhecimento que havia adquirido em livros e artigos sobre zoologia não era suficiente para que pudesse descrever o animal sozinho. No Rio de Janeiro, procurou o 98 | junho DE 2017

geólogo Diógenes de Almeida Campos, do Departamento Nacional de Produção Mineral (DNPM), que se ofereceu para ajudá-lo. Alvarenga passou a se corresponder com o geólogo, trocando informações que o ajudassem a descrever o animal. O trabalho resultou em um artigo científico, publicado em 1982 na revista Anais da Academia Brasileira de Ciências, descrevendo a nova espécie: uma ave carnívora, do grupo das aves do terror, assim apelidadas pelos paleontólogos por matar suas presas a pontapés, prendendo-as com

Fóssil da ave do terror exposto no Museu de História Natural de Taubaté

o bico e as batendo contra o solo. Com 2 metros de altura, uma cabeça do tamanho da de um cavalo e cerca de 200 quilos, o animal teria vivido na região há 23 milhões de anos. A descrição da nova espécie, batizada de Paraphysornis brasiliensis, repercutiu internacionalmente. Outros museus passaram a solicitar réplicas do animal para integrar seus acervos. Em troca, enviavam a Alvarenga cópias de peças de suas coleções. “O Museu de História Natural de Londres enviou-me uma réplica do fóssil do Archaeopteryx, uma das aves mais primitivas de que se tem registro; o de Los Angeles, um crânio de Tyrannosaurus rex”, conta. Na base da troca, Alvarenga adquiriu réplicas de diversos animais extintos, que eram estocadas em sua casa. Com o tempo, o médico ortopedista transformou-se em um especialista em paleontologia de aves, escrevendo e colaborando com cientistas e instituições do Brasil e do exterior. Desde então, ele já identificou e descreveu mais de 15 novas espécies de aves fósseis. Em 1995, aos 48 anos, ingressou no doutorado em zoologia no Instituto de Biociências da Universidade de São Paulo (IB-USP), sem deixar o cargo de professor na Faculdade de Medicina de Taubaté e de atender seus pacientes em seu consultório de ortopedia. “Estudei fósseis de aves do terror de museus de toda América e da Europa para caracterizar a família Phorusrhacidae e reorganizar o estado caótico que até então envolvia a nomenclatura e a classificação dessas aves”, explica. Em 1998 Herculano foi exortado pelo então prefeito de Taubaté a criar um museu para expor sua coleção. O projeto avançou e, em 2000, a prefeitura doou o terreno e financiou a construção do edifício. O Museu de História Natural de Taubaté foi inaugurado quatro anos depois. Conta hoje com cerca de 14 mil peças. O material abarca todos os períodos geológicos. A instituição hoje sofre com constantes atrasos no repasse de verbas da prefeitura, que havia se comprometido a contribuir com R$ 100 mil por ano. Com despesas que chegaram a R$ 250 mil em 2016, o espaço corre o risco de fechar. n R.O.A.

fotos eduardo cesar

perfil


classificados

­_ Anuncie você também: tel. (11) 3087-4212 | www.revistapesquisa.fapesp.br


Você sabia que nosso site tem material PACIFIC exclusivo e todo o OCEAN conteúdo da revista impressa? Notícias, vídeos, galeria de imagens e podcasts Todas as edições integrais com opção de folhear na tela ou em dispositivos móveis Edições traduzidas para inglês e espanhol

PACIFIC OCEAN

Suplementos especiais e coletâneas internacionais em inglês, espanhol e francês

Visite o nosso site e se cadastre para receber o boletim e estar sempre a par das novidades

revistapesquisa.fapesp.br

TERRITORY OF THE UNITED STATES IN 1838

ATLANTIC OCEAN


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.