Alimento construído

Page 1

www.revistapesquisa.fapesp.br

março de 2018 | Ano 19, n. 265

alimento construído Estudos recentes acirram polêmica sobre os riscos de consumir comidas industrializadas ricas em conservantes, sal, açúcar e gorduras

Novo avião da Embraer tem desempenho acima do esperado nos testes de voo

Rã da Amazônia é o vertebrado com mais cromossomos sexuais

Brasil tem sobrevida alta em câncer de próstata e baixa nos tumores infantis

Marcelo Viana, diretor do Impa, fala do ingresso do país na elite da matemática internacional

Número de imigrantes que buscam refúgio cresce 34 vezes em menos de 10 anos




www.SciELO20.org

Onde a qualidade, inovação e o Acesso Aberto florescem

20 Anos Reunião da Rede SciELO - 24-25 set 2018 Conferência Internacional - 26-28 set 2018 Com mais de 800 mil acessos diários a artigos e crescente impacto por citações recebidas, a coleção SciELO de periódicos de qualidade do Brasil contribui para o avanço e visibilidade da pesquisa brasileira e sua capacidade de comunicação científica. O SciELO é um programa da FAPESP com apoio da CAPES e CNPq. Lançado em 1998 com a colaboração da BIREME/OPAS/OMS, o modelo de publicação é adotado por 15 países que formam a Rede SciELO.


fotolab

A beleza do conhecimento em imagens

Sua pesquisa rende fotos bonitas? Mande para imagempesquisa@fapesp.br Seu trabalho poderá ser publicado na revista.

500 μm

Um condomínio que (quase) ninguém vê Janelas em forma de meia-lua com portas acionadas por um sistema hidráulico: a água entra pelos furos e permite a abertura. É essa a casa que o minúsculo invertebrado marinho Fenestrulina commensalis, que não aparece na foto, constrói e nela vive, espiando para fora com os tentáculos em busca de presas. A estrutura microscópica de placas só foi encontrada uma vez, no Espírito Santo, há 10 anos, aderida como azulejos aos tubos de uma única espécie de coral mole. Não quer dizer que não exista mais, ou em outros lugares: “Ninguém olha para os briozoários”, lamenta o biólogo Leandro Vieira, dedicado a encontrar e descrever essa fauna marinha.

Imagem enviada por Leandro Vieira, professor da Universidade Federal de Pernambuco

PESQUISA FAPESP 265 | 5


março  265

CAPA Pesquisas recentes alertam sobre o risco de consumir alimentos ultraprocessados e acirram polêmica p. 20

ENTREVISTA Marcelo Viana Diretor do Impa conta da entrada do Brasil na elite internacional da pesquisa em matemática e dos problemas no ensino da disciplina p. 28

POLÍTICA DE C&T

CIÊNCIA

36 Legislação Decreto detalha medidas para impulsionar a inovação em empresas e universidades

52 Saúde pública País apresenta sobrevida alta em câncer de próstata e baixa nos tumores infantis

41 Entrevista Economista Eduardo Albuquerque fala do avanço das colaborações internacionais e seus efeitos 44 Gestão de dados Reúso de informações científicas varia de acordo com a área do conhecimento 48 Empreendedorismo Bilionários tornam-se protagonistas da corrida espacial

56 Neurologia Imagens do cérebro de 2 mil pacientes indicam relação da epilepsia com a atrofia cerebral 58 Evolução Rã amazônica é o vertebrado com o maior número registrado de cromossomos sexuais

72 Entrevista William Bialek, pesquisador de Princeton, defende o uso da abordagem quantitativa da física na biologia 75 Física “Buracos” em membranas de óxido de grafeno separam a água do álcool 76 Cosmologia Experimentos procuram partículas cada vez mais leves como constituintes da matéria escura

61 Ambiente Áreas inundadas por hidrelétricas aumentam níveis de mercúrio em peixes da Amazônia 64 Entrevista Benedito Braga, presidente do Conselho Mundial da Água, comenta os temas do fórum que ocorre este mês

Foto da capa Koron / Getty Images

66 Ecologia Chuvas mais torrenciais tendem a alterar o curso de rios e áreas alagadas do Pantanal

p. 58


www.revistapesquisa.fapesp.br Leia no site todos os textos da revista em português, inglês e espanhol, além de conteúdo exclusivo

vídeo youtube.com/user/pesquisafapesp

p. 92

TECNOLOGIA

SEÇÕES

80 Engenharia aeronáutica Novo avião da Embraer apresenta desempenho acima do esperado nos testes de certificação

5 Fotolab

84 Sensoriamento remoto Novo satélite deve retomar a coleta de dados sobre aquíferos de todo o mundo

8 Comentários 9 Carta da editora 10 Boas práticas Documento propõe novas práticas de pesquisa para deter crise 13 Dados Mulheres docentes do ensino superior

HUMANIDADES

14 Notas

86 Demografia Em menos de uma década, imigrantes fizeram as solicitações de refúgio no Brasil crescer 34 vezes

92 Memória A primeira tentativa de se produzir vacina contra febre amarela, em 1883

Ocupação do “Brasil” primordial Evidências indicam que havia populações de caçadores-coletores em todas as grandes regiões do país 10 mil anos atrás bit.ly/vCaçaColetaBr Invertendo a seta do tempo Os físicos Kaonan Micadei e Roberto Serra explicam como uma partícula fria pode transferir calor para uma quente bit.ly/vsetatempo Na trilha da febre amarela Adriano Pinter e Helena Sato, da Secretaria de Estado da Saúde de São Paulo, falam sobre o avanço da febre amarela bit.ly/vFebreAmarela

podcast  bit.ly/PesquisaBr

96 Carreiras Orçar bem o projeto de pesquisa pode ser decisivo para se obter financiamento

Especialistas discutem como transformar os grandes centros urbanos em ambientes mais saudáveis bit.ly/PBr16fev18


Conteúdo a que a mensagem se refere:

comentários

cartas@fapesp.br

Revista impressa

Galeria de imagens Vídeo Rádio

contatos revistapesquisa.fapesp.br redacao@fapesp.br

Olival Freire

Excelente a entrevista com Olival Freire Júnior (edição 263). Também trabalho com história da ciência e evolução do método científico na Universidade Federal do Rio Grande do Sul. Creio que praticamente todos os cursos universitários deveriam ter uma disciplina que aborde os aspectos históricos da área e suas peculiaridades, levando a um melhor entendimento do presente e de projeções futuras.

Milton Antonio Zaro

PesquisaFapesp PesquisaFapesp pesquisa_fapesp

Pesquisa Fapesp

pesquisafapesp cartas@fapesp.br R. Joaquim Antunes, 727 10º andar CEP 05415-012 São Paulo, SP Assinaturas, renovação e mudança de endereço Envie um e-mail para assinaturaspesquisa@ fapesp.br ou ligue para (11) 3087-4237, de segunda a sexta, das 9h às 19h Para anunciar  Contate: Paula Iliadis  Por e-mail: publicidade@fapesp.br Por telefone: (11) 3087-4212 Edições anteriores Preço atual de capa acrescido do custo de postagem. Peça pelo e-mail: clair@fapesp.br Licenciamento de conteúdo Adquira os direitos de reprodução de textos e imagens de Pesquisa FAPESP. Por e-mail: mpiliadis@fapesp.br Por telefone: (11) 3087-4212

8 | março DE 2018

Estágios no exterior

Um ponto importante a acrescentar na reportagem “Como aproveitar estágios no exterior” (edição 263): fazer uma apresentação do seu projeto e objetivos para o grupo (ou departamento, se puder) quando chegar ao laboratório visitante.

Alana Aragon Zulke

aumentam o número de artigos publicados, mas não mexem na ciência. Pelo Scimago, em 2016, o Brasil foi o 14º em número de artigos, o 16º em número de citações, o 16º em número de autocitações, mas o 164º em eficiência para transformar artigos em citações (citações/artigos). Em 2011, pelo THE, éramos o 15º em artigos, 20° em citações e, em eficiência (citações/artigos), tínhamos apenas 50% do 20° colocado (ficamos entre 100° e 200°). Em 2013 ficamos em 50° lugar entre 53 países em eficiência de converter dinheiro empregado em publicação de bom nível (Index Nature). Temos que focar na qualidade dos nossos artigos produzidos, o que requer rever nosso ensino de metodologia, nossa formação de cientistas e nossa pós-graduação. Gilson Volpato

Vídeo

Podemos concluir do estudo apresentado na reportagem “A metrópole e a ciência” (edição 263) que a ciência está se tornando cada vez mais global. Nesse sentido as colaborações internacionais são a base da ciência atual. Cooperação entre pesquisadores e grupos de pesquisa de diferentes países tem sido fundamental nesse processo.

Bem-feito o vídeo “Como macacos nos ajudam a entender a dispersão do vírus da febre amarela”. Mas pelo que foi dito fico com a impressão de que a responsabilidade por esse avanço da doença é a “natureza”. Se temos tantos estudos e controles, por que estamos tendo que oferecer vacinas em dose fracionada? Falta informação institucional de largo alcance. Agora há duas coisas a fazer: esclarecer e vacinar a população e apurar os motivos de termos chegado a esse ponto.

Valdir Guimaraes

Marco Antonio Vilarinho Gomes

Há um problema nessa história: analisar número bruto de publicações ou de citações. Isso significa que os países emergentes

Sua opinião é bem-vinda. As mensagens poderão ser resumidas por motivo de espaço e clareza.

Produção científica

Mais lida no mês de fevereiro no Facebook cientometria

A metrópole e a ciência  bit.ly/2BiW3AJ

93.672 pessoas alcançadas 803 reações 47 comentários 411 compartilhamentos

pixabay.com

Reportagem on-line


Fundação de Amparo à Pesquisa do Estado de São Paulo

carta da editora

José Goldemberg Presidente Eduardo Moacyr Krieger vice-Presidente Conselho Superior Carmino Antonio de Souza, Eduardo Moacyr Krieger, fernando ferreira costa, João Fernando Gomes de Oliveira, joão grandino rodas, José Goldemberg, Marilza Vieira Cunha Rudge, José de Souza Martins, Pedro Luiz Barreiros Passos, Pedro Wongtschowski, Suely Vilela Sampaio, Vanderlan da Silva Bolzani

Polêmica na mesa

Conselho Técnico-Administrativo Carlos américo pacheco Diretor-presidente

Alexandra Ozorio de Almeida |

diretora de redação

Carlos Henrique de Brito Cruz Diretor Científico fernando menezes de almeida Diretor administrativo

issn 1519-8774

Conselho editorial Carlos Henrique de Brito Cruz (Presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Maria Hermínia Tavares de Almeida, Marisa Lajolo, Maurício Tuffani, Mônica Teixeira comitê científico Luiz Henrique Lopes dos Santos (Presidente), Anamaria Aranha Camargo, Ana Maria Fonseca Almeida, Carlos Américo Pacheco, Carlos Eduardo Negrão, Fabio Kon, Francisco Antônio Bezerra Coutinho, Francisco Rafael Martins Laurindo, José Goldemberg, José Roberto de França Arruda, José Roberto Postali Parra, Lucio Angnes, Luiz Nunes de Oliveira, Marie-Anne Van Sluys, Maria Julia Manso Alves, Paula Montero, Roberto Marcondes Cesar Júnior, Sérgio Robles Reis Queiroz, Wagner Caradori do Amaral, Walter Colli Coordenador científico Luiz Henrique Lopes dos Santos diretora de redação Alexandra Ozorio de Almeida editor-chefe Neldson Marcolin Editores Fabrício Marques (Política de C&T), Glenda Mezarobba (Humanidades), Marcos de Oliveira (Tecnologia), Marcos Pivetta (Ciência), Carlos Fioravanti e Ricardo Zorzetto (Editores espe­ciais), Maria Guimarães (Site), Bruno de Pierro (Editor-assistente) repórteres Christina Queiroz. Yuri Vasconcelos e Rodrigo de Oliveira Andrade redatores Jayne Oliveira (Site) e Renata Oliveira do Prado (Mídias Sociais) arte Mayumi Okuyama (Editora), Ana Paula Campos (Editora de infografia), Júlia Cherem Rodrigues e Maria Cecilia Felli (Assistentes) fotógrafos Eduardo Cesar e Léo Ramos Chaves banco de imagens Valter Rodrigues Rádio Sarah Caravieri (Produção do programa Pesquisa Brasil) revisão Alexandre Oliveira e Margô Negro Colaboradores Barbara Malagoli, Daniel Almeida, Marcelo Cipis, Renato Pedrosa, Romolo, Suzel Tunes, Victoria Flório Revisão técnica Francisco Rafael Martins Laurindo, Fernando Cendes, Luiz Augusto Toledo Machado, Luiz Nunes de Oliveira, Plinio Barbosa de Camargo, Ricardo Ivan Ferreira da Trindade, Roger Chammas, Sérgio Robles Reis Queiroz, Walter Colli É proibida a reprodução total ou parcial de textos, fotos, ilustrações e infográficos sem prévia autorização Tiragem 25.650 exemplares IMPRESSão Plural Indústria Gráfica distribuição Dinap GESTÃO ADMINISTRATIVA FUSP – FUNDAÇÃO DE APOIO À UNIVERSIDADE DE SÃO PAULO PESQUISA FAPESP Rua Joaquim Antunes, no 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP FAPESP Rua Pio XI, no 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia Governo do Estado de São Paulo

O

s métodos de preservação e processamento de alimentos, que vêm sendo aperfeiçoados há milhares de anos, são fundamentais para a saúde e o bem-estar da humanidade. Conservar a carne no sal permitiu que ela fosse transportada por distâncias maiores; pasteurizar o leite elimina bactérias que fazem mal à saúde e aumenta a vida do produto. Problemas surgem quando não é mais uma questão de conservação, isto é, quando sal, açúcar e gordura, entre outras substâncias, são acrescidos aos alimentos não só para estender sua vida útil, mas para tornar seu gosto mais atraente para o consumidor. A atenção a esse aspecto da transformação levou a uma proposta de reclassificação dos alimentos, não mais a partir da composição de macronutrientes (proteínas, carboidratos e gorduras), mas sim com base no seu grau de processamento. Chamada de Nova, a proposta apresentada em 2009 divide os alimentos em quatro grupos: in natura (em seu estado natural), ingredientes alimentares (sal, açúcar, óleos), minimamente processados e ultraprocessados. A última categoria, considerada a mais preocupante, especialmente quando representa uma parcela significativa da alimentação de uma pessoa ou população, é composta por produtos alimentícios industriais, prontos para consumo, feitos total ou quase integralmente de substâncias extraídas de alimentos (como óleos, gorduras, açúcar) ou sintetizadas em laboratório (corantes, aromatizantes e realçadores de sabor, por exemplo). A reportagem de capa desta edição (página 20) mostra que a reclassificação não é consensual, mas pode ser útil para estudar a crescente incidência de doenças como diabetes e obesidade em todo o mundo. Esses alimentos não explicam por si sós o

problema, que tem muitas causas, mas estudos começam a mostrar que o consumo excessivo de alimentos ultraprocessados tem efeito nocivo sobre a saúde humana. ** A Embraer, terceira maior fabricante de aviões comerciais, deve entregar em abril a primeira encomenda de sua nova geração de jatos. Os testes de voo do E190-E2, avião com capacidade para 114 passageiros, apresentaram um resultado superior ao esperado: a aeronave emite menos poluentes, tem maior alcance de voo e é mais econômica e silenciosa do que havia sido especificado pela companhia. A expertise dos engenheiros da Embraer em projetar e desenvolver aeronaves combinou inovações, como o novo desenho da asa, com outros aperfeiçoamentos, como novos motores mais eficientes e melhoria do fly-by-wire – sistema que controla as peças móveis nas asas e cauda do avião –, resultando no mais eficiente jato de corredor único do mercado. Reportagem à página 80 conta como o desempenho do avião resulta de um intenso trabalho de pesquisa e desenvolvimento da empresa, interno e em colaboração com parceiros. Esta edição de Pesquisa FAPESP retoma alguns temas importantes abordados em edições anteriores. A febre amarela, capa da edição de janeiro, é retomada na seção Memória (página 92), que conta a história de uma primeira tentativa de vacina contra a doença, então pensada como sendo transmitida por uma bactéria, e não um vírus. Reportagem à página 36 apresenta a regulamentação de cinco leis voltadas para a resolução de entraves burocráticos às atividades de pesquisa, o incentivo à inovação em empresas e o reforço de elos entre o setor privado e as instituições de ensino superior e pesquisa. PESQUISA FAPESP 265 | 9


Boas práticas

Para prevenir novas crises Documento propõe mudanças em práticas de pesquisa a fim de reduzir a publicação de artigos cujos resultados ninguém consegue repetir A Real Academia de Artes e Ciências da Holanda lançou um documento propondo mudanças em práticas de pesquisa a fim de enfrentar o que se convencionou chamar de “crise da reprodutibilidade” – uma sucessão de casos de artigos científicos que caíram em descrédito por seus resultados não terem sido confirmados em experimentos subsequentes. As recomendações do relatório divulgado em janeiro, intitulado Estudos de replicação – Melhorando a reprodutibilidade nas ciências empíricas, buscam aumentar o rigor com que o trabalho científico é realizado e apoiar pesquisadores interessados em verificar resultados obtidos por colegas. Uma das propostas apresentadas consiste em estimular o financiamento de estudos voltados para ratificar outros estudos, seguindo o exemplo da Organização Holandesa para Pesquisa Científica (NWO), que destinou no ano passado € 3 milhões a um programa-piloto para projetos dessa natureza. As sugestões também incluem reforçar o treinamento de cientistas e estudantes em tópicos como desenho de experimentos e análise estatística, e incentivar periódicos científicos a publicar pesquisas que não confirmaram as hipóteses testadas ou então chegaram a resultados nulos. 10 | março DE 2018

“O conhecimento só avança se os pesquisadores puderem confiar nos resultados de estudos feitos anteriormente”, escreveu, no prefácio do relatório, a presidente da Real Academia, José van Dijck, pesquisadora de mídia e cultura da Universidade de Utrecht. Na avaliação da entidade, produzir dados fidedignos é essencial para evitar o desperdício de recursos na pesquisa e garantir a confiança do público na ciência. “O relatório conclui que estudos para reproduzir outros estudos devem ser conduzidos de forma mais frequente e sistemática, o que exige um esforço conjunto de agências de fomento, pesquisadores, periódicos e instituições científicas”, afirmou Van Dijck. O panorama da “crise da reprodutibilidade” apresentado no relatório mostra a relevância do problema. À procura de novos medicamentos contra o câncer, a empresa farmacêutica Amgen tentou confirmar os achados de 53 estudos pré-clínicos publicados que pareciam ter grande potencial. Apenas 11% dos resultados foram corroborados. A Bayer fez um esforço semelhante para tentar validar dados sobre alvos potenciais de novos remédios, obtidos por 67 projetos de pesquisa, e só teve sucesso em 25% dos casos. Uma colaboração internacional para investigar estudos de


Ilustração  romolo

psicologia experimental, área que foi palco de escândalos envolvendo manipulações e fraudes, só conseguiu ratificar resultados obtidos em 36 dos 100 artigos avaliados. No final do ano passado, as Academias Nacionais de Ciências, Engenharias e Medicina dos Estados Unidos criaram um comitê de 15 membros para estudar estratégias que previnam a publicação de estudos não confirmáveis – as conclusões devem ser divulgadas em 2019. Embora a crise se manifeste de modo aberto em medicina, ciências da vida e psicologia, o documento propõe que as demais áreas investiguem a extensão do problema em suas comunidades. “Quando observamos o conhecimento existente sobre causas da irreprodutibilidade, fica claro que muitas delas estão presentes em todas as disciplinas”, disse à revista Science Johan Mackenbach, pesquisador da área de saúde pública do Centro Médico Erasmus, em Roterdã, chefe do painel que organizou o relatório. Ele se refere a causas genéricas apontadas pelo documento, como a pressão para que pesquisadores publiquem novidades ou achados de impacto da forma mais rápida possível, caso contrário ficam em desvantagem na competição por financiamento e oportunidades de trabalho. O relatório enumera 20 diferentes razões para uma pesquisa chegar a resultados não confirmáveis. A maioria está relacionada a questões metodológicas, como falhas no controle de vieses, conclusões baseadas em amostras restritas ou falta de rigor estatístico na interpretação de dados. Na origem do problema, também há vícios na forma de reportar resultados, como selecionar dados favoráveis à hipótese da pesquisa, omitindo os negativos, ou modificar a proposta original de modo a adaptá-la às conclusões obtidas. Fraudes são o jeito mais extremo de gerar resultados inválidos, mas também existem ameaças à reprodutibilidade que são parte natural da atividade científica, como falhas humanas, erros técnicos inesperados ou mudanças não detectadas nas condições de

20 causas da irreprodutibilidade Por que resultados de alguns trabalhos científicos não são confirmados por outros estudos ◆ Desenho experimental ineficiente associado a controle de vieses falho

◆ Escolha de variáveis que se adequam aos resultados

◆ Amostras de tamanho insuficiente

◆ Formulação de hipótese depois que os resultados são conhecidos

◆ Problemas em testes estatísticos que geram falsos resultados negativos ◆ Erro técnico ou humano na execução do estudo, associado a controle de qualidade ineficaz ◆ Fraude ou fabricação de dados ◆ Falta de rigor na análise estatística ◆ Análise estatística equivocada ◆ Falta de conhecimento sobre variáveis que influenciam o resultado ◆ Falhas do pesquisador em reproduzir os resultados antes da publicação ◆ Omissão de resultados nulos ou análise seletiva que faz os nulos parecerem positivos ◆ Não compartilhamento de dados ou de detalhes metodológicos

◆ Discrepância entre os resultados registrados e os publicados ◆ Ausência de revisão por pares adequada ◆ Ênfase no incentivo a artigos de alto impacto ◆ Recompensas exageradas a resultados de pesquisa tidos como disruptivos ◆ Sistemas de financiamento à pesquisa demasiadamente competitivos ◆ Falta de recompensa para práticas que favoreçam a replicação de estudos ◆ Crença de que o rigor no processo de pesquisa dificulta novas descobertas Fonte Replication Studies – Improving reproducibility in the empirical sciences. 2018

amostras. Nem todos os estudos não ratificados estão equivocados. Há situações em que não é possível alcançar o resultado obtido porque o autor da pesquisa deixou de informar detalhes do experimento essenciais para sua replicação. Para evitar essas situações, diz o relatório, periódicos e agências de fomento devem exigir que pesquisadores disponibilizem em repositórios públicos seus dados brutos de pesquisa e informações sobre as metodologias que adotaram. Há propostas de caráter prático para prevenir desvios, como determinar que o pesquisador, ao propor seu projeto, registre antecipadamente e de forma transparente sua hipótese, o protocolo de pesquisa e o plano de análise a serem adotados. Esse tipo de precaução já é exigido por agências de fomento, mas vem sendo aprimorado. Em uma iniciativa articulada pela Royal Society, do Reino Unido, varios periódicos já

publicam sistematicamente os chamados relatórios registrados, um tipo de paper que apresenta os métodos e planos de análise de uma pesquisa ainda não iniciada, mas que foram avaliados por pares. Mais tarde, as revistas publicam os resultados obtidos, mesmo que sejam nulos. O relatório é explícito sobre a importância de divulgar estudos com resultados nulos. Propõe que agências de fomento incentivem os pesquisadores a reportar tais conclusões e as revistas a publicá-las. “Instituições de pesquisa, agências de fomento e periódicos devem oferecer aos pesquisadores incentivos para a condução de estudos rigorosos e a produção de resultados de pesquisa reproduzíveis, em vez de recompensá-los principalmente por publicações de ‘alto impacto’, estudos ‘inovadores’ e afirmações infladas”, afirma o documento. n PESQUISA FAPESP 265 | 11


A National Science Foundation (NSF), principal agência de fomento à pesquisa básica nos Estados Unidos, anunciou um conjunto de ações para coibir o assédio sexual no ambiente acadêmico. A principal delas exige que instituições científicas e de ensino superior notifiquem a NSF quando constatarem abusos cometidos por pesquisadores financiados pela agência. “Até então, não exigíamos que as universidades nos informassem sobre denúncias de assédio sexual ou se algum pesquisador estava sendo investigado”, disse à revista Nature France Córdova, diretora da NSF. A nova política prevê o afastamento do pesquisador do projeto apoiado pela agência ou a suspensão do financiamento, após a conclusão das investigações. Também determina que as instituições estabeleçam condutas para impedir o assédio em locais de trabalho, evitando, por exemplo, a realização de conferências ou estudos de campo em lugares remotos, onde estudantes e jovens pesquisadores geralmente estão mais vulneráveis. A NSF ainda comunicou que as instituições devem criar condições favoráveis para que pesquisadores, funcionários e alunos denunciem violações sem risco de retaliações. As medidas devem entrar em vigor em abril. A agência criou uma nova página na internet (www.nsf.gov/harassment) em que enumera suas políticas e procedimentos contra o assédio sexual. “É um grande passo na direção certa”, disse à Nature Erika Marín-Spiotta, biogeoquímica da Universidade de Wisconsin-Madison, que lidera uma iniciativa financiada pela NSF para combater o assédio sexual nas ciências. Um ponto frágil da nova política da agência, na avaliação de Erika, é que ela não estabelece o que fazer se uma instituição não concluir a investigação de um caso. 12 | março DE 2018

Córdova descreveu as mudanças como uma expansão das estratégias anteriores da agência para combater o problema, incluindo uma declaração de 2016 exigindo que os beneficiários da NSF cumpram os requisitos de uma lei de 1972 que proíbe a discriminação sexual em universidades que recebem financiamento federal. Embora a NSF supervisionasse a conformidade das instituições com a legislação, frequentemente dependia de relatos divulgados na imprensa para se informar sobre casos de assédio sexual envolvendo pesquisadores financiados por ela. “É uma maneira ruim de ficar sabendo de algo”, disse Córdova. Assim como outras agências federais, a NSF está sob pressão do Congresso norte-americano para fortalecer sua resposta ao assédio sexual nas universidades. Em janeiro, o Comitê de Ciências da Casa dos Representantes –

a Câmara dos Deputados do país – pediu ao Government Accountability Office, órgão responsável pela auditoria, avaliações e investigações do Congresso, que investigasse casos de assédio sexual envolvendo pesquisadores financiados pelo governo federal em órgãos como a NSF, a agência espacial americana (Nasa), o Departamento de Energia e os Institutos Nacionais de Saúde (NIH).

Autoria precoce na Coreia do Sul O governo da Coreia do Sul vai iniciar uma investigação para apurar casos de pesquisadores que registraram os próprios filhos como coautores de seus artigos científicos. A decisão foi anunciada após um relatório divulgado pelo governo identificar a publicação recente de 82 papers em que menores de idade figuram como coautores – a maioria cursando o ensino médio e alguns até o ensino fundamental. De acordo com a revista Nature, os pesquisadores provavelmente buscaram criar vantagens para os filhos na briga por uma vaga em universidades, um processo altamente competitivo no país. Os casos foram descobertos graças a uma análise dos artigos escritos por mais de 70 mil pesquisadores coreanos de todas

as áreas do conhecimento ao longo dos últimos 10 anos. O trabalho, realizado pelo Ministério da Educação do país, foi deflagrado no final de 2017, quando se constatou a existência de um menor de idade assinando um artigo científico em parceria com um familiar que trabalha na Universidade Nacional de Seul. Esse tipo de coautoria foi encontrado em papers publicados por pesquisadores de 29 universidades coreanas. Em 39 dos 82 artigos, as crianças ou adolescentes teriam colaborado com a pesquisa por meio de atividades de um programa estudantil. O governo coreano não divulgou os nomes dos pesquisadores investigados nem dos periódicos envolvidos.

ilustração romolo

Agência contra o assédio sexual


Dados

Mulheres docentes do ensino superior A participação feminina entre docentes do ensino superior estava em 45,5% (175 mil de 384 mil docentes) em 2016, um pouco acima do que era em 2006 (44,5%). Havia pouca diferença entre os setores público e privado (eram 45,0% no primeiro e 45,9% no segundo). Mulheres receberam 51% dos títulos de doutorado concedidos entre 1996 e 2014 no país1. A distribuição da titulação máxima2 das docentes difere pouco daquela dos docentes, com ligeira vantagem para elas, por apresentarem maior proporção com mestrado.

Distribuição da titulação máxima2 por sexo, 2016

sexo feminino

Doutorado 68.187 39%

Graduação 2.186 1,3% Especialização 32.567 19%

Mestrado 71.666 41%

Regime de trabalho por sexo e categoria administrativa O regime de trabalho também depende da categoria

sexo masculino

Doutorado 81.650 39%

Distribuição da titulação máxima2 do sexo feminino, nas instituições de ensino superior públicas e privadas, 2016

Graduação 3.213 1,5%

ies públicas

Especialização 7.615 10%

Especialização 45.761 22% Doutorado 45.051 59%

Mestrado 78.864 38%

Mestrado 21.431 28%

Graduação 70 0%

IES privadas

Doutorado 23.136 24%

Especialização 24.952 25%

Mestrado 50.235 51%

ies pública

ies privada

3%

4%

3%

11%

11%

12%

18%

18%

administrativa (pública ou privada) da instituição. No setor

Graduação 2.116 3%

17%

n n n n

Horista Parcial Integral sem DE Integral com DE

35%

31%

37%

público, as diferenças não são significativas. No setor privado, as mulheres apresentam menor proporção como horistas e maior trabalhando em tempo

40%

41% 38%

integral e tempo parcial, em relação aos homens.

67%

67%

68%

24% 1%

total

mulheres homens

total

26% 1%

23% 1%

mulheres homens

1 Mestres e Doutores 2015, CGEE, Brasília, 2016 (Tabela D. EMP. 05).  2 Os grupos “Graduação” incluem oito docentes masculinos e três femininas que não possuíam título de graduação.  Fontes  Censo da Educação Superior, Sinopses 2006/2016, Microdados 2016, Inep/MEC. Elaboração: Coordenação de Indicadores de CT&I, Fapesp.

PESQUISA FAPESP 265 | 13


Notas DNA de rinoceronte leva caçadores à prisão O material genético extraído de chifres de rinoceron-

as espécies correm risco de extinção. Ao confrontar

tes apreendidos com caçadores ou traficantes está

trechos do DNA extraídos de material biológico

ajudando a levar os criminosos para trás das grades

apreendido com as informações da base de dados,

em alguns países da África. O DNA obtido do chifre

muitas provenientes de carcaças encontradas em

ou pó de chifre do animal e de manchas de sangue

parques nacionais, os pesquisadores conseguem saber

encontradas em roupas e facas tem servido como

a espécie do animal abatido e a que população per-

evidência do crime e permitido estabelecer penas

tencia. Desde 2010, a base já foi usada para produzir

mais severas nos países em que a caça foi banida –

evidências em 120 processos criminais. Em janeiro,

para extrair os chifres, vendidos a peso de ouro no

Cindy Harper e colaboradores dos Estados Unidos,

mercado internacional, é preciso matar o animal. A

da Rússia e de entidades africanas de proteção da

comparação do perfil genético do material confiscado

vida selvagem relataram nove processos criminais em

com as informações disponíveis na base de dados

que a análise genética permitiu condenar caçadores

Rhinoceros DNA Index System (RhODIS) já permitiu

ou traficantes de diferentes nacionalidades na África

em alguns casos identificar de qual animal ele havia

do Sul, no Quênia e na Namíbia (Current Biology, 8 de

sido retirado. Desenvolvida por uma equipe coorde-

janeiro). Estima-se que na última década 7 mil desses

nada pela veterinária Cindy Harper, da Universidade

animais tenham sido mortos na África para a retirada

de Pretória, na África do Sul, a RhODIS reúne infor-

dos chifres. Formados por queratina, a proteína das

mações genéticas de 3.085 rinocerontes-brancos

unhas, os chifres são comercializados por até US$

(Ceratotherium simum) e 883 rinocerontes-negros

60 mil o quilo por seus supostos poderes medicinais

(Diceros bicornis) de diferentes populações – ambas

(curaria de impotência a câncer).

Exemplar de rinoceronte-negro na área de conservação de Ngorongoro, na Tanzânia

1

14 | março DE 2018


As origens da malária na América do Sul

2

primeiras migrações humanas. A comparação de trechos do DNA mitocondrial de 244 amostras de P. falciparum

A espécie predominante

e 127 de P. vivax de países

de parasita causador da

da América do Sul, África,

malária no Brasil e em

Ásia e Oceania explicou

países vizinhos, o

a elevada diversidade

Plasmodium vivax, deve

genética do P. vivax

ter começado a entrar

no Brasil (ver Pesquisa

na América do Sul com

FAPESP nº 129) e

as primeiras migrações

confirmou que os

humanas, entre 25 mil e

P. falciparum encontrados

10 mil anos atrás,

atualmente na América

vindas do sul da Ásia e

do Sul devem ter

da Oceania, de acordo

vindo diretamente do

com um estudo do

continente africano.

Instituto de Ciências

O trabalho atual

Biomédicas da

também examinou

Universidade de

as possíveis origens

Há uma notícia boa e duas preocupantes sobre a fe-

São Paulo (ICB-USP)

do P. simium,

bre amarela. A boa é que um teste realizado na Re-

(Scientific Reports, 31 de

indistinguível genética

pública Democrática do Congo indicou que a dose

janeiro). Essa conclusão

e morfologicamente do

fracionada da vacina, produzida no Instituto de

ajuda a entender a

P. vivax. “As análises

Tecnologia em Imunobiológicos Bio-Manguinhos,

diversidade genética

do genoma mitocondrial

no Rio de Janeiro, ativou a produção de anticorpos

do P. vivax no Brasil,

indicaram que o

contra o vírus causador da doença em níveis simi-

muito mais elevada

P. simium é uma forma

lares à dose padrão. A dose fracionada contém 0,1

que na África, de onde

de P. vivax que teria sido

mililitro (mL), um quinto da usada anteriormente

veio outra espécie

transmitida de seres

nas campanhas de vacinação. Pesquisadores dos

causadora da malária,

humanos para macacos

Estados Unidos analisaram amostras de sangue

o P. falciparum. Segundo

da Mata Atlântica”,

de 716 pessoas vacinadas em 2016 em Kinshasa.

o parasitologista

diz Ferreira. Depois,

Dessas, 705 desenvolveram anticorpos contra o

Marcelo Urbano

o P. simium se adaptou ao

vírus (New England Journal of Medicine, 14 de feve-

Ferreira, professor do

macaco e fez o caminho

reiro). Em janeiro, o Ministério da Saúde do Brasil

ICB-USP e coordenador

de volta, infectando

decidiu adotar a dose de 0,1 mL para imunizar 20

do trabalho, o P. vivax

pessoas por meio da

milhões de pessoas em São Paulo, no Rio de Janeiro

pode ter chegado às

picada de mosquitos (ver

e na Bahia e tentar conter a epidemia de febre

Américas já com as

Pesquisa FAPESP nº 262).

Três notícias sobre a febre amarela

Vacina produzida em Bio-Manguinhos, no Rio, agora aplicada em dose fracionada

amarela silvestre atual (ver Pesquisa FAPESP nº 264). Uma notícia que gerou apreensão é que o vírus pode continuar ativo por mais tempo do que

Fluxo mundial de Plasmodium vivax nos últimos 25 mil anos

se imaginava no organismo de quem o contrai. Em

As primeiras variedades do parasita a chegar à América do Sul teriam se originado no sul da Ásia e na Oceania

um estudo coordenado pelos virologistas Edison

fotos 1 Ikiwaner / wikimedia commons 2 léo ramos chaves

Durigon, Paolo Zanotto e Danielle Oliveira, da Universidade de São Paulo, a pesquisadora Carla

As cores indicam a

Barbosa identificou o vírus na urina e no sêmen

origem genética das

de um homem quase um mês depois de ele ter

variedades

sido infectado (Emerging Infectious Diseases, 1º

estudadas

de janeiro). O resultado sugere que o período

A espessura

de transmissão pode ir além do esperado. Outra

das setas indica

notícia preocupante: em fevereiro, pesquisadores

a intensidade

do Instituto Evandro Chagas, no Pará, informaram ter encontrado o vírus da febre amarela em exem-

do fluxo gênico entre as regiões

plares do mosquito Aedes albopictus capturados em 2017 em áreas rurais de Minas Gerais. Não se sabe se a espécie – aparentada do Aedes aegypti, que transmite a doença no ciclo urbano – passa o vírus aos seres humanos.

Fonte  Rodrigues, m. u. et al. Scientific reports. 2018

PESQUISA FAPESP 265 | 15


1

Obras assinadas por estrelas da arquitetura e seu impacto nas cidades

Museu de arte moderna de Graz, na Áustria, cujas formas inusitadas foram apelidadas de “amigáveis para alienígenas”

Um software para detectar sismos leves

movimentação do solo (sismogramas). Chamado de ConvNetQuake, o novo programa aprende,

Usando uma estratégia

após exposto a alguns

de inteligência artificial,

exemplos, a reconhecer

Pesquisadores da Universidade Técnica de Munique, na

pesquisadores

características

Alemanha, constataram que a construção de grandes obras

norte-americanos

exclusivas das ondas

arquitetônicas tem impacto limitado sobre o desenvolvimento

aprimoraram um

sísmicas produzidas por

econômico e social das pequenas e médias cidades que as

programa de

terremotos e a

abrigam. O grupo, vinculado ao Instituto de Desenvolvimento

computador para

diferenciá-las das ondas

Urbano da universidade e liderado por Nadia Alaily-Mattar,

detectar tremores leves,

geradas por outros

queria avaliar até que ponto pode ser reproduzido o “efeito

antes confundidos com

fenômenos, como a

Bilbao”, que foi a revitalização da cidade industrial espanhola

ruído na informação.

passagem de um

após a inauguração em 1997 de uma filial do Museu Gugge-

Sob a coordenação

caminhão perto do

nheim assinada pelo arquiteto Frank Gehry. Com base em

da sismóloga Marine

detector. Outros

três estudos de caso, os pesquisadores concluíram que os

Denolle, da

programas também

projetos arquitetônicos analisados, erguidos nos últimos 20

Universidade Harvard,

usam aprendizado de

anos, não melhoraram a economia das cidades em que foram

nos Estados Unidos,

máquina para identificar

implantados. Ainda que tenham movimentado o turismo e a

o cientista da

sismos, mas,

vida cultural, não tiveram influência perceptível na geração

computação Thibaut

diferentemente do

de empregos (Journal of Urban Design, 11 de dezembro de

Perol e o matemático

ConvNetQuake,

2017). Os exemplos avaliados foram o da cidade austríaca

Michaël Gharbi usaram

analisam o formato total

de Graz e seu museu de arte moderna assinado pelo inglês

uma abordagem

da onda – e não apenas

Peter Cook, cuja forma lembra uma bolha de sabão alongada;

computacional

os pontos relevantes.

o de Lucerna, na Suíça, e seu centro de convenções e cultura

chamada aprendizado

Isso exige mais tempo

composto por três prédios separados por canais, projetado

de máquina deep

de processamento

pelo francês Jean Nouvel; e o de Wolfsburg, na Alemanha,

learning para criar um

computacional e obriga

com seu centro de ciências Phaeno, um projeto futurista da

software capaz de

a reduzir o número de

iraniana Zaha Hadid. Se o impacto econômico foi restrito, o

analisar rapidamente

padrões comparados

valor das obras é mensurável do ponto de vista urbanístico,

grandes volumes

(diminuindo a detecção

por integrar distritos que não se conectavam e mudar as

de informações

de sismos). Os

relações espaciais nas cidades, disse Nadia Alaily-Mattar,

armazenadas nos

pesquisadores testaram

segundo o serviço de notícias Eurekalert.

registros de

o novo programa usando

16 | março DE 2018


dados de estações

3

sismográficas da cidade de Guthrie, em

Fezes de aves marinhas influenciam ciclo global de nutrientes

Oklahoma, e detectaram 17 vezes mais tremores do que o serviço geológico do estado. Só em julho de 2014, o ConvNetQuake identificou 4.225 sismos,

2

a maioria de baixa

Todos os anos, milhares de aves marinhas depositam

magnitude, além dos

toneladas de nitrogênio e fósforo nas colônias em que vivem por meio de seus excrementos (guano). Assim,

catalogados pelo serviço avanço, a camada de

Advances, 14 de

ozônio não está se

fevereiro). Em uma

recuperando em baixas

comparação com dois

latitudes, entre 60 graus

outros programas que

Norte, que corta a

usam inteligência

região central do

artificial, o

Canadá, e 60 graus Sul,

ConvNetQuake levou

entre a América do Sul

a população mundial de aves marinhas em 840 milhões

1 minuto para analisar

e a Antártida, segundo

de indivíduos de 320 espécies, distribuídos em 3 mil co-

dados de uma semana

outro estudo, feito por

lônias. Em seguida, submeteram os dados a um modelo

– o segundo programa

pesquisadores da

bioenergético, que considera o tamanho do animal, o

gastou 48 minutos e o

Europa, dos Estados

tipo de alimentação, a eficiência energética e o tempo

terceiro nove dias. Dos

Unidos e do Canadá

de permanência nas colônias reprodutoras. Desse modo,

três, o ConvNetQuake

(Atmospheric Chemistry

inferiram o total de nitrogênio e de fósforo excretado pelas

foi o único a localizar

and Physics, 6 de

aves. Por ano, elas lançam 591 mil toneladas de nitrogênio

a origem do tremor

fevereiro). “O potencial

e 99 mil toneladas de fósforo no ambiente, sobretudo

(acertou 74% das vezes).

de danos em baixas

nas colônias nos oceanos Ártico e Austral, onde estão as

latitudes pode ser maior

aves maiores, como o pinguim-de-testa-amarela (Eudyp-

que nos polos, porque a

tes chrysolophus). “Isso equivale ao nitrogênio e fósforo

radiação ultravioleta é

aportado por todos os rios do mundo para o oceano”,

mais intensa e mais

explica Ferreira. Nessas regiões, o guano serve de adubo

pessoas vivem nessas

para plantas e de alimento para micróbios (Nature Com-

regiões”, disse em um

munications, 23 de janeiro). Parte das fezes se dissolve

comunicado Joanna

no oceano e desencadeia processos químicos, biológicos

Por meio de medições

Haigh, pesquisadora do

e geológicos na costa. “As aves marinhas podem ter um

de satélite,

Imperial College London

papel-chave na transferência de nutrientes do oceano

pesquisadores da

e coautora do trabalho.

para o continente”, completa o pesquisador.

agência espacial

Ainda não há

norte-americana (Nasa)

explicações para a

obtiveram evidências de

redução da camada de

uma recuperação de

ozônio em baixas

20% na camada

latitudes. Uma

de ozônio sobre a

possibilidade é que uma

Antártida em 2016, em

mudança no padrão de

comparação com 2005.

circulação atmosférica

É uma consequência da

estaria reduzindo o

aplicação do Protocolo

ozônio nas camadas

de Montreal, que em

baixas da atmosfera

1987 proibiu a emissão

entre os trópicos e as

de clorofluorcarbonos

regiões de média

(CFCs), compostos que

latitude. A camada de

prejudicam a formação

ozônio filtra a radiação

de ozônio na alta

ultravioleta do Sol e

atmosfera (Geophysical

protege plantas, animais

Research Letters, 4 de

e seres humanos de

janeiro). Apesar desse

danos no DNA.

Menos ozônio sobre os trópicos

fotos 1 Wladyslaw Sojka / Wikimedia Commons  2 NASA Ozone Watch  3 Jason Auch

desempenham um importante papel no ciclo de nutrientes

geológico (Science

A camada de ozônio sobre a Antártida (mancha azul na área pontilhada) aumentou 20% desde 2005

nas regiões costeiras do planeta. O impacto do guano desses animais no ciclo de nutrientes foi analisado por um grupo internacional de pesquisadores, entre eles o engenheiro-agrônomo Tiago Osorio Ferreira, da Escola Superior de Agricultura Luiz de Queiroz da Universidade de São Paulo (Esalq-USP). Os pesquisadores estimaram

Colônia de pinguim-de-testa-amarela (Eudyptes chrysolophus), uma das espécies que liberam nitrogênio e fósforo nas regiões costeiras PESQUISA FAPESP 265 | 17


2

Os bastões queimados dos neandertais Escavações para a construção de um complexo de águas termais em 2012 no município de Grosseto, na Toscana, Itália, indicam que os neandertais, espécie de hominídeo que viveu na Europa entre 400 mil e 30 mil anos atrás, usavam o fogo para moldar artefatos de madeira antes do que se supunha. No sítio de Poggetti Vecchio, arqueólogos chefiados por Biancamaria Aranguren, do Ministério de Bens e Atividades Culturais e Turismo da Itália, encontraram 58 fragmentos de bastões feitos de buxinho (Buxus sempervirens) que teriam sido esculpidos com o auxílio do fogo cerca de 170 mil anos atrás (PNAS, 5 de fevereiro). Média salarial do docente brasileiro de ensino fundamental e médio só supera a dos professores da Indonésia, segundo estudo com cerca de 40 países

neandertais teriam usado fogueiras para moldar peças de madeira há no máximo 130 mil anos. Na camada geológica em que estavam os bastões, foram encontrados cerca de 200 artefatos de pedra, além de ossos fossilizados de uma espécie extinta de elefante (Palaeoloxodon antiquus).

Salário de professor brasileiro

essa categoria (US$ 66 mil anuais), enquanto no Chile e no México a média é, respectivamente, de

Os professores

US$ 17,7 mil e US$ 15,5

brasileiros de escolas

mil. O único país pior

sido usados para múltiplos fins, como escavar

públicas de ensino

avaliado que o Brasil

o solo, e não necessariamente para caçar. As

fundamental e médio

foi a Indonésia, onde os

peças tinham, em uma extremidade, uma alça

recebem menos da

professores recebem

para segurá-las e, na outra, uma ponta achatada.

metade da média salarial

US$ 1,5 mil por ano.

Vários bastões estavam carbonizados ao longo

dos docentes de outros

Segundo o documento,

do seu comprimento, indício de uso do fogo para

países avaliados na

há uma peculiaridade no

auxiliar na tarefa de raspar sua casca.

edição 2017 do relatório

Brasil. Aqui, os salários

Education at a glance,

pouco mudam de

da Organização

acordo com o nível

para a Cooperação e

(fundamental ou médio)

Desenvolvimento

em que se ensina,

Econômico (OCDE).

diferentemente das

O estudo analisou os

outras nações. Os

valores pagos a

professores brasileiros

professores dos países-

são os que trabalham

-membros da OCDE e

mais: lecionam

de algumas economias

42 semanas por ano,

parceiras, entre

diante de 40 semanas

elas o Brasil. Nas nações

nos outros países. O

avaliadas, o salário

relatório indica ainda

médio no ensino

que o salário dos

fundamental e médio foi

professores titulares das

de US$ 29,4 mil por ano,

universidades federais

enquanto, no Brasil,

brasileiras não está entre

os docentes receberam,

os piores: é de cerca

em média, US$ 13 mil –

de US$ 76 mil por ano,

em valores de 2012,

próximo ao que se

ajustados pela

paga na Noruega, na

paridade de poder de

Finlândia e na Suécia

compra. Luxemburgo

(respectivamente,

é o país com a maior

US$ 73 mil, US$ 80 mil

remuneração para

e US$ 81 mil).

Segundo Biancamaria, os bastões devem ter

1

1 cm

18 | março DE 2018

Bastão feito com a parte lenhosa de buxinho teria sido esculpido por neandertais com o auxílio do fogo

fotos 1 PNAS 2 léo ramos chaves  3 nasa

Até essa descoberta, havia registro de que os


Rochosos, com água e atmosfera favorável à vida

3

Os sete planetas semelhantes à Terra que or-

os planetas tinham tamanho semelhante ao da

bitam a estrela Trappist-1, uma anã vermelha

Terra, mas havia grande incerteza sobre a den-

mil vezes menos brilhante que o Sol, são todos

sidade, importante para permitir a existência de

rochosos. Dos sete, ao menos cinco parecem

água líquida e vida. O estudo atual, coordenado

apresentar uma densa atmosfera ou ter a super-

por Simon Grimm, da Universidade de Berna,

fície recoberta por água líquida ou gelo – alguns

Suíça, indica que a densidade dos planetas varia

desses planetas poderiam conter muito mais

de 60% a 100% da densidade terrestre. Modelos

água (até 250 vezes mais) do que a encontrada

de composição planetária alimentados com os

nos oceanos da Terra. Essas conclusões resul-

dados sugerem que os planetas Trappist-1c e

tam de um estudo conduzido por astrônomos

Trappist-1e têm núcleo rochoso – o último for-

europeus e norte-americanos que estimaram a

mado por ferro, como o da Terra. A atmosfera

composição dos planetas da Trappist-1 a partir

do Trappist-1b seria bem mais espessa que a

de dados medidos por telescópios em terra e no

terrestre, enquanto os planetas d, f, g e h teriam

espaço. De setembro de 2015 a março de 2017,

uma quantidade de água (líquida ou solidificada)

os equipamentos do Observatório Europeu do

correspondente a 5% de sua massa (Astronomy

Sul (ESO) e da agência espacial norte-americana

and Astrophysics, 31 de janeiro). Em outro estudo,

(Nasa) coletaram informações sobre os planetas

feito por parte da mesma equipe, analisou-se a

durante dezenas de órbitas que completaram ao

atmosfera dos planetas d, e, f e g. Concluiu-se

redor da estrela. A Trappist-1 está distante 40

que a dos três primeiros teria características

anos-luz do Sol e só se confirmou que é circun-

favoráveis à existência de vida (Nature Astro-

dada por sete planetas em 2017. Sabia-se que

nomy, 5 de fevereiro).

Representação artística da estrela Trappist-1 e seus sete planetas rochosos, alguns contendo mais água que a Terra

PESQUISA FAPESP 265 | 19


Tratamentos físicos e químicos alteram propriedades e aumentam duração dos alimentos 20 | março DE 2018


capa

N alimentos alimentos Alguns efeitos dos

fabricados fabricados fabricados fabricados Maior consumo de ultraprocessados eleva risco de desenvolver obesidade, hipertensão e câncer; ainda são necessários estudos com mais participantes para confirmar os achados

léo ramos chaves

Ricardo Zorzetto

os últimos anos vem se acirrando uma polêmica em torno dos alimentos industrializados, em especial aqueles ricos em açúcares, gorduras, sal e compostos químicos que aumentam a sua durabilidade ou lhe conferem mais aroma, cor e sabor. De um lado, alguns grupos de nutricionistas e especialistas em saúde pública atribuem a esses alimentos um papel importante, que começa a ser quantificado, no aumento do risco de desenvolver obesidade e diabetes, dois problemas de saúde cada vez mais comuns no mundo. O consumo desses alimentos, classificados como ultraprocessados em 2009 pelo epidemiologista Carlos Augusto Monteiro, professor da Faculdade de Saúde Pública da Universidade de São Paulo (FSP-USP), é elevado em vários países ricos, nos quais a proporção de pessoas com peso acima do considerado saudável é alta, e vem crescendo de modo acelerado nos países com população de renda média e baixa. De outro lado, pesquisadores da área de ciência e tecnologia de alimentos consideram a classificação imprecisa. Também afirmam que o consumo desse tipo de alimento, que permite a parte da população mundial ter acesso ao mínimo de energia necessária para se manter viva, é apenas um dos muitos fatores a serem ponderados na explicação desses problemas. Estudos recentes alimentam esse debate ao apresentar evidências iniciais de que um consumo maior desse tipo de alimento industrializado pode ter um impacto nocivo sobre a saúde. Em fevereiro deste ano, a revista British Medical Journal apresentou o resultado de uma pesquisa conduzida na França que, pela primeira vez, sugeriu existir uma associação entre um maior consumo de alimentos ultraprocessados e o aumento no risco de câncer. O trabalho do grupo francês se baseou na avaliação de informações sobre 104.980 pessoas com idade entre 18 e 72 anos que integram o projeto NutriNet-Santé. Os pesquisadores separaram os voluntários, inicialmente todos sem câncer, em quatro grupos, que diferiam apenas com relação ao consumo de ultraprocessados. Os produtos industrializados e prontos para o consumo correspondiam a 8,5% das calorias ingeridas diariamente entre os participantes que menos consumiam esses alimentos e representavam 32,3% da energia ingerida pelo grupo mais adepto dos ultraprocessados – em geral, doces, bebidas adoçadas e cereais matinais. Em cinco anos de acompanhamento, uma pequena proporção de cada grupo desenvolveu câncer. Quando descontaram os efeitos protetores PESQUISA FAPESP 265 | 21


do risco de surgir um tumor (ser mais jovem ou praticar atividade física) e os agravadores (fumar ou ter histórico de câncer na família, entre outros), os pesquisadores verificaram que um aumento de 10 pontos percentuais na participação dos ultraprocessados na dieta elevou em 12% a probabilidade de desenvolver câncer.

O

s autores evitam afirmar que os ultraprocessados provocam câncer. Um motivo é que ainda não se sabe o que na composição desses alimentos poderia levar ao desenvolvimento de tumores. “Além de apresentarem níveis mais altos de sal, açúcar e gordura, os ultraprocessados contêm aditivos e compostos que se formam durante o processamento industrial e podem ter impacto na saúde”, explica a epidemiologista Chantal Julia, pesquisadora da Universidade Paris 13 e uma das autoras do estudo, do qual participou Monteiro. “Os ultraprocessados são uma invenção recente da indústria, que usa ingredientes baratos para reduzir a quantidade de alimentos in natura e diminuir o preço dos produtos”, afirma Monteiro, médico epidemiologista especializado em nutrição. “Em um ultraprocessado, muitas vezes, resta pouco ou nada dos alimentos a partir dos quais foi produzido.” Foi ele que em 2009 propôs reclassificar os alimentos com base no grau de processamento, e não mais a partir de macronutrientes (proteínas, carboidratos e gorduras) (ver fichas ao lado). Sua expectativa é de que essa forma de ver os alimentos, a que deu o nome de Nova, ajude a explicar melhor o aumento de problemas de saúde associados ao desequilíbrio nutricional. É o caso da obesidade, que dobrou em 70 países entre 1980 e 2015 e hoje atinge 604 milhões de adultos e 108 milhões de crianças no mundo. Além desse estudo realizado na França, poucas pesquisas já conseguiram estabelecer uma associação direta entre a ocorrência de problemas de saúde e o consumo de ultraprocessados. Antes desses trabalhos, outras pesquisas já haviam identificado uma conexão entre o consumo de refrigerantes e bebidas adoçadas ou de comidas ricas em açúcar ou gorduras e o risco maior de desenvolver problemas metabólicos e cardiovasculares. Nenhuma delas, no entanto, agrupava esses alimentos em uma mesma categoria, o que, segundo alguns nutricionistas, eliminaria distorções. “Essa classificação permite enxergar atributos dos alimentos que vão além da composição nutricional, como a hiperpalatabilidade, que leva as pessoas a comerem além do ponto em que estariam satisfeitas”, afirma Inês Rugani Ribeiro de Castro, professora do Instituto de Nutrição da Universidade do Estado do Rio de Janeiro (Uerj) e membro do grupo de alimenta22 | março DE 2018

in natura ou minimamente processados Alimentos obtidos diretamente de plantas ou de animais. Podem ser submetidos a limpeza, extração de partes, fracionamento, moagem, secagem, fermentação, refrigeração, congelamento, pasteurização Abacaxi

componentes

Valor por 100g

Energia

50 kcal

Proteína

0,71 g

Gordura total Carboidrato

0g 12,86 g

Fibra

1,4 g

Açúcares

10 g

minerais Cálcio

14 mg

Ferro

0,26 mg

Sódio

0 mg

vitaminas C

47,1 mg

A

71 UI

lipídeos Gordura saturada

0g

Gordura trans

0g

Colesterol

0g

Ingrediente Abacaxi

Fontes ministério da saúde, guia alimentar para a população brasileira (2014) e USDA Food Composition Databases


ção e nutrição da Associação Brasileira de Saúde Coletiva (Abrasco). Antes do artigo no British Medical Journal, a nutricionista Raquel Mendonça, que hoje faz estágio de pós-doutorado na Universidade Federal de Minas Gerais (UFMG), já havia publicado dois outros estudos ligando o consumo mais elevado de ultraprocessados a problemas de saúde. Durante seu doutorado, feito em parte na Espanha, Raquel trabalhou com a equipe do epidemiologista Miguel Ángel Martínez-González, professor da Universidade de Navarra e da Escola de Saúde Pública de Harvard, nos Estados Unidos. Martínez-González coordena um estudo de acompanhamento da saúde de 22,5 mil adultos jovens que investiga as causas da obesidade e de doenças cardiovasculares e metabólicas. Em um trabalho, Raquel analisou o padrão alimentar de 8.451 participantes com idade entre 27 e 49 anos e peso considerado saudável no início do projeto – eles tinham índice de massa corporal (IMC) entre 18,5 e 25. Os voluntários foram separados em quatro grupos, segundo o número de porções de ultraprocessados que consumiam. Quem menos comia esse tipo de alimento ingeria, em média, uma porção e meia por dia, o correspondente a um pequeno pedaço de hambúrguer. No outro extremo, as pessoas consumiam seis porções – em geral, carne industrializada, embutidos, biscoitos, chocolates, rosquinhas e outros confeitos, além de refrigerantes e bebidas adoçadas. Este grupo ingeria 40% mais calorias e 6% mais gorduras, mas 10% menos proteínas e 18% menos fibras alimentares.

fotos  léo ramos chaves

N

ove anos após ingressar no estudo, uma parte significativa de cada grupo estava com sobrepeso (IMC entre 25 e 30) ou com obesidade (IMC superior a 30). Mesmo após descontar o consumo extra de calorias e outros fatores associados à obesidade, o grupo que consumia mais ultraprocessados apresentou um risco 26% maior de ter peso acima do saudável do que o grupo que menos ingeria esse tipo de alimento, segundo artigo publicado em 2016 no American Journal of Clinical Nutrition. Em um terceiro trabalho, Raquel observou que o consumo de mais ultraprocessados eleva a probabilidade de desenvolver hipertensão, fator de risco para doenças cardiovasculares, associado a 10,4 milhões de mortes por ano no mundo. Esses estudos fornecem, por ora, os indícios mais robustos da possível ação nociva dos ultraprocessados sobre a saúde. “Eles são, de fato, os únicos testes verdadeiros da hipótese de que os ultraprocessados poderiam causar doenças”, afirma Barry Popkin, professor da Universidade da Carolina do Norte em Chapel Hill. Economista de formação, Popkin se especializou em epide-

processados

ultraprocessados

Alimentos produzidos com adição de sal, açúcar ou substâncias de uso culinário para torná-los duráveis ou mais agradáveis ao paladar

Formulações industriais feitas inteira ou majoritariamente de substâncias extraídas de alimentos (gordura, açúcar, amido, proteína), derivadas de constituintes de alimentos (gordura hidrogenada, amido modificado) ou sintetizadas (corantes, aromatizantes, realçadores de sabor)

Abacaxi em calda

componentes Valor por 100g Energia

280 kcal

Proteína

2g

Gordura total

0g

Carboidrato Fibra Açúcares

66 g 6g 36 g

minerais Cálcio

0 mg

Ferro

0,58 mg

Sódio

20 mg

vitaminas C

1,9 mg

A

0 UI

lipídeos Gordura saturada Gordura trans Colesterol

0g

Gelatina de abacaxi

componentes

Valor por 100g

Energia

364 kcal

Proteína

9,09 g

Gordura total Carboidrato Fibra

0g 86,36 g 0g

Açúcares

86,36 g

minerais Cálcio

0 mg

Ferro

0 mg

Sódio

364 mg

vitaminas C

0 mg

0g

A

0 UI

0g

lipídeos

Ingredientes Abacaxi, açúcar, dióxido de enxofre (conservante)

Gordura saturada

0g

Gordura trans

0g

Colesterol

0g

Ingredientes Açúcar, gelatina, ácido adípico (acidulante), contém menos de 2% de sabor artificial, fosfato dissódico e citrato de sódio (controle de acidez), ácido fumárico (acidulante), amarelo 5, amarelo 6

Fontes ministério da saúde, guia alimentar para a população brasileira (2014) e USDA Food Composition Databases

PESQUISA FAPESP 265 | 23


miologia e nutrição e há quase 40 anos estuda em diversos países – inclusive no Brasil – a influência da mudança no padrão de alimentação e de atividade física sobre a obesidade e outros problemas de saúde. Em sua opinião, ainda não é possível saber qual a contribuição dos ultraprocessados para a obesidade.

O

que falta? Mais pesquisas como essas, capazes de estabelecer se há uma relação de causa e efeito entre o consumo desses alimentos e o desenvolvimento da obesidade. “Os três estudos são pequenos diante da complexidade da pergunta que tentam responder”, comenta o médico Lício Velloso, professor da Faculdade de Ciências Médicas da Universidade Estadual de Campinas (Unicamp) e coordenador do Centro de Pesquisa em Obesidade e Comorbidades, um dos Centros de Pesquisa, Inovação e Difusão (Cepid) financiados pela FAPESP. Velloso, que investiga os mecanismos bioquímicos da obesidade e do diabetes, afirma: “É preciso fazer estudos com um número maior de pessoas, que tenham composição genética variada”. Comprovar uma relação de causalidade não é simples. E fica mais difícil no caso da obesidade, um problema que pode ter causas genéticas e ambientais. Um dos requisitos para a identificação da causalidade é mostrar que a suposta causa antecede regularmente o fenômeno estudado. Isso é possível em estudos longitudinais ou de acompanhamento, como os da Espanha e da França. Nesse modelo, os pesquisadores seguem uma população inicialmente sem o problema e, periodicamente, registram as mudanças ocorridas após uma intervenção ou exposição a um fator de risco. No entanto, a maior parte dos trabalhos que tenta associar o consumo de ultraprocessados

Os ultraprocessados no mundo Vendas permaneceram quase estagnadas na América do Norte e aceleraram na Ásia, África e América Latina entre 2000 e 2013 vendas (em milhões de toneladas)

variação 2000-2013

n 2000 n 2013

102,9

América do Norte

2,3%

105,3 64,1

Ásia e Pacífico asiático

114,9%

137,7 63,2

Europa Ocidental

53,5

América Latina Oriente Médio e África Europa Oriental

18,5%

74,9

48%

79,1 22,3

71,4%

38,1 17,8

73,3%

30,1 Australásia

4,4

25%

5,5 Mundo

328,1 471,5

aos problemas de saúde é de estudos transversais. Neles, os pesquisadores coletam os dados do desfecho e da exposição em um só momento, tornando mais difícil confirmar que o resultado decorre da exposição ao fenômeno. Desde que propôs essa classificação dos alimentos, Monteiro e sua equipe verificaram que a participação dos ultraprocessados no prato dos brasileiros aumentou 22% na década passada (ver tabela na página 26) e que a disponibilidade desses alimentos é maior na casa de pessoas com sobrepeso ou obesidade. Também constataram que quem consome mais deles (mais de 35% das calorias diárias) ingere níveis altos de açúcares livres e baixos de fibras, o que reduz a saciedade. O consumo de ultraprocessados é historicamente elevado em países ricos, como Estados Unidos, Canadá e Inglaterra, onde respondem por mais da metade das calorias ingeridas por dia. As vendas nessas nações, porém, parecem ter atingido um ponto de saturação e estagnado na última década, segundo análise das vendas entre 1998 e 2012 em 79 países, feita por Popkin, Monteiro e Jean-Claude Moubarac, do Canadá. No estudo, publicado em 2013 na Obesity Review, eles identificaram o avanço da indústria transnacional de produção e distribuição desses alimentos em nações com população de média e

43,7%

Fonte paho Ultra-processed food and drink products in Latin America: Trends, impact on obesity, policy implications, 2015


No Brasil e em outros 12 países Evolução do comércio de bebidas e alimentos ultraprocessados em 13 nações da América Latina no período 2000-2013 vendas (em kg per capita)

variação 2000-2013

n 2000 n 2013

194,1 185,6

Argentina Bolívia

44,6

Brasil

90,7

Guatemala

19,8%

fotos léo ramos chaves

25,1%

113,5 164,3

México

Venezuela

11%

73,4 87,9

Equador

40,2

59,8% 25,1%

107,8 119,7

Costa Rica

Uruguai

200,6

73,7 92,2

Colômbia

Rep. Dominicana

30,6%

112,3 125,5

Chile

Peru

129,8%

102,5 86

– 4,4%

83,2 70,3 96,6 60,6 92 99,4

212,2

29,2% 107% 37,4%

149,3

146,4% 8%

baixa renda. No período, as vendas aumentaram, em média, 2,8% ao ano no Peru, no México, no Brasil e na Turquia e 5,5% ao ano na China, na Bolívia e na Indonésia, entre outros. “Essa indústria é a força que agora molda o sistema alimentar mundial”, escreveram os pesquisadores. Nas duas últimas décadas cresce entre pesquisadores, entidades médicas e órgãos de defesa do consumidor a convicção de que existe um lado nocivo nos alimentos ricos em sal, gordura, açúcar e compostos sintéticos, agrupados por Monteiro sob o termo ultraprocessados. Em 2012, a revista PLOS Medicine publicou uma série de artigos intitulada “Big food”, na qual avaliava o papel da indústria global de alimentos sobre a saúde. Em um deles, o economista e sociólogo David Suckler, da Universidade de Cambridge, na Inglaterra, e a nutricionista Marion Nestle, da Universidade de Nova York, nos Estados Unidos, lembram que o mercado mundial de alimentos e bebidas está concentrado na mão de poucas multinacionais. Na época, as 10 maiores, as Big food, como chamam, detinham metade das vendas nos Estados Unidos e 15% no resto do mundo.

Segundo Stuckler e Marion, havia evidências de que usavam estratégias semelhantes à indústria do tabaco para escapar de regulações e taxações. “O aumento do consumo dos produtos das Big food acompanha de perto os níveis crescentes de obesidade e diabetes”, afirmaram.

E

m geral, formulados para serem apetitosos, baratos e durar muito, esses alimentos podem ser transportados por longas distâncias. “O alimento industrializado é o que permite à boa parte das pessoas no mundo comer”, ressalta a bioquímica Bernadette Dora Gombossy de Melo Franco, professora do Departamento de Alimentos e Nutrição da Faculdade de Ciências Farmacêuticas (FCF) da USP e coordenadora do Centro de Pesquisa em Alimentos (FoRC), outro Cepid apoiado pela FAPESP. “Algumas décadas atrás não se conseguia fazer os alimentos chegarem a regiões distantes em países como o Brasil porque eram muito perecíveis”, conta Eduardo Purgatto, professor da FCF-USP e integrante do FoRC. “O processamento mudou esse cenário.” Para Velloso, da Unicamp, é preciso compreender o papel da indústria de duas formas. “Por um lado, ela torna possível que parte da população em regiões do planeta dependentes de uma produção local, que pode flutuar muito, tenha certa PESQUISA FAPESP 265 | 25


No prato dos brasileiros Compra de alimentos minimamente processados e de ingredientes culinários diminuiu e de ultraprocessados aumentou entre 2002-2003 e 2008-2009, segundo levantamento feito em cerca de 48 mil domicílios

% do total de calorias

2002-2003

2008-2009

In natura / minimamente processados

41,8

40,2 *

Arroz

16,8

15,6

Feijão

6,0

5,0 *

Carne (exceto peixe)

8,8

8,9

Leite e iogurte natural

5,0

4,5 *

Fruta

1,9

2,2 *

Raiz e tubérculo

1,0

1,0

Hortaliça

0,7

0,7 *

Peixe

0,5

0,5

Ovo

0,3

0,7 *

ALIMENTOS

Outro alimento in natura ou minimamente processado

0,7

0,6

Ingredientes culinários processados

35,2

32,0 *

Açúcar de mesa

11,8

10,8 *

Óleo vegetal

11,4

10,8

Farinha de mandioca

3,5

2,7

Farinha de trigo

2,6

1,9 *

Macarrão

2,5

2,3

Gordura animal (manteiga, banha e nata)

0,9

0,7 *

Outro ingrediente culinário processado

2,4

2,3

Processados

2,2

2,4 *

Queijo

1,0

1,1 *

Carne curada ou salgada

1,0

1,0

Conserva de fruta ou hortaliça

0,1

0,2 *

20,8

25,4 *

Pão

7,3

8,4 *

Biscoito, bolo e torta

2,6

3,1 *

Sorvete, chocolate e outro doce

1,7

2,2 *

Bolacha salgada e salgadinho

1,5

1,6

Ultraprocessados

Refrigerante

1,5

1,6

Outra bebida açucarada

0,4

0,8 *

Embutido

1,9

2,4 *

Refeição pronta e alimento enlatado, congelado ou desidratado

1,5

2,4 *

Molho e caldo

2,0

2,2 *

Cereal matinal

0,5

0,7 *

Fonte martins, a. p. b. et al. revista de saúde pública. 2013

26 | março DE 2018

* Variação significante do ponto de vista estatístico

garantia de acesso a alimentos; por outro, o consumo excessivo desses alimentos, como ocorre com a população mais pobre dos centros urbanos, pode interferir na saúde.” Ainda que Monteiro demonstre em que grau os ultraprocessados contribuem para a obesidade, é quase certo que esses alimentos, por si, não expliquem tudo. São conhecidos uns poucos genes que, alterados, são suficientes para levar uma pessoa a engordar, mas existem mais de 300 que regulam o acúmulo e o consumo de energia. A complexidade biológica foi amplificada nas últimas décadas pelo aumento na oferta mundial de alimentos e por mudanças no modo de cozinhar. Com mais disponibilidade de industrializados e o barateamento dos óleos vegetais comestíveis, a ingestão calórica média passou de 2,4 mil quilocalorias por pessoa por dia em 1970 para 3 mil em 2015, segundo dados do Fundo das Nações Unidas para Alimentação e Agricultura (FAO). Também houve uma redução na atividade física e mudanças no modo de preparo de alimentos. “Metade dos chineses tem sobrepeso porque deixou de assar os alimentos ou prepará-los no vapor e passou a fritá-los”, conta Popkin. “Em outros países, as pessoas engordaram por comer muito pão, tortilhas e frituras, e não ultraprocessados.” Bernadette concorda: “Colocar a culpa em uma só causa, sem considerar a redução na atividade física e a forma como as pessoas cozinham, no caso brasileiro acrescentando muito sal e açúcar, explica uma parte pequena do problema”.

A

proposta de que os ultraprocessados formem uma categoria à parte, reunindo o que há de pouco saudável nos alimentos, gerou um debate polarizado. Quem discorda não vê fundamento. Para Bernadette, falta uma definição clara sobre o que é um ultraprocessado. Michael Gibney, da University College Dublin, Irlanda, diz que seria preciso estabelecer limites de sal, açúcar, gordura e aditivos para definir esses alimentos. Membro do comitê científico da Nestlé, Gibney publicou um comentário em 2017 no American Journal of Clinical Nutrition no qual diz ainda faltarem evidências de que os ultraprocessados são quase viciantes. Em outro comentário, publicado em 2017 na revista EC Nutrition, o engenheiro de alimentos Raul Amaral Rego e o biólogo Airton Vialta, pesquisadores do Instituto de Tecnologia de Alimentos (Ital), vinculado à Secretaria de Agricultura e Abastecimento do Estado de São Paulo e à Agência Paulista de Tecnologia dos Agronegócios, dizem que o sistema de Monteiro é frágil e conflita com classificações bem estabelecidas. “Não há sentido prático em tentar classificar os alimentos com base no grau de processamento, já que o mesmo alimento pode ser processado de


diferentes maneiras, dependendo do produto que se quer alcançar”, escreveram. Rego e Vialta não quiseram se manifestar nesta reportagem. Já os apoiadores afirmam que a nova classificação pode orientar medidas que beneficiem a saúde da população. “Ao reunir um grupo variado de alimentos na categoria de ultraprocessados, criou-se um indicador-síntese, que permite conhecer melhor a qualidade da dieta das pessoas”, afirma Inês Rugani Ribeiro de Castro, da Uerj.

léo ramos chaves

C

Há uma década o Brasil tenta regular a publicidade de alimentos e bebidas ricos em açúcares, sal e gorduras

om base na nova classificação, o Ministério da Saúde elaborou em 2014 o Guia alimentar para a população brasileira. Distribuído a 60 mil profissionais da saúde e educadores, o documento recomenda o consumo abundante de alimentos in natura, reduzido dos processados e que se evitem os ultraprocessados. Ainda que não use o termo ultraprocessado, a Agência Nacional de Vigilância Sanitária (Anvisa), órgão federal que controla o registro de medicamentos e alimentos, tenta há mais de uma década regular a publicidade de alimentos e bebidas ricos em açúcares, sal e gorduras e calorias para crianças e proibir sua comercialização em escolas, como ocorre em municípios de alguns estados. É um esforço para combater os índices de sobrepeso e obesidade crescentes no país – hoje 15% das crianças e 58% dos adultos estão com peso superior ao saudável. Após discutir por quatro anos com a sociedade e a indústria uma proposta rigorosa de controle, a Anvisa publicou em 2010 uma resolução branda, suspensa depois por ações judiciais interpostas pelo setor publicitário e de alimentos.

Com o alarmante índice de 75% da população com peso superior ao saudável, o Chile, de modo pioneiro, proibiu em novembro de 2017 a veiculação de comerciais de alimentos com excesso de calorias, sal, açúcar e gorduras na televisão aberta e fechada das 6h às 22h. Uma lei de 2016 já obrigara a indústria a alterar as embalagens dos produtos, retirando personagens icônicos, como o tigre que ilustrava a caixa de cerais matinais açucarados, e exibindo alertas sobre os níveis dos ingredientes considerados pouco saudáveis, medida que se discute atualmente no Brasil. Além da restrição da publicidade e da mudança na rotulagem, Popkin, Monteiro e outros especialistas defendem o aumento da carga de impostos sobre esses alimentos. “Remover os ultraprocessados da dieta é o primeiro passo para promover hábitos alimentares saudáveis”, afirma Popkin. Purgatto, do FoRC, propõe outra saída: que setores do governo e da sociedade trabalhem com a indústria de alimentos. “Só a indústria”, afirma, “será capaz de produzir alimentos processados e ultraprocessados de melhor qualidade, talvez com mais fibras e proteínas, e fazê-los chegar a preços acessíveis a boa parte da população”. n Projeto Consumo de alimentos ultraprocessados, perfil nutricional da dieta e obesidade em sete países (n. 15/14900-9); Modalidade Projeto Temático; Pesquisador responsável Carlos Augusto Monteiro (USP); Investimento R$ 1.506.407,84.

Artigos científicos FIOLET, T. et al. Consumption of ultra-processed foods and cancer risk: Results from NutriNet-Santé prospective cohort. British Medical Journal. 14 fev. 2018. MENDONÇA, R. D. et al. Ultra-processed food consumption and risk of overweight and obesity: The University of Navarra follow-up (SUN) cohort study. American Journal of Clinical Nutrition. v. 104, n. 5, p. 1433-40. nov. 2016. MENDONÇA, R. D. et al. Ultra-processed food consumption and the incidence of hypertension in a Mediterranean cohort: The seguimiento Universidad de Navarra project. American Journal of Hypertension. v. 30, n. 4, p. 358-66. 1º abr. 2017.

PESQUISA FAPESP 265 | 27


28 | marรงo DE 2018


entrevista Marcelo Viana

Uma equação difícil Diretor do Impa fala da entrada do Brasil na elite internacional da pesquisa em matemática e dos problemas no ensino da disciplina idade 56 anos

nas escolas do país

especialidade Sistemas dinâmicos formação Graduação em matemática pela Universidade do Porto (1984) e doutorado em matemática pelo Impa (1990) instituição Impa produção científica 54 artigos em periódicos científicos, 11 livros escritos ou organizados, 9 capítulos de livros, 36 orientações de doutorado e 19 de mestrado

Marcos Pivetta  |

retrato

Léo Ramos Chaves

O

s próximos meses serão de muito trabalho para Marcelo Viana, diretor-geral do Instituto de Matemática Pura e Aplicada (Impa), no Rio de Janeiro. Além de comandar a renomada instituição acadêmica, esse carioca criado em Portugal é o organizador geral do 28º Congresso Internacional de Matemáticos (ICM 2018), o maior e mais importante encontro da área, que ocorre a cada quatro anos. Pela primeira vez, o evento será no Brasil, na capital fluminense, entre 1º e 9 de agosto. Quando esta entrevista for publicada, ele provavelmente será uma das poucas pessoas do mundo que conhecem o nome dos ganhadores da medalha Fields, o mais prestigioso prêmio da área. Como é praxe, os vencedores dessa honraria e de outros prêmios concedidos pela União Matemática Internacional (IMU) são anunPESQUISA FAPESP 265 | 29


léo ramos chaves

Alunos e professores assistem à palestra no auditório do Impa

ciados durante o evento. O brasileiro Artur Avila recebeu a medalha Fields durante o congresso de 2014, realizado em Seul, na Coreia do Sul. “Tenho 20 quartos de hotéis no Rio reservados em meu nome para abrigar os ganhadores e outros vips”, comenta Viana, com o leve sotaque português de quem passou a infância e a juventude no Porto, em cuja universidade fez a graduação em matemática, antes de voltar a viver do outro lado do Atlântico. A matemática brasileira feita nas universidades e centros de pesquisa como o Impa chega prestigiada ao ICM 2018. A IMU acaba de elevar o Brasil ao grupo dos 11 países que formam a elite da pesquisa em matemática no mundo, como os Estados Unidos e a França, as duas maiores potências da área. O pedido de ingresso fora feito em 2017 pelo Impa e pela Sociedade Brasileira de Matemática (SBM). 30 | março DE 2018

Se a pesquisa acadêmica nessa área de conhecimento vai bem, o mesmo não se pode dizer do ensino básico de matemática no país, com desempenho ruim dos alunos brasileiros em testes internacionais de conhecimento. Nesta entrevista, Viana, especialista na área de sistemas dinâmicos, fala desses dois lados da matemática nacional, a que produz, ao mesmo tempo, um ganhador da medalha Fields e crianças que não sabem fazer contas básicas. Como foi o trabalho com a IMU para que o Brasil fosse aceito no grupo de elite de pesquisa em matemática? Foi um trabalho de convencimento ou havia pré-requisitos técnicos que o país alcançou? Não há requisitos explicitados, mas a avaliação é baseada no desempenho da matemática do país. Fizemos um dossiê com mais de 30 páginas em que apresentamos as razões que justificavam nossa entrada no grupo 5. Nesse dossiê, há, por exemplo, um gráfico em que mostramos o número de artigos internacionais em matemática que tiveram um autor brasileiro nos últimos 30 anos. Fomos de 253 artigos em 1986 para 2.349 em 2016.

Estamos falando de todo o Brasil e não apenas do Impa. Mas esse nem é o meu número favorito no dossiê. Cerca de 30 anos atrás, o país produzia 0,4 de cada 100 artigos científicos de matemática publicados no mundo. Era muito pouco, pois tanto a população do Brasil como o PIB do país representam cerca de 2,8% do mundo. Nossa meta na pesquisa em matemática também tinha de ser dessa ordem. Agora estamos chegando em 2,4 artigos de cada 100 produzidos no mundo. No dossiê, há outros parâmetros desse tipo. Há dados de pesquisa, de eventos, de formação de pessoal na pós-graduação, de educação básica, de popularização da matemática, de olimpíadas de matemática. A avaliação não é feita por uma fórmula. Os matemáticos não gostam muito de avaliações numéricas. É uma avaliação de conjunto, subjetiva, mas tem de ser convincente. No grupo 5, estão mais 10 países. Não vamos destoar. Estamos junto dos Estados Unidos e da França, duas grandes potências, Alemanha, Reino Unido. Essas são as quatro maiores delegações do ICM 2018. O Brasil é a quinta. Do grupo 5 também fazem parte China, Rússia, Canadá, Japão, Israel e Itália.


Mas, em parte, a grande delegação nacional no congresso não é decorrente de o evento ser aqui? Há um elemento para nós, matemáticos, que ajuda a medir isso. A cada quatro anos, há esse congresso internacional. Todo mundo pode assistir, mas só dá palestra quem é convidado. Não se pode se candidatar a ser palestrante. Cerca de 200 palestrantes falam no congresso, 20 nas sessões plenárias e os demais em sessões específicas, de áreas da matemática. Nosso primeiro palestrante em um congresso foi Leopoldo Nachbin [19221993], em 1962. O segundo foi Maurício Peixoto em 1978, 16 anos mais tarde. Depois tivemos participações esporádicas no congresso até que, em certo momento, começamos a ter um palestrante por edição do evento. O primeiro plenarista fui eu, em 1998. No congresso deste ano, haverá 13 matemáticos brasileiros dando palestras. Então é verdade que há efeito casa, quem abriga o congresso tem mais palestrantes do que o normal. Mas vou lhe dar um contraponto. Há quatro anos, o congresso ocorreu na Coreia do Sul, país respeitável em matemática. Sabe quantos coreanos deram palestras no evento? Quatro. Você está dizendo que a matemática brasileira é melhor do que a da Coreia do Sul? Não estou dizendo isso, mas você me entendeu. A IMU é estruturada em grupos. Quando o Brasil entrou na união em 1954, estava no grupo 1, o mais baixo. Os países desse grupo pagam uma unidade da anuidade da IMU [€ 1.395 em 2018] e têm direito a um voto na assembleia geral da entidade. O grupo 2 tem dois votos e paga quatro anuidades e assim por diante. Em 2005, por iniciativa do Jacob Palis [matemático brasileiro que foi diretor-geral do Impa e secretário-geral e presidente da IMU], nos candidatamos ao grupo 4, onde estávamos até o início do ano ao lado de países como Coreia do Sul, Polônia, Suécia, Índia e Suíça. Já era uma posição bastante honrosa para um país que, 60 anos atrás, quase não tinha matemática. Agora estamos no grupo 5, que é o mais elevado, com direito a cinco votos e pagaremos 12 anuidades. A anui­ dade é paga pela Sociedade Brasileira de Matemática, que é a organização que representa o Brasil na IMU.

A pesquisa em matemática feita no Brasil produz 2,4 de cada 100 artigos publicados em revistas internacionais

O ponto de partida do dossiê é 1986, quando você deixa Portugal e se transfere para o Brasil. Como era a matemática brasileira nessa época? O Impa já tinha ótima reputação. Nomes como o do Jacob, do Welington de Melo e do Paulo Sad já eram conhecidos no exterior. Mas o Impa era muito menor do que hoje, em todos os aspectos, inclusive no escopo de atividades. Estávamos começando a atuar na educação básica com os projetos de aperfeiçoamento de professores criado por Elon Lages Lima, que também foi diretor do instituto. As olimpíadas de matemática eram bem menores. Mais tarde, nos anos 2000, nos tornamos organizadores da Obmep [Olimpíada Brasileira das Escolas Públicas], além de cuidar da OBM [Olimpíada Brasileira de Matemática, aberta a todas as escolas]. Passamos a apoiar olimpíadas regionais e a mandar alunos para competições no exterior. Popularizar a matemática é hoje uma das nossas prioridades. Nos últimos 30 anos, houve uma mudança quantitativa e qualitativa no Impa. Nosso corpo cien-

tífico mais do que dobrou. O número de alunos praticamente triplicou. Houve um crescimento e, ao mesmo tempo, o Impa se projetou muito no exterior. Isso teve muito a ver com a atuação do Jacob, mas não foi só isso. Até que, em 2014, o Artur Avila recebeu a medalha Fields e ganhamos o direito de sediar o ICM 2018. Essas duas novidades projetaram o Impa a um patamar extraordinário na matemática mundial. Como avalia a pesquisa brasileira em matemática feita fora do Impa? Historicamente, a matemática brasileira se irradiou de dois centros: do Impa e da USP. O impacto da USP, e também da Unicamp, em São Paulo é evidente, assim como em outras partes do país. Nos anos 1990, houve um processo de capilarização, com o surgimento de cursos de pós-graduação em centros do Nordeste, Norte e Centro-Oeste. Hoje todos os estados do Nordeste têm pós-graduação em matemática reconhecida pela Capes. Isso é relativamente novo, ocorreu nos anos 2000. Podemos, então, dizer que a matemática está razoavelmente bem distribuída pelo país e tem potencial para crescer. Temos pesquisadores com projeção e colaborações internacionais, mas as instituições ainda não se veem ocupando espaço no cenário global. Por exemplo, seria importante que as nossas instituições fossem mais consistentes em ter e manter sites bilíngues. No Impa estamos fazendo um grande esforço nesse sentido. Em 2016, você recebeu na França o Grande Prêmio Científico Louis D., concedido pela primeira vez à matemática e a um pesquisador brasileiro. Antes, em 2002, você foi cogitado como um dos possíveis agraciados com a medalha Fields. Como foi viver essa expectativa de ganhar a medalha? Nasci em 1962. Poderia então ganhar a medalha até 2002. Na época, estava em um período muito ativo. O valor monetário do prêmio em si é baixo, cerca de € 10 mil. Mas, como é um prêmio dado para matemáticos de, no máximo, 40 anos, ele é uma marca para o resto da vida. Conheço um matemático que ganhou a medalha e me disse que seu salário aumentou muito depois que ele deixou seu país de origem e foi trabalhar nos Estados Unidos. Em termos emocioPESQUISA FAPESP 265 | 31


nais, ganhar a medalha provavelmente produz um impacto maior do que o Nobel, que, às vezes, se ganha já perto do fim da carreira. Mas, respondendo a sua pergunta, não há uma lista oficial de candidatos à medalha. Aliás, ninguém se apresenta como candidato. Sei que fui indicado para a medalha em 2002. Mas nunca deixei de viver por causa disso, nem antes nem depois de não ter ganho. Em 2002, houve só dois ganhadores da medalha [o francês Laurent Lafforgue e o russo Vladimir Voevodsky, 1966-2017]. Os ganhadores podem ser sempre entre dois e quatro, com forte tendência para ser quatro. Mas essa é uma decisão que o comitê dos medalhistas toma e a IMU tem de acatar. Há anos em que os ganhadores são uma unanimidade. Como é esse comitê que decide os ganhadores? A IMU é gerida por um comitê executivo, eleito na assembleia geral para um mandato de quatro anos. O comitê executivo nomeia os principais comitês acadêmicos e depois não participa mais das escolhas. Esse é um mecanismo para evitar conflitos de interesse. No caso da medalha Fields, é formado um comitê de 10 ou 12 pessoas que costuma ser presidido pelo presidente da IMU. Em 2002, o Jacob era o presidente e se absteve de participar do comitê para evitar conflito de interesse. O segredo então é colocar nessa comissão da medalha matemáticos nos quais ninguém pode botar defeito. O comitê decide e é soberano. O sistema cria algumas tensões. Durante muitos anos, o limite de 40 anos para o ganhador da medalha não era uma regra escrita. Por que essa regra foi criada? O matemático canadense John Fields [1863-1932] criou o prêmio com o dinheiro que sobrou da realização do congresso dos matemáticos em Toronto, em 1924. Seu objetivo era incentivar jovens matemáticos. Mas ele não disse mais do que isso. No congresso de 1936, foi criado o primeiro comitê para a concessão da medalha, que interpretou o termo jovem como alguém de até 40 anos. Os comitês seguintes mantiveram essa tradição, mas isso não estava escrito. Mesmo depois que a IMU escreveu essa regra explicitamente, continuou existindo uma tensão. Nos anos 1990, a regra esteve a ponto 32 | março DE 2018

Diria que há 10 candidatos significativos no mundo, inclusive do Brasil, a ganhar neste ano a medalha Fields

de ser quebrada. Em 1993, o matemático britânico Andrew Wiles descobriu a prova do maior teorema em aberto, o de Fermat, que estava sem solução há mais de 300 anos. O problema é que ele teria 41 anos no congresso seguinte da IMU, em 1994, quando a medalha poderia ser dada. Se tinha uma hora para quebrar a regra dos 40 anos, era essa. Mas o que ocorreu? Uns meses antes do congresso, descobriram um furo na prova do teorema. Wiles se apresentou no congresso, mas a prova ainda não estava completa. Ele demorou mais um ano para resolver de vez o problema, já com 42 anos. No congresso seguinte, em 1998, ele teria 45 anos e aí já era tarde demais . Acho que, desde então, o limite dos 40 anos virou uma regra pétrea – e saudável. Depois dos 40 anos, não é preciso mais ficar pensando no prêmio, pois não se pode ganhá-lo mesmo. Temos candidatos brasileiros a receber a medalha Fields neste ano? Acredito que sim. Tenho escrúpulos em dizer algum nome, isso cria uma pres-

são e expectativa enormes. Diria que há 10 candidatos significativos em todo o mundo. Depois da morte no ano passado da matemática iraniana Maryam Mirzakhani, que, em 2014, foi a primeira mulher a ganhar a medalha Fields, é possível que o comitê dê o prêmio para outra matemática. O Impa é uma organização social que depende essencialmente de verbas do governo federal. Os cortes no orçamento de ciência e tecnologia nos últimos anos afetaram a instituição? Houve cortes e chegou a ser proposto um orçamento de R$ 39 milhões do MCTIC [Ministério da Ciência, Tecnologia, Inovações e Comunicações] para o Impa neste ano, menos da metade do que normalmente recebemos, além da contribuição do MEC [Ministério da Educação], que foi de R$ 26,5 milhões. Por um momento, fiquei preocupado se teríamos como fazer em 2018 a Obmep, que custa R$ 45 milhões, e o congresso internacional, que custará cerca de R$ 15 milhões. Uma parte boa do congresso deve ser custeada pelas inscrições dos participantes, mas ainda não sabemos quantas pessoas participarão do evento. Esperamos 5 mil pessoas no congresso, mas pode ser menos. O primeiro congresso a chegar nesse número foi o da Coreia do Sul. As taxas de inscrição são relativamente altas, US$ 450 para pesquisadores e US$ 200 para alunos. Se vierem 3 mil, estarei satisfeito. Assinamos no final do ano passado um termo de complemento orçamentário com o MEC e o MCTIC, que vão nos repassar mais verbas. O dinheiro continua curto e prevemos alguns cortes. Em 2017, nosso orçamento foi da ordem de R$ 100 milhões. Mas não havia o congresso internacional para ser organizado. Por que as pessoas tendem a achar a matemática chata? Os matemáticos não se vendem bem? Certamente os matemáticos são péssimos marqueteiros. A matemática não é uma matéria fácil de ensinar por duas razões principais. Para as crianças pequenas, a disciplina não é chata. Vejo isso nas minhas crianças, embora saiba que elas possam não representar crianças típicas. A matemática das crianças de 5 a 7 anos é a de contar brinquedos ou a quantidade de fatias de pizza. Essa


arquivo Pessoal

O grupo de sistemas dinâmicos do Impa na segunda metade dos anos 1990: os matemáticos Carlos Gustavo Moreira, Jacob Palis, Welington de Melo e Viana

matemática bate com os interesses da criança. Obviamente, isso não vai ser sempre assim. Há um momento na escola em que a matéria fica mais abstrata. Não há como evitar isso. É quando perdemos nosso público – a menos que o professor consiga mostrar que a matemática tem a ver com coisas que interessam à criança e ao jovem, que querem se divertir. Essa é a primeira razão para não gostar da disciplina. A segunda é que a matemática trata de um conjunto de conhecimentos encadeados. Quando se perde um pedaço do conhecimento, ou ele é recuperado logo ou o pedaço seguinte se torna incompreensível. Mas não é impossível resolver esse problema. Vários países conseguiram isso. Quais por exemplo? Os países nórdicos e asiáticos de um modo em geral. Cada um deles aposta em seu ponto forte. Há explicações até culturais por trás desse fenômeno. Uma das coisas que mais me impressionaram na abertura do congresso de 2014 foi um vídeo feito pelos sul-coreanos. Eles quiseram enfatizar que hoje estão bem e que 50 anos atrás, quando o país estava em uma guerra sangrenta, as escolas não pararam de funcionar. A dificuldade da matemática não é misteriosa. Ela é identificada, assim como suas soluções. Temos de ter professores bem formados, que trabalhem em boas condições, tenham gosto pelo ensino e sejam bem recompensados. Estamos carentes em qualquer um desses parâmetros. A Obmep é considerada a maior olimpíada de matemática do mundo, com 18

milhões de participantes. Ela descobre talentos para a disciplina, mas o desempenho dos alunos do ensino médio em matemática do país continua fraco em provas internacionais como o Pisa, Programa Internacional de Avaliação de Estudantes. Por que o sucesso da olimpíada não se transfere para o desempenho desses alunos? A olimpíada é muito bem-sucedida no que ela pode fazer: descobrir talentos, criar uma dinâmica de interesse pela matemática. Há estudos que mostram que, quando uma escola se envolve com a olimpíada, o desempenho dos alunos melhora. Mas a olimpíada não pode resolver os problemas do Brasil por si só. O primeiro problema da educação é a formação do professor, que, de modo geral, é péssima. Cerca de 5% dos licenciados em matemática são formados em universidades públicas, 15% em cursos públicos de ensino a distância e 80% em faculdades particulares. Algumas poucas faculdades particulares são boas. Esses 5% que se formam nas universidades públicas, de uma forma geral, não vão para a sala de aula. A olimpíada identifica e apoia os professores. Mas estamos falando de alguns, não da massa de professores. Além da formação, tem a questão da valorização do professor. A Obmep dá motivação para o professor, pode ser uma medalha ou a satisfação de ver seus alunos entusiasmados. Mas esse incentivo tem de ser estrutural, da escola. Prevalece na escola brasileira a ideia de que todos têm de ser iguais, que dar incentivo é discriminação ou pior, que é meritocracia, como se premiar o mérito fosse ruim. De 2003 a

2012, o Brasil foi o país que mais cresceu em matemática no Pisa [foi de 356 para 391 pontos]. Mas não vou esconder que o resultado de 2015 foi uma decepção [queda para 377 pontos]. Ainda assim, havia uma melhoria em 2015 em relação ao desempenho de 2003. Quero crer que 2015 foi um percalço e vamos voltar a subir. Mas o desempenho em matemática dos alunos brasileiros no Pisa é muito ruim. O pais ficou no 66º lugar entre 70 países em 2015. Sim, estamos péssimos. Mas havíamos melhorado mais de 30 pontos entre 2003 e 2015, o que não era um ganho trivial. Defendo, por exemplo, a criação de um exame nacional, como o da OAB, para certificar os professores de matemática. Vamos falar um pouco de sua história pessoal. Por que seus pais portugueses imigraram para no Brasil? Era tradição na minha família. Meu pai, meu avô e meu bisavô vieram para o Brasil ganhar um dinheirinho. Eles eram do Norte de Portugal, de Póvoa de Varzim, terra natal de Eça de Queiroz, perto do Porto. Eram agricultores ou pescadores, às vezes as duas coisas. Plantavam legumes, batatas, cenouras. Meu pai, Joaquim, chegou ao Brasil em 1952. Cinco anos depois, voltou para Portugal para casar. Mas desmanchou o noivado, conheceu minha mãe, Isaura, e casou com ela. Eles vieram morar no Rio, onde ficaram cinco anos. Nasci em 1962, mas, a essa altura, a situação aqui não era tão favorável e minha mãe convenceu meu pai a voltar. Voltei com ela aos 3 meses, e meu pai retornou um pouco depois. Aprendi a falar e cresci em Portugal. Lá sou brasileiro. Aqui, português. Sou estrangeiro onde estou. Fiz meus estudos lá e a graduação na Universidade do Porto. Meus dois irmãos nasceram e vivem lá. PESQUISA FAPESP 265 | 33


Viana (à esq.) e Lorenzo Díaz no Impa em 1987, quando ambos eram doutorandos

Seus pais haviam estudado? Sou da primeira geração da família que fez faculdade. Meu pai era motorista, trabalhou até na construção civil aqui no Rio. No cartão de entrada no Brasil, ele era descrito como carpinteiro. Era mentira – carpinteiro era uma espécie de upgrade para ele. Ele era agricultor. Minha mãe era professora do ensino primário. Hoje ela está aposentada e meu pai faleceu. Você tinha interesse por matemática na escola? Era bom aluno de um modo geral. A disciplina de que mais gostava era matemática. Com 15 anos, minha mãe me perguntou o que queria ser. Disse que queria ser matemático e ir até o topo. Ela ficou impressionada com minha certeza. Fiz a graduação e me formei em 1984. No ano seguinte, houve uma conferência de uma semana na Universidade de Coimbra. Cheguei na segunda-feira e me inscrevi de última hora para apresentar um trabalho. Fui então apresentado à estrela do evento, Jacob Palis. Ele seria o último a se apresentar e me perguntou se eu iria falar. Disse que sim. Minha apresentação seria às 20h30 da sexta-feira. Pensava que, a essa hora, todo mundo já teria ido embora e, graças a Deus, ninguém veria a minha apresentação. Estava nervosíssimo. Mas o Jacob disse que iria ficar para assistir. E ficou mesmo. No final 34 | março DE 2018

da palestra, ele me convidou para vir ao Impa. A primeira coisa que eu disse era que precisaria de uma bolsa de estudos. Ele sabia que você era brasileiro? Sabia. Mas, na época, tinha sotaque totalmente português e me sentia português. Você já tinha resultado de pesquisa para apresentar no evento de Coimbra? Logo depois que terminei a graduação, ganhei um apoio da universidade para passar duas semanas em Paris com um matemático francês, Adrien Douady [1935-2006]. Quando cheguei lá, o policial me perguntou sobre o visto [na época brasileiros precisavam de visto para entrar na França]. “Ué, não tenho”, respondi. Ele disse que precisava. Perguntei onde poderia conseguir. Ele me encaminhou para a administração do aeroporto. Aí comecei a desconfiar de que as coisas não iam bem. Eu não sabia o que era um visto. Nenhum dos meus amigos tinham visto. Você morava em Portugal, mas só tinha documentos brasileiros? Ninguém me falou que precisava de visto. Tinha 22 anos. Comecei a achar estranho quando ouvi uma funcionária do aeroporto perguntar se eu era perigoso. Ganhei coragem e fui falar com a polícia para saber o que estava acontecendo. Fiquei retido um dia todo na sala de espera do aeroporto. Tive uma experiência

antropológica interessante. Um sujeito se aproximou e me perguntou se eu tinha moedinhas para o orelhão. Dei as moedinhas e ele me deu um maço de cigarro. Na época, ainda fumava. Começamos a conversar e descobri que ele era um traficante marroquino de maconha que estava retido como eu. Ele estava tranquilo. Na hora que o policial veio me encaminhar de volta para Portugal foi o pior momento. O traficante começou a falar: “Solta o garoto, ele é boa gente”. Quer dizer, tive como defensor um traficante marroquino. Voltei para Lisboa e tive de me virar para chegar ao Porto. Na segunda-feira seguinte comprei uma passagem e pedi o visto no consulado. Exatamente uma semana depois, estava de volta ao mesmo aeroporto de Orly, morrendo de medo. Dessa vez foi tudo normal e fiquei uma semana em Paris com o Adrien Douady. Ele me propôs alguns problemas para pensar, consegui resolver um deles e fui apresentar o resultado em Coimbra. É possível explicar o que era esse problema? Era algo da minha área, de sistemas dinâmicos. Comecei a estudar essa área na graduação. Na época, havia avanços grandes no estudo de fractais e Douady foi um dos grandes renovadores dessa área de pesquisa. Em linguagem simples, na área de sistemas dinâmicos há um fenômeno e se conhece a lei que descreve a evolução desse fenômeno. No sistema solar, por exemplo, com os planetas girando em torno do Sol, a lei é a da gravitação, de Newton. Mas, normalmente, saber a lei não diz diretamente o que vai acontecer com esse sistema. Existe uma fórmula matemática que precisa ser resolvida. É preciso tentar extrair informação da lei. A área de sistemas dinâmicos abrange um conjunto de técnicas e resultados que ajudam nesse processo. Em geral as equações não são simplesmente resolvidas com uma fórmula, uma solução. Existe um tipo de lei que chamamos iterações. Esse tipo de lei é uma fórmula que diz que,


se você estiver no estado X agora, na próxima vez estará no estado f de X. E, na seguinte, no estado f de f de X. E assim sucessivamente. É preciso sempre aplicar essa transformação. Mas a questão é saber o que acontece no final, onde essa sequência vai parar. Se essa lei descreve um sistema ecológico, o que se quer saber é se, no final, as espécies ainda estarão vivas ou estarão extintas. No meu primeiro trabalho estudei um tipo de transformação. Não havia oportunidades melhores na Europa do que vir estudar matemática no Brasil? Praticamente não havia doutorado em matemática em Portugal e eu sabia que teria de deixar o país. Naquela época Portugal ainda negociava a entrada na União Europeia e havia poucas bolsas de estudo. A maioria era de origem estrangeira, do Conselho Britânico ou da Fundação Fulbright. Veja a ironia: a maioria das poucas bolsas disponíveis era destinada a portugueses. Eu era brasileiro e tinha acesso a menos da metade dessas bolsas. Não tinha ainda me naturalizado português porque não queria fazer o serviço militar. Hoje tenho as duas cidadanias. Já conhecia a reputação do Impa e tinha estudado em livros do Jacob quando ele me propôs vir para o Rio de Janeiro com uma bolsa de doutorado. A proposta era interessante. O Brasil sempre teve uma tradição de conceder bolsas baseadas no mérito do aluno, sem olhar a cor do passaporte. Para mim, isso não era importante, pois eu era brasileiro. Mas essa é uma característica importante do nosso sistema de pós-graduação. No Impa, metade dos alunos são estrangeiros, quase todos latino-americanos. Metade deles fica no Brasil e metade volta para seus países. É ótimo nos dois casos. Os que voltam são nossos embaixadores. Hoje se fala muito em algoritmos, inteligência artificial, big data. Como conciliar as pesquisas em matemática mais aplicada e abstrata? Em matemática, nunca se sabe o que vai resultar em uma aplicação. Esta é uma regra-chave: é preciso deixar o ser humano exercer sua criatividade. Quando os avanços da matemática são aplicados, eles são invisíveis. Sem matemática, a tomografia não existiria. Há muita matemá-

O primeiro problema da educação no Brasil é a formação do professor de matemática, em geral péssima

tica no modo como o sinal de uma partida de futebol é transmitido, por exemplo. Nem eu tinha consciência disso. Como assim? Há alguns anos, uma matemática americana de origem belga, Ingrid Daubechies [hoje na Universidade Duke e primeira mulher a presidir a IMU, entre 2011 e 2014], deu uma palestra no Impa e falou desse tema. Entre outras coisas, ela ajudou a fazer o protocolo jpeg 2000, um padrão de compressão de imagens. Ela estuda wavelets, um objeto matemático, uma ondinha, um espaço vetorial de dimensão infinita. O conceito de wavelets foi algo inventado na matemática sem ter em mente nenhum tipo de aplicação. Hoje ele é uma ferramenta usada nas transmissões em alta definição. Funciona assim: o gramado de um jogo é quase todo igual e a fórmula, o algoritmo dessas wavelets, reconhece automaticamente essa semelhança e diminui a resolução desse trecho da imagem. Não é preciso aparecer muitos detalhes do gramado. Mas, quando a câmera focaliza o rosto

do Neymar, por exemplo, a resolução volta a ser maior, há mais detalhes. Esse sistema diminui muito o peso do sinal a ser transmitido. Quem já ouviu os matemáticos fazerem propaganda disso? Esse é um método muito inteligente de regular automaticamente a resolução da imagem em função do que se quer ver. Mas, se a sociedade não sabe disso, ela não valoriza a matemática. Também não se pode exigir, a priori, que a pesquisa tenha de ter aplicações em mente para ser estimulada. Quais são hoje os grandes desafios da pesquisa em matemática? Para mim, o grande desafio é criar ferramentas para lidar com objetos de estudo novos, que não existiam há 30 anos. Ou seja, matematizar esses novos objetos. Posso citar dois ou três desafios da ciência que só vão estar resolvidos quando forem resolvidos matematicamente. Hoje, no entanto, ainda não estamos nem perto disso. Em física, por exemplo, algumas teorias recentes, como a quântica de campos e a das cordas, me parecem um meio caminho entre alquimia e magia. São teorias que os pesquisadores usam como ferramentas, para fazer contas, mas que não têm uma fundamentação racional, que faça sentido. Também é assim em toda a mecânica quântica, em conceitos como o emaranhamento. Welington de Mello deu durante anos cursos sobre teoria quântica de campos. Um dia perguntei-lhe do que se tratava e ele disse algo assim, citando outro matemático: “É uma teoria inexistente sobre um objeto que ninguém compreende”. Para falar do futuro da matemática, gosto de contar uma história que é uma combinação de muito dinheiro, inteligência e a maneira norte-americana de pensar. James Simons, um bom matemático norte-americano, enveredou pelo mercado financeiro e ficou bilionário. Ele criou uma fundação privada para financiar a ciência. Há alguns anos, ele perguntou à Ingrid Daubechies o que ele podia fazer para ajudar a matemática. Ela sugeriu criar um instituto para estudar grandes massas de dados. Não gosto de usar o termo big data. Ele então criou um novo instituto, financiado pela Fundação Simons. Essa é uma matemática nova, a que vai extrair informação das grandes massas de dados. n PESQUISA FAPESP 265 | 35


política c&T  Legislação y

Segurança jurídica Decreto detalha medidas para remover entraves burocráticos e impulsionar a inovação em empresas e universidades

U

ma longa mobilização da comunidade científica, de empresários e de gestores públicos, que buscava remover entraves burocráticos das atividades de pesquisa, reforçar os elos entre o setor privado e as universidades e incentivar a inovação em empresas, teve um desfecho positivo no dia 8 de fevereiro quando o governo federal publicou um decreto regulamentando dispositivos da legislação relacionada a ciência, tecnologia e inovação. A regulamentação é extensa e tem o objetivo de tornar efetiva a Lei nº 13.243 de janeiro de 2016, que havia modificado tópicos de um conjunto de normas legais (ver Pesquisa FAPESP nº 240). “Enquanto a lei de 2016 dispõe de 18 artigos, o decreto que a regulamenta tem 86, com o objetivo de clarear e oferecer segurança jurídica aos atores do sistema”, afirma Alvaro Prata, secretário 36  z  março DE 2018

de Desenvolvimento Tecnológico e Inovação do Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC). “Esse novo marco legal é o resultado de uma criação coletiva.” O decreto busca aperfeiçoar o arcabouço jurídico sobre inovação criado no país a partir de 2004, que autorizou o investimento de recursos públicos em empresas e permitiu que pesquisadores de instituições públicas desempenhassem atividades no setor privado, entre outras mudanças. Se a lei de 14 anos atrás procurou favorecer parcerias público-privadas e a inovação nas empresas, sua atualização tem objetivos mais diversificados. Alguns dispositivos incentivam ideias já estabelecidas de um modo ainda mais explícito. Um exemplo: a regulamentação autorizou instituições públicas a ceder às privadas o uso de imóveis para a instalação de “ambientes

fotos  eduardo cesar, léo ramos chaves e miguel boyayan ilustraçãO many wonderful artists / flickr

Claudia Izique e Fabrício Marques


Regras mais claras PArcerias

Alguns tópicos contemplados pelo decreto de regulamentação da legislação federal sobre ciência, tecnologia e inovação

É facilitada a cessão de imóveis públicos para a instalação de “ambientes promotores de inovação”, como parques tecnológicos e incubadoras licenciamento

de empresas

Núcleos de Inovação Tecnológica (NIT) de universidades e instituições

orçamento

científicas ganham

Pode-se agora remanejar

estrutura e personalidade

recursos federais dentro

jurídica para promover

do orçamento de projetos

transferência de tecnologia

de pesquisa. Se a alteração for inferior a 20% do valor total, não é necessário

licitação

anuência prévia

Procedimentos especiais dispensam licitação sócios Universidades, agências e empresas públicas ficam autorizadas a participar

de obras e serviços de

bônus

engenharia caso se

É instituída uma categoria

enquadrem como

de subvenção chamada

produtos de pesquisa e

bônus tecnológico.

desenvolvimento

Os recursos se destinam

minoritariamente do

a pequenas empresas

capital social de empresas,

para pagar por uso de

para desenvolver produtos

infraestrutura de pesquisa

ou processos inovadores

empreendedorismo Pesquisadores de instituições públicas federais poderão se licenciar de seus cargos sem remuneração para constituir uma empresa inovadora

encomendas São descritas as condições para o setor público fazer encomendas tecnológicas, contratando instituições e empresas para realizar pesquisas vinculadas à solução de problemas

pESQUISA FAPESP 265  z  37


38  z  março DE 2018

1

Laboratório de testes da empresa Trópico, em Campinas: setor privado quer reverter vetos na legislação, como os relacionados a bolsas

pesquisador por desconhecimento tenta negociar o convênio de pesquisa ou o próprio licenciamento diretamente com a empresa e só procura o NIT no final do processo, sem se dar conta de que existem mecanismos necessários para proteger a propriedade intelectual. Nesses casos, o trabalho do NIT acaba sendo visto como um empecilho, quando, na verdade, ele é uma unidade cuja missão está em facilitar e dar celeridade a esse tipo de interação”, afirma. “As universidades terão de reestruturar os NITs para dar conta de seu papel descrito no decreto. Sabemos da existência de núcleos que funcionam com equipes cedidas, bolsistas e estagiários. A estruturação e profissionalização dessas unidades torna-se agora ainda mais imprescindível.” Frateschi vê com interesse a possibilidade de a universidade ter alguma participação acionária em empresas. “Pode surgir uma nova fonte de recursos para a inovação nas universidades por meio da participação em empresas formadas em incubadoras ou parques tecnológicos. O conhecimento gerado na Unicamp já resultou na criação de mais de 500 empresas que, juntas, faturam R$ 3 bilhões. Imagine se a universidade tivesse participação em algumas delas.” O diretor da Inova também elogia a possibilidade de pesquisadores de instituições federais licenciarem-se por um período para se dedicar a atividades empreendedoras: “Muitos professores vão se sentir seguros para se afastar e abrir empresas”.

fotos 1 léo ramos chaves  2 divulgação

promotores da inovação”, facilitando o funcionamento de parques tecnológicos e aceleradoras de empresas que vêm sendo criados em diversas cidades e instituições. Uma novidade é a ampliação de mecanismos de subvenção a micro, pequenas e médias empresas, por meio, por exemplo, do “bônus tecnológico”, um tipo de suporte financeiro concedido por instituições públicas a empresas destinado ao pagamento do uso ou do compartilhamento de laboratórios de pesquisa ou à contratação de serviços tecnológicos especializados. “Uma startup não tem a infraestrutura de pesquisa de uma grande empresa inovadora ou de uma instituição científica e tecnológica. O bônus é um tipo de subvenção que busca suprir essa lacuna, ajudando empresas nascentes a produzir pesquisa e desenvolvimento”, diz a advogada Cristina Assimakopoulos, líder de um grupo de trabalho criado pela Associação Nacional de Pesquisa e Desenvolvimento das Empresas Inovadoras (Anpei) para discutir a mudança na legislação. A regulamentação permite que O decreto a subvenção econômica seja utiestimula o uso de lizada pelas empresas tanto para o financiamento de pesquisa coinstrumentos mo para despesas de capital. “Os atores do ecossistema de inovade fomento ção terão mais segurança jurídica porque a regulamentação definiu adotados em orientações mínimas para a coopaíses peração entre instituições científicas e o setor produtivo”, explica avançados, diz a economista Gianna Sagazio, superintendente nacional e diretora Gianna Sagazio, de Inovação do Instituto Euvaldo Lodi (IEL) da Confederação da CNI Nacional da Indústria (CNI). “O decreto trouxe conceitos que estimulam assinatura de convênios e acordos e impulsiona a aplicação de instrumentos de fomento amplamente utilizados em países avançados, como as encomendas tecnológicas, que passam a contar com diretrizes mais claras.” As novas normas estabelecem regras de governança para a transferência de tecnologia gerada em instituições científicas e permite que as universidades e entidades públicas participem minoritariamente do capital de empresas. Newton Frateschi, diretor-executivo da Agência de Inovação Inova Unicamp, enxerga vários benefícios na regulamentação. “A forma como o decreto define as atribuições dos Núcleos de Inovação Tecnológica nas instituições científicas, os chamados NITs, será muito importante para organizar a interlocução entre o setor privado e a academia”, diz. “Existem situações em que o


A legislação aprovada em 2016 contemplou uma série de reivindicações da comunidade científica. “São ideias que começaram a ser debatidas e amadurecidas a partir de 2008 para remover entraves burocráticos da atividade de pesquisa e incorporaram contribuições da indústria, das fundações estaduais de amparo à pesquisa e dos secretários estaduais de ciência e tecnologia, entre outros”, diz o físico Ildeu de Castro Moreira, presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC). A lei de licitações, de 1993, foi alterada. O decreto de regulamentação tem uma seção sobre procedimentos para a dispensa de licitação de obras e serviços de engenharia enquadrados como produtos de pesquisa e desenvolvimento. A regulamentação também deu flexibilidade para remanejamento de recursos de projetos de pesquisa, um antigo pleito dos cientistas. “É comum o pesquisador fazer um planejamento e o andamento da pesquisa revelar a necessidade de comprar um equipamento ou contratar um serviço. O decreto leva em conta essa dinâmica. Ele pode solicitar remanejamento e evitar ter as contas rejeitadas”, diz Maria Zaira Turchi, presidente do Conselho Nacional das Fundações Estaduais de Amparo à Pesquisa (Confap). flexibilização

O decreto esclarece que a isenção de impostos na importação de máquinas e insumos para atividades de pesquisa se estende a qualquer organização científica, tecnológica e de inovação credenciada e permite redução tributária também a bens adquiridos por empresas no exterior. A Anpei comemorou a flexibilização e o aumento da transparência nas relações entre universida2

des e empresas promovidos pelo decreto, mas considera que é cedo para encerrar a mobilização. Segundo Cristina Assimakopoulos, é preciso avaliar os desdobramentos em cada tópico abordado no decreto e conversar com todos os atores envolvidos para garantir que as mudanças ganhem efeito. “Agora, cada instituição científica e tecnológica vai definir internamente formas de aplicar as novas regras. Temos que garantir que haja uma interpretação padronizada sobre o uso dos instrumentos. O desafio agora envolve conscientização e diálogo”, sugere Cristina, que trabalha na Gerência Executiva de Tecnologia e Inovação da Vale. “O risco é surgirem pareceres divergentes sobre a legislação, o que pode prejudicar a segurança jurídica que o decreto busca criar.” A associação também considera que o processo de aperfeiçoamento da legislação precisa continuar. “Alguns vetos à lei aprovada em 2016 se referem a temas de grande interesse das empresas inovadoras e precisam ser resgatados”, diz Cristina, referindo-se por exemplo à concessão de bolsas por instituições científicas e tecnológicas privadas, removida na sanção da lei. Embora marcado por boas intenções, o processo que levou ao aperfeiçoamento da legislação gerou controvérsias. A principal delas resultou da Emenda Constitucional nº 85, aprovada em 2015, que conferiu à legislação federal a prerrogativa de dispor sobre as normas gerais do Sistema Nacional de Ciência, Tecnologia e Inovação, cabendo a estados e municípios legislar apenas sobre tópicos particulares. “A intenção provavelmente era ter uma legislação forte para vigorar em estados que dificilmente criariam uma por conta própria”, explica Fernando Menezes, professor da Faculdade de Direito da Universidade de São Paulo (USP) e diretor administrativo da FAPESP. “Mas essa emenda é potencialmente geradora de conflitos, pois dá margem a que a União, a pretexto de elaborar normas gerais sobre a matéria, invada a competência dos Estados no campo de sua autonomia administrativa.” A lei estadual paulista, de 2008, já previa uma série de dispositivos que vieram a ser contemplados na lei federal, como a participação do estado em empresas de inovação tecnológica e a autorização para que pesquisadores de instituições públicas atuem em empresas. Fernando Menezes participou de um grupo de trabalho que, durante

Parque Tecnológico de São José dos Campos: regulamentação incentiva criação de “ambientes promotores de inovação” pESQUISA FAPESP 265  z  39


apta

seis meses, forneceu subsídios para a formulação de um decreto estadual de regulamentação, assinado pelo governador Geraldo Alckmin em setembro de 2017. O texto estadual buscou harmonizar as legislações estadual e federal, além de estabelecer normas para as instituições de pesquisa do estado. Risco

A bioquímica Helena Nader, pesquisadora da Universidade Federal de São Paulo (Unifesp) que esteve à frente da SBPC entre 2011 e 2017 e teve intensa participação nas negociações em torno da nova legislação federal, explica que o processo levou a um novo entendimento sobre as atividades de ciência, tecnologia e inovação. “O ponto crucial da legislação é o reconhecimento de que as atividades de pesquisa são diferentes das outras. Elas envolvem risco e, portanto, exigem uma avaliação diferente de resultados”, observa. Segundo ela, esse caráter particular da pesquisa voltada à inovação foi reconhecido pela Emenda Constitucional nº 85 e consubstanciado na lei de 2016 e no decreto de fevereiro. Para Francilene Garcia, presidente do Conselho Nacional de Secretários Estaduais para Assuntos de Ciência, Tecnologia e Inovação (Consecti) e secretária executiva de Ciência e Tecnologia do Estado da Paraíba, esse novo entendimento é fundamental para a atividade científica. “Experimentos com organismos vivos para o desenvolvimento de vacinas, por exemplo, não podem seguir as mesmas regras utilizadas para a importação de commodities”, afirma. Há uma outra crítica relacionada ao tamanho dos decretos: o paulista tem 68 artigos e o federal 86. “Seria possível e desejável fazer textos mais enxutos, mas a opção de ser detalhista procura não deixar dúvidas aos gestores sobre o que eles podem fazer. Isso é importante em um momento em que os organismos de controle do Estado, como tribunais de contas e ministério público, ampliam justificadamente o controle sobre agentes públicos”, explica Fernando Menezes. Ele lembra, contudo, que esse tipo de detalhismo, às vezes, produz efeitos inesperados. “Quanto mais se escreve sobre um assunto, maior é o risco de haver dupla interpretação ou dúvida sobre termos utilizados.” Uma regulamentação detalhada não garante que as intenções do legislador irão se materializar. “É preciso tempo para assimilar tudo”, avalia Alvaro Prata, do MCTIC, que articula uma série de providências para dar suporte à legislação. Estão sendo elaborados guias para esclarecer todos os segmentos envolvidos. Ele adianta que as consultorias jurídicas do MCTIC e do Ministério da Indústria, Comércio Exterior e Serviços estão trabalhando na elaboração de documento para municiar os procuradores de forma a “fa40  z  março DE 2018

Laboratório de Nutrição Animal da Secretaria de Agricultura de São Paulo: compartilhamento de infraestrutura de pesquisa é estimulado

zer valer o decreto em sua plenitude”. Há um guia em desenvolvimento também para setores industriais, envolvendo a CNI, a Mobilização Empresarial pela Inovação (MEI) e a Anpei. “O setor empresarial precisa perceber a dimensão dada pelo decreto”, considera Prata. Na avaliação de Carlos Américo Pacheco, diretor-presidente do Conselho Técnico-Administrativo da FAPESP, o marco legal cria possibilidades que precisam ser postas em prática e fomentadas pelas agências. “Com o tempo vamos poder experimentar essas novas soluções, testá-las e verificar sua eficácia. E ter sempre em mente que isto é uma construção, que de tempos em tempos tem de ser revisitada. O essencial é ir em frente”, afirma. Ele observa que a criação de um ambiente institucional é um aspecto central de qualquer sistema de inovação. “O exemplo norte-americano revela isso com clareza, no incentivo às parcerias e à comercialização dos resultados da pesquisa, ou ainda na natureza privada não lucrativa de suas melhores universidades e laboratórios. A lei francesa de inovação é outro exemplo. Tudo isso inspirou inovações institucionais pelo mundo inteiro.” Secretário-executivo do então Ministério da Ciência e Tecnologia entre 1999 e 2002, Pacheco lembra que, em 2001, na Conferência Nacional de CT&I, houve uma primeira discussão sobre o ambiente institucional que contribuiu para a formulação da Lei de Inovação de 2004. “Agora damos mais um passo para modernizar nosso sistema de inovação.” n


Entrevista Eduardo da Motta e Albuquerque y

Fluxos transnacionais do conhecimento Economista diz que a multiplicação das colaborações científicas internacionais começa a criar um sistema de inovação acima dos países Fabrício Marques

RAíSSA CéSAR

E

m estudo publicado em janeiro na revista Scientometrics, um grupo liderado pelo economista Eduardo da Motta e Albuquerque, pesquisador do Centro de Desenvolvimento e Planejamento Regional da Universidade Federal de Minas Gerais (Cedeplar-UFMG), mapeou o crescimento das colaborações científicas. Observou-se que o número de artigos publicados no mundo, indexados na base Web of Science, subiu de 1,2 milhão em 2000 para 2 milhões em 2015 e ao mesmo tempo a proporção de papers escritos por coautores de países diferentes mais que dobrou, indo de 10% do total em 2000 para 21% 15 anos mais tarde.

Para Albuquerque, o fato de o Brasil ter mantido vínculos científicos com 171 nações no ano de 2015 é um ativo importante para ampliar a inserção internacional do país

O interesse do grupo era mais específico do que medir o crescimento das colaborações. Albuquerque é um estudioso da formação de redes de inovação e de vínculos criados entre universidades e empresas em nível nacional (ver Pesquisa FAPESP nº 234) e seu objetivo era ampliar o escopo desse trabalho para uma escala global, analisando as implicações da formação de redes de produção de conhecimento, que reúnem grupos de pesquisa de países diferentes trabalhando em parcerias com empresas locais ou transnacionais. Para tanto, sua análise deteve-se sobre o crescimento das ligações entre pares de pesquisadores de países distintos embu-

tidas nas assinaturas dos papers produzidos entre 2000 e 2015 – cada artigo com autores de várias nacionalidades contém múltiplas conexões desse tipo. O resultado foi impressionante: essas ligações bilaterais cresceram 13 vezes de tamanho, aumentando de 545 mil em 2000 para mais de 7 milhões em 2015. Na entrevista a seguir, Albuquerque fala dos benefícios e dos desafios gerados pelo avanço dessas interações e expõe uma das conclusões do artigo, segundo a qual o aumento das colaborações está formando os rudimentos de um sistema de inovação de caráter internacional, que opera em paralelo aos sistemas nacionais e cria tensões com eles. pESQUISA FAPESP 265  z  41


Qual a importância de estudar o fluxo de conhecimento gerado por colaborações internacionais? Trabalhamos há algum tempo com interações entre universidades e empresas em escala nacional, mas essa linha enxergava apenas parte do fenômeno. Não se detinha sobre a influência de um conjunto de fluxos internacionais de conhecimento envolvendo, por exemplo, multinacionais e suas subsidiárias ou multinacionais e universidades. Tínhamos interesse em compreender as peculiaridades da relação entre países centrais e da periferia em um momento em que esses fluxos se multiplicam. Fizemos um trabalho em 2014 para estudar a relação entre uma multinacional e universidades de vários países. Analisamos as patentes dessas empresas e vimos como elas mencionavam artigos produzidos por universidades de diversos países, um indicador do fluxo de conhecimento. Avançamos para analisar como as colaborações internacionais tinham impacto local. Uma empresa paulista que interage com um grupo da Universidade de São Paulo está se beneficiando das articulações internacionais que esse grupo criou, por exemplo, com parceiros no MIT [Instituto de Tecnologia de Massachusetts]. Aí chegamos no artigo de 2018. Pode-se

A IBM tem subsidiárias em 62 países. Relaciona-se com empresas e universidades globalmente. Tornou-se uma máquina de beber conhecimento

A evolução das parcerias A produção científica mundial e o quinhão de artigos resultantes de colaborações internacionais 14,1% 13% Porcentagem de artigos em coautoria internacional

n

10,7%

12,3%

16,3%

2.019.563 1.885.092

21,3%

1.964.747

1.517.189 1.274.329

1.360.275

Total de artigos produzidos por ano

n Número de artigos em coautoria internacional

136.483

166.672

2000

Fonte  Web of Science, elaboração dos autores

42  z  março DE 2018

2003

197.940

2006

265.460

2009

329.190

2012

418.866

2015* *Dados parciais

avaliar que sistemas nacionais de inovação vêm sendo tensionados por fluxos de conhecimento transnacionais dos mais variados tipos. Estamos sugerindo que o grau desses fluxos é tão grande que estaríamos vivendo o início da emergência de um sistema internacional de inovação. Quais as evidências da emergência desse sistema? Um dos coautores do artigo, o economista Leandro Alves Silva, defendeu em seu doutorado, em 2014, a ideia de que sistemas nacionais estão conectados e que as conexões causam tensões. Uma evidência está num caso de estudo abordado por ele, o da IBM. Mais do que uma empresa norte-americana, ela é uma rede internacional. Tem 1.800 subsidiárias distribuídas em 62 países. É uma entidade com presença global e sua dinâmica inovativa dá conta dessa tremenda distribuição. Na prática, ela é uma máquina de beber conhecimento planetariamente. Relaciona-se com empresas, universidades e institutos de pesquisa globalmente. Olhando para essa estrutura, vê-se o elemento internacional quase como um componente microeconômico essencial. O Leandro analisou as redes formadas pela lista das 500 maiores empresas e vislumbrou um conjunto de fluxos de conhecimento enorme. Não só conhecimento codificado, mas também aquele tipo de conhecimento tácito que a empresa transfere a quem trabalha com ela. A IBM tornou-se uma máquina de aprendizado cuja dinâmica exerce influência sobre sistemas nacionais de inovação. Nosso grupo está trabalhando em um artigo sobre as 500 empresas e sua produção. Outra evidência está em um dado obtido no levantamento da produção científica. Observamos que em 2015 cerca de 418 mil artigos científicos foram produzidos em colaboração internacional – e isso equivale a toda a produção mundial do ano de 1993. O trabalho mostra que, embora as interações internacionais se multipliquem, elas respeitam uma hierarquia. Que hierarquia é essa? Poucas universidades, em geral as mais tradicionais, se conectam a um conjunto enorme de outras instituições. Pesquisadores da Universidade de Oxford, no Reino Unido, tiveram mais de 50 mil ligações com colegas de outros países em 2015. Os de Harvard, 47 mil. Na ou-


infográficos  ana paula campos

Quais são as implicações disso? O fato de a rede crescer e ser cada vez mais global é positivo para todos. Para os países desenvolvidos, é a chance de produzir conhecimento que não poderia ser gerado sem pesquisadores de vários lugares. Para os países em desenvolvimento, é a possibilidade de participar de redes globais e ampliar a transferência de conhecimento. O fato de a rede ser muito hierarquizada impõe o risco de as instituições com poucas conexões ficarem a reboque de interesses dos países centrais. Mas isso é mais um desafio do que um problema. Estar na rede faz com que tenhamos mais possibilidade de influir na agenda do que se não estivermos. Que tipo de problema está sendo enfrentado por essas redes de conhecimento? Existem áreas naturalmente internacionalizadas, como a astronomia. Um observatório instalado em um país envolve gente de vários lugares. Também há assuntos complexos que exigem equipes internacionais, como a física de partículas e a Organização Europeia para Pesquisa Nuclear, o Cern, na Suíça. A ciência tem uma vocação internacional natural. A novidade talvez seja o aumento da velocidade dos fluxos de conhecimento. O primeiro benefício é que há questões que só são resolvidas em equipes internacionais. É difícil tratar de questões climáticas a partir de um país só. O mesmo vale para o tratamento das doenças negligenciadas. Do ponto de vista dos países avançados, as redes permitem lidar com questões mais vastas do que as encontradas dentro de seus territórios. Em países intermediários como o Brasil, o efeito talvez até seja mais rico, porque é possível criar conexões produtivas e absorver conhecimento. Não chegamos a avaliar a qualidade da produção em coautoria internacional, mas isso deverá ser mensurado em outra pesquisa, por meio do estudo de citações. Um estudo de caso interessante seria analisar a

Os mais conectados Número de nações com que cada país manteve colaborações científicas internacionais em 2015

Estados Unidos

202

Inglaterra

193

França

188

Itália

187

Austrália

186

Alemanha

185

Canadá

182

Suíça

181

Holanda

179

Espanha

178

Bélgica

174

China

173

Suécia

173

Japão

171

Brasil

171

África do Sul

171

Índia

167

Escócia

165

Dinamarca

162

Áustria

158

Noruega

158

Portugal

156

Rússia

153

Turquia

148

Coreia do Sul

147

Finlândia

147

Taiwan

144

República Checa

143

Grécia

140

Polônia

136

Fonte  Web of Science, elaboração dos autores

pesquisa sobre o vírus zika e como o fato de estarmos conectados ajudou a caracterizar rapidamente a doença. Também crescem as possibilidades de interação entre universidades e empresas. Imagine um físico da UFMG que produziu um paper sobre nanotecnologia com alguém do MIT. Quando uma empresa tiver uma interação com esse pesquisador, estará entrando em uma rede internacional.

No setor industrial brasileiro, há segmentos que investem bastante em pesquisa e desenvolvimento (P&D) e outros que produzem muito pouco, como o farmacêutico. Essa heterogeneidade não atrapalha o fluxo de conhecimento? O investimento das multinacionais farmacêuticas concentra-se nos países centrais, mas acredito que a intensidade de P&D do setor no país vai crescer assim que a indústria de origem nacional se desenvolver mais. As redes podem auxiliar. Quando estávamos fazendo um teste de uma pesquisa sobre a interação entre universidade e empresa, selecionamos um bioquímico da UFMG para entrevistar. Ele interagia com uma multinacional, a Merck. Perguntei: “A Merck do Brasil?” Ele disse: “Não, a Merck dos Estados Unidos”. Ele foi a um congresso e apresentou um trabalho. Os representantes da empresa estavam lá e entraram em contato. Foi uma cooperação direta: um pesquisador no Brasil conectado a uma empresa no exterior. Começa a haver um quadro internacional em que as chances de interação se multiplicam. Como o Brasil se situa nesses fluxos? Duas coisas puderam ser vistas. A primeira é que o Brasil, em 2015, integra um grupo de nações que tem em torno de 20% da produção científica em colaboração internacional, o que é razoável. Em 2000, essa porcentagem era de 14,7%. Esses índices dizem respeito a artigos em colaboração internacional que tem um brasileiro como primeiro autor. Outro dado é que a nossa produção nos conecta a 171 países. Estamos em 15º lugar no ranking de vínculos. Não temos um grau de internacionalização como o de países como Suécia, Holanda, mas estar ligado a 171 países é um ativo importantíssimo. O crescimento da produção científica brasileira, apesar de consistente, só tem sido suficiente para manter a distância da fronteira internacional. Temos que pensar em mecanismos de inserção mais ativa do país na ordem internacional e a ciência e a tecnologia podem liderar essa mudança. Seria construir um sistema de inovação para a fase de crescente internacionalização, capaz também de fortalecer o sistema internacional. n Artigo científico RIBEIRO, L. C. et al. Growth patterns of the network of international collaboration in science. Scientometrics. v. 114, p. 159-79. jan. 2018.

pESQUISA FAPESP 265  z  43

Versão atualizada em 08/05/2018

tra ponta, há uma quantidade enorme de instituições com poucas conexões. As que se conectam ao mundo inteiro tendem a controlar a agenda das redes. Veja o exemplo da Academia Chinesa de Ciências. Embora seja a instituição que mais produziu artigos em 2015, está em 13º lugar em número de conexões. Trata-se de um sistema robusto, estável e bem organizado, mas muito difícil de mudar.


Gestão de dados y

Disseminação desigual Reúso de informações científicas ainda é baixo e varia de acordo com a área do conhecimento Rodrigo de Oliveira Andrade

O

reúso de dados de pesquisa vem crescendo, mas ainda está longe de se consolidar no ambiente científico. A prática, que consiste em fazer estudos aproveitando dados gerados em experimentos anteriores de outros pesquisadores, dissemina-se mais efetivamente nas ciências exatas e biológicas, enquanto enfrenta resistência nas ciências sociais. Em geral, os pesquisadores que trabalham com informações obtidas por meio de modelos computacionais ou sensores remotos se sentem mais confortáveis em reaproveitar dados de terceiros. Essa é uma das conclusões de um artigo publicado na revista PLOS ONE pela cientista de dados Renata Curty, da Universidade Estadual de Londrina (UEL), no Paraná. Com base nas respostas de 595 pesquisadores de diferentes disciplinas e países, ela e seus colaboradores avaliaram o grau de disseminação do reúso

44  z  março DE 2018

de dados e a percepção dos fatores que estimulam ou desencorajam a prática. Uma curiosidade é que essa análise se baseou em dados reutilizados. A fonte original foi mais de mil questionários respondidos por pesquisadores entre outubro de 2013 e março de 2014 no âmbito do Data Observation Network for Earth (DataONE), projeto da National Science Foundation (NSF). Renata estuda a percepção acerca do reúso de informações científicas desde o doutorado na Universidade de Syracuse, nos Estados Unidos. À época, ela verificou que os pesquisadores das ciências sociais enxergam consequências potencialmente prejudiciais associadas à reutilização de dados. “Muitos têm receio de violar questões éticas ou de confidencialidade estabelecidas entre os sujeitos da pesquisa e investigadores”, ela explica. Outra preocupação diz respeito ao risco de má interpreta-


ilustraçãO marcelo cipis

ção ou uso incorreto das informações originais. A opinião dos cientistas sociais sobre reaproveitamento de dados também é fortemente influenciada pelo próprio campo de atuação, que privilegia a produção de conhecimento novo. “Trabalhos que reutilizam dados são considerados menos autênticos e de menor impacto”, afirma. O estímulo ao reaproveitamento de dados tem várias fontes. Uma delas é a preocupação crescente com a reprodutibilidade de pesquisas (ver seção Boas Práticas na página 10) e a importância de disponibilizar as informações primárias coletadas para que outros consigam verificar a precisão e a relevância dos resultados. No Brasil, desde 2013 a revista Brazilian Political Science Review, da Associação Brasileira de Ciência Política, exige que os autores de artigos cujo conteúdo utiliza métodos quantitativos disponibilizem no site da revista os da-

dos que embasaram o trabalho e também os codebooks, dicionários que permitem a identificação das variáveis usadas na obtenção das informações. “A proposta é tentar viabilizar a replicação dos procedimentos que levaram às conclusões dos trabalhos”, diz a cientista política Marta Arretche, do Departamento de Ciência Política da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP) e editora da revista. A pesquisadora lembra que a ciência só se torna replicável se os dados e ferramentas usados nos experimentos, simulações e análises forem disponibilizados de forma aberta e livre. No entanto, ela destaca, é fundamental que essa massa de informações seja acompanhada de explicações sobre sua origem. “Sem dados bem documentados não é possível reproduzir o experimento original ou reusar os dados em outra pesquisa”, completa.

Desde 2014 o grupo de periódicos ci­entíficos PLOS passou a condicionar a aceitação de artigos à divulgação de seus dados brutos em repositórios públicos (ver Pesquisa FAPESP nº 218). Em revistas de genética e bioinformática, cujos trabalhos geram uma enxurrada de informações sobre sequências de DNA e proteínas, essa recomendação há tempo se tornou uma exigência. Isso permitiu às geneticistas Lygia da Veiga Pereira e Maria Vibranovski, do Instituto de Biociências da USP, explicarem como ocorre o desligamento de uma das duas cópias do cromossomo X em embriões femininos. Elas analisaram informações disponibilizadas em 2013 por pesquisadores chineses e constataram que o gene XIST, responsável por iniciar a inativação, era expresso em embriões femininos a partir do estágio de oito células (ver Pesquisa FAPESP nº 260). “Os chineses haviam feito toda a parte laboratorial. ConseguipESQUISA FAPESP 265  z  45


ram os embriões humanos, separaram as células, extraíram e sequenciaram o RNA, mas não olharam para a inativação do cromossomo X”, disse Lygia, que publicou o achado em setembro de 2017 na revista Scientific Reports. Outro caso é o do grupo do parasitologista Marcelo Ferreira e da bióloga Priscila Rodrigues, ambos do Instituto de Ciências Biomédicas da USP. Há algum tempo eles estudam os padrões de dispersão global dos parasitas causadores da malária. “Usamos amostras do material genético dos protozoários disponíveis no GenBank, banco de sequências de DNA e de aminoácidos do Centro Nacional de Informação Biotecnológica dos Estados Unidos”, conta Priscila. Pelo menos dois artigos foram produzidos nos últimos três anos com base nessa prática: um em 2016, na Nature Genetics, destacando que o Plasmodium vivax acumulou mutações que o teriam diferenciado das cepas africanas e asiáticas depois de chegar às Américas, e outro em janeiro de 2018, na Scientific Reports, apresentando novas evidências sobre como as migrações humanas ajudaram a espalhar esses parasitas pelo continente americano. O incentivo ao reúso de dados também provém das agências de fomento, interessadas não apenas no desafio da reprodutibilidade como em racionalizar a apli46  z  março DE 2018

Reúso de dados sobre aglomerados de galáxias (acima) está ampliando as perspectivas de estudo de objetos celestes em astronomia

cação de recursos públicos nos projetos que financiam. “O compartilhamento de dados pode ajudar o cientista a economizar tempo e recursos e evita a duplicação de pesquisas”, destaca a engenheira eletricista Claudia Bauzer Medeiros, do Instituto de Computação da Universidade Estadual de Campinas (Unicamp) e coordenadora adjunta do programa eScience da FAPESP. “Estudos internacionais mostram que a prática aumenta o número de parcerias, acelera descobertas científicas e amplia a visibilidade do conhecimento produzido”, afirma. A ideia de que pesquisas produzidas com recursos públicos devem ter seus resultados franqueados sem restrições, inclusive em relação aos dados primários coletados, também se relaciona com o conceito de ciência aberta, que envolve o acesso livre à informação e a construção colaborativa do conhecimento, observa Claudia Domingues Vargas, do Instituto de Biofísica da Universidade

Fe­deral do Rio de Janeiro (UFRJ). Ela é uma das pesquisadoras envolvidas no Neuroscience Experiments System (NES), que permite livre acesso às informações primárias de estudos no campo das neurociências. A plataforma foi concebida no âmbito do Centro de Pesquisa, Inovação e Disseminação em Neuromatemática (NeuroMat), um dos Centros de Pesquisa, Inovação e Difusão (Cepid) apoiados pela FAPESP. Envolve pesquisadores de matemática, ciência da computação, estatística, neurociência, biologia, física e comunicação de universidades brasileiras e do exterior. “A proposta do NES é ser um repositório público que permita acesso aberto a um amplo conjunto de dados neurofisiológicos, clínicos e experimentais, bem como aos softwares usados na análise, processamento e geração dessas informações”, explica Claudia Vargas, que é uma das pesquisadoras principais do NeuroMat. O compartilhamento de dados científicos avança em ritmos distintos a depender da área do conhecimento. Na astronomia, é algo corriqueiro, como observa a física Marcelle Soares-Santos, professora da Universidade Brandeis e pesquisadora no Fermi National Accelerator Laboratory, um dos mais importantes centros de física de partículas do mundo, nos Estados Unidos. “Beneficiei-me muito dessa prática no doutorado”, comenta. À época ela desenvolveu algoritmos para encontrar aglomerados de galáxias a partir de informações do Sloan Digital Sky Survey sobre 500 milhões de objetos celestes. Marcelle explica que os dados primários em astronomia são ricos e raramente explorados de forma completa. “Muitas questões em astronomia só podem ser estudadas a partir de análises de diferentes dados científicos obtidos por outros grupos de pesquisa.” PARADOXO

O estudo publicado na PLOS ONE destaca um fato curioso relacionado à percepção sobre o reúso: os pesquisadores que mais se preocupam com a credibilidade dos dados que pretendem utilizar são os que se mostram mais dispostos a reaproveitar registros produzidos por terceiros. Já os que quase nunca reutilizam têm mais dificuldade para entender os benefícios dessa prática e avaliar a qualidade das informações disponíveis.


Disposição para compartilhar Atitudes relacionadas ao reúso de informações científicas de acordo com 1.162 pesquisadores de várias áreas e países

65% já partilharam dados de pesquisa com

foto  Daniel Eisenstein /Sloan Digital Sky Survey ilustração  marcelo cipis

outros cientistas

No estudo How and why researchers share data (and why they don't), desenvolvido em 2014 pela editora John Wiley & Sons com quase 3 mil pesquisadores de diferentes áreas e países, verificou-se que os alemães são os mais dispostos a compartilhar dados, com o objetivo de aumentar a visibilidade e garantir a transparência de suas pesquisas. Já os chineses são menos propensos a dividir com outros informações de pesquisa, sobretudo porque isso não é um requisito para o financiamento. Os brasileiros reclamaram do trabalho extra para organizar essa massa de dados, dos custos para hospedá-la e das dificuldades para encontrar repositórios adequados. Em estudos sobre o reúso de dados científicos, pesquisadores frequentemente alegam que se sentem receosos em fornecer suas informações porque ainda querem explorá-las em novos estudos ou temem não receber os créditos pela cessão. Esses e outros temores também foram verificados no relatório Open Data: The research perspective, da editora Elsevier. Mas o mesmo estudo constatou que 73% dos entrevistados julgavam que o acesso a dados científicos de terceiros poderia beneficiar suas próprias pesquisas e que 64% deles se mostravam dispostos a compartilhar informações com outros pesquisadores. O principal desafio, segundo Claudia Bauzer Medeiros, é promover o reúso de informações científicas, mostrando aos pesquisadores os benefícios da prática, e ao mesmo tempo agir para combater os

casos de apropriação indevida de dados. Outra estratégia desejável, segundo ela, é a criação de cursos que ensinem pesquisadores e alunos a preparar dados e experimentos para compartilhamento. “Esse tipo de treinamento já é padrão em vários países do mundo, tendo em alguns casos se tornado uma exigência na formação de pesquisadores”, completa. Renata Curty argumenta que é preciso investir em sistemas que verifiquem a qualidade dos dados disponibilizados e em recompensas para os pesquisadores que adotarem essa prática. Nos Estados Unidos já existem algumas iniciativas nesse sentido. Uma delas é a Plataforma Global de Informações sobre Biodiversidade (GBIF), que reúne quase 850 milhões de registros de espécies, 6 milhões deles oriundos do Brasil (ver Pesquisa FAPESP nº 263). Ao cadastrar os dados primários de suas pesquisas na GBIF, os pesquisadores podem gerar um Data Paper, um documento que pode ser publicado on-line em plataformas de acesso aberto voltadas para descrever conjuntos de informações de pesquisas consideradas valiosas. Existem publicações dedicadas a disseminar esses artigos de dados, segundo a pesquisadora da UEL, como o Biodiversity Data Journal, o Data in Brief, da Elsevier, e o Scientific Data, do grupo Nature. n

69% afirmam que o compartilhamento é importante para o avanço da ciência

73% consideram que ter acesso a dados de outros pesquisadores pode beneficiar seus estudos

64% estão dispostos a partilhar informações coletadas em suas pesquisas

25% receberam treinamento apropriado para preparar seus dados e disponibilizá-los corretamente

Artigo científico CURTY, R. G. et al. Attitudes and norms affecting scientists’ data reuse. PLOS One. v. 12, n. 12, p. 1-22. jan. 2018.

fonte Open Data: the Research perspective, da editora Elsevier

pESQUISA FAPESP 265  z  47


Q

uase 50 anos após a chegada do homem à lua, a corrida espacial entrou em uma nova fase. No lugar de superpotências rivais, os protagonistas são empresários apoiados por investimentos públicos e capital de risco competindo pela primazia em reinaugurar missões tripuladas a alvos distantes. Um marco dessa nova etapa foi testemunhado por milhões de pessoas no dia 6 de fevereiro: o veículo lançador Falcon Heavy, da empresa privada SpaceX, partiu com sucesso do Centro Espacial Kennedy, a mesma base de lançamento em Cabo Canaveral, na Flórida, de onde saíram as missões Apollo entre os anos 1960 e 1970. Dotado de três foguetes Falcon 9 no primeiro estágio, que juntos garantem um impulso equivalente ao de 18 Boeings 747, o Falcon Heavy custou US$ 500 milhões para ser desenvolvido e é o mais potente lançador em atividade. Três minutos após a partida, dois dos foguetes se desprenderam e retornaram intactos ao ponto de partida na Flórida. Com isso, poderão ser reaproveitados em futuras missões. O terceiro Falcon 9 deveria aterrissar em uma balsa, mas errou o alvo e foi dado como perdido. O reaproveitamento dos foguetes é uma das receitas do baixo custo da Space X. Cada viagem do lançador deve custar entre US$ 90 milhões e US$ 160 milhões, ante estimado US$ 1 bilhão do futuro foguete da agência espacial americana (Nasa), o SLS. O segundo estágio do Falcon Heavy garantiu que a carga entrasse em órbita. Não se tratava de um satélite ou de um módulo de suprimentos para astronautas, mas de um insólito carro esportivo com um boneco ao volante. A ideia é que o automóvel, um modelo elétrico Roadster da marca Tesla, cruze a órbita

O voo dos bilionários O carro elétrico que a empresa SpaceX pôs em órbita marca o batismo da iniciativa privada na corrida espacial

de Marte. Isso deve acontecer só depois de 2020, se a rota não sofrer desvio. A transmissão pela internet da chegada do carro ao espaço foi embalada pela música Life on Mars?, de David Bowie. O desafio de engenharia do voo experimental do Falcon Heavy e o espetáculo de marketing do carro elétrico vagando pelo sistema solar lançaram holofotes sobre Elon Musk, bilionário formado em física e economia que nasceu há 46 anos na África do Sul e se radicou nos Estados Unidos. Diretor-executivo e de tecnologia da SpaceX, presidente da fabricante de carros elétricos Tesla e de sua subsidiária SolarCity, empresa de sistemas fotovoltaicos, Musk é um empreendedor com ares de visionário e grande senso de marketing – diz que vai instalar a primeira colônia em Marte e afirma que o objetivo de seus negócios com energias renováveis é combater o aquecimento global. Nos últimos cinco anos, lançou uma série de empresas para desenvolver novas tecnologias, da escavação de túneis para novos meios de transporte e lançamento de foguetes à interação entre cérebro e máquina (ver quadro). O sul-africano se notabilizou pela capacidade de atrair investimentos ao apostar no potencial de mercados inexplorados. Parte do apoio foi público. De um lado, suas empresas se beneficiaram indiretamente do fomento à pesquisa básica e aplicada realizado por agências como a Nasa e pelo Departamento de Energia, que viabilizaram o desenvolvimento de tecnologias de lançamento de foguetes e armazenamento de energia. “O governo dos Estados Unidos investiu em pesquisa básica e aplicada e também apoiou de forma concreta empresas como a Tesla, fazendo aquilo que o capital de risco deveria estar fazendo se realmente desempenhasse o papel que diz desempenhar”, disse em 2017 ao jornal Financial Times a economista ítalo-americana Mariana Mazzucato, autora de O Estado empreendedor (Companhia das

fotos 1 nasa 2 wikimedia commons / Heisenberg Media  3 space x flickr

Empreendedorismo y

1

48  z  março DE 2018


3

2

Elon Musk e o Tesla Roadster, que pode cruzar a órbita de Marte se não sofrer desvio: o lançamento usou foguetes reaproveitáveis

Letras, 2015), livro no qual defende que o investimento público em ciência tem papel crucial na produção de conhecimento, principalmente quando esse processo envolve custos e riscos elevados, que são evitados pelas empresas. De acordo com o consultor de investimentos londrino Alex Graham, um dos segredos de Musk é sua habilidade em usar “métodos criativos” de financiamento. Um levantamento do jornal Los Angeles Times em 2015 calculou que os três principais negócios do empresário – Tesla, SpaceX e SolarCity – haviam recebido até então US$ 4,9 bilhões de apoio governamental. O estado de Nevada, por exemplo, concedeu US$ 1,3 bilhão em isenções fiscais para a implantação de uma gigantesca fábrica de baterias de 5,5 milhões de metros quadrados que a Tes-

la deve concluir até 2020 na cidade de Sparks, em parceria com a Panasonic. A meta é produzir baterias para abastecer meio milhão de carros elétricos por ano. Já o governo de Nova York fez um aporte de US$ 750 milhões na unidade da SolarCity em Buffalo. A SpaceX não se beneficiou desse tipo de isenção fiscal, mas seu principal cliente é o governo e sua criação teve apoio da Nasa. Não fosse um contrato de US$ 1,6 bilhão com a agência espacial celebrado em 2008, a empresa teria falido, observa Alex Graham. “Embora os números sugiram que Musk recebeu vantagens do governo, é preciso fazer uma análise mais matizada”, escreveu o consultor em um ensaio publicado no site da startup Toptal. “Como a SpaceX e a SolarCity se tornaram atores importantes no mercado de ener-

gias renováveis, o apoio do governo era mais do que esperado. E as fábricas em Nevada e em Nova York terão de cumprir metas de desempenho significativas, caso contrário a Tesla receberá punições.” Outra característica de Musk é envolver parceiros em seus desafios de pesquisa e desenvolvimento (P&D), reduzindo os riscos. Em 2014, a Tesla anunciou a abertura dos códigos de suas patentes, em um convite para que empresas e pesquisadores participassem das atividades de P&D relacionadas às baterias de íons de lítio. A decisão foi uma resposta a um anúncio feito pela Toyota de investir em carros movidos a hidrogênio, que poderia enfraquecer o esforço de viabilizar os veículos elétricos. Musk também idealizou um novo meio de transporte, batizado de Hyperloop, que é uma espécie de trem de alta velocidade flutuando em um tubo de baixa pressão. Para desenvolver a ideia, ele criou uma competição para startups e grupos de pesquisa interessados em solucionar gargalos tecnológicos. Hoje, há oito empresas de vários países trabalhan-

pESQUISA FAPESP 265  z  49


sustentável

No ano passado, a Tesla superou o valor de mercado da Ford, embora tenha produzido perto de 100 mil carros em 2017, comparado a 6,6 milhões da centenária montadora nos Estados Unidos. Ao demonstrar a viabili­dade de produzir carros elétricos, a empresa de Musk indicou aos investidores que seu destino pode ser mais promissor e sustentável que o dos concorrentes baseados em motores a combustão. Se o futuro parece próspero, a Tesla enfrenta obstáculos no presente. Um dia depois do lançamento do Roadster, a empresa anunciou um prejuízo de US$ 675,4 milhões no último trimestre de 2017. No ano inteiro, as receitas foram de US$ 11,9 bilhões e o prejuízo de US$ 1,9 bilhão. O mau desempenho é atribuído a problemas na escala da fabricação de baterias para o sedan Model 3, aposta de Musk para abastecer com carros elétricos o mercado de classe média – o preço da versão básica é de US$ 35 mil. No trimestre anterior, prometera fabricar 1,6 mil carros, mas só 220 foram entregues. A fila de interessados no Model 3 chega a 400 mil pessoas, que já pagaram US$ 1.000 para reservar um exemplar. A lentidão na produção de baterias na fábrica da Tesla em Nevada é atribuída à necessidade de montar certos dispositivos manualmente, o que levou a empresa a utilizar mão de obra emprestada de fornecedores. “Mas também existem dúvidas em relação à capacidade da Tesla de importar sais de lítio em quantidade suficiente para produzir carros na escala e consequentemente no preço que prometeu”, afirma Roberto Torresi, professor do Instituto de Química da Universidade de São Paulo (USP). As baterias de íons lítio apresentam custos cadentes, mas requerem ainda avanços significativos para se difundir plenamente na econo50  z  março DE 2018

A constelação Musk Empresas em que o bilionário sul-africano investe

Space X Segmento:

lançamento de foguetes Fundação: 2002 Sede: Hawthorne, Califórnia funcionários: 5 mil Valor de mercado: US$ 21 bilhões (2017) Produtos: Falcon 1, 9 e Heavy / cápsula Dragon

Tesla Motors Segmento:

carros elétricos Fundação: 2003 Sede: Palo Alto, Califórnia funcionários: 33 mil Valor de mercado: US$ 48 bilhões (2017) Produtos: Tesla Roadster e

1

Model S (esportivos), Model X (SUV) e Model 3 (sedan)

Solar City

(subsidiária da Tesla desde 2016) Segmento: energia solar Fundação: 2006 Sede: San Mateo, Califórnia funcionários: 15 mil Produtos: painéis solares, abastecimento elétrico de veículos

3

2

fotos 1 space x 2 tesla  3 wikimedia commons  4 e 5 the boring company  6 future tech / flickr

do em protótipos do Hyperloop. Já Musk está investindo em um negócio paralelo: uma empresa de construção de túneis, que serão essenciais para os trens flutuantes. À parte os métodos criativos, as empresas de Musk também são financiadas da maneira tradicional. A Tesla e a SolarCity têm ações negociadas em bolsas de valores e a SpaceX planeja lançar uma oferta pública inicial de ações quando amadurecer os planos de enviar uma missão a Marte.


OpenAI Segmento:

Tecnologias de inteligência artificial (sem fins lucrativos) Fundação: 2015 Sede: São Francisco, Califórnia funcionários: 60

4

The Boring Company Segmento:

construção de túneis Fundação: 2016 Sede: Hawthorne, Califórnia funcionários: 20

Neuralink Segmento:

5

Interfaces cérebro-computador Fundação: 2016 Sede: São Francisco, Califórnia funcionários: 25

6

milhões financiados pela Nasa e US$ 354 milhões de investidores privados. Antes da PayPal, Musk fundou a Zip2, que produzia conteúdo para portais de notícias. ambições

A disputa do mercado de foguetes opõe outros bilionários, como o fundador da Amazon, Jeff Bezos, criador da empresa Blue Origin, que já dispõe de um lançador reutilizável, e o britânico Richard Branson, dono da Virgin Galactic. “O que há de novo é que essas empresas têm ambições que vão além dos contratos governamentais”, disse ao jornal The Guardian Casey Dreier, diretor de política espacial da Planetary Society, dos Estados Unidos. Tanto a SpaceX quanto a Blue Origin desenvolvem lançadores talhados para missões tripuladas. A empresa de Bezos trabalha no foguete New Glenn, um pouco maior do que o New Shepard usado atualmente. Já Musk está desenvolvendo o Big Falcon Rocket, com a ambição declarada de levar o homem a Marte. O desempenho da empresa de Musk despertou o interesse do Ministério da Defesa brasileiro, que anunciou estar negociando com a SpaceX e com a Boeing parcerias a fim de franquear o uso da base de Alcântara, no Maranhão. “Como várias bases têm filas de espera para lançar satélites, Alcântara poderia ser utilizada como opção mais rápida. Sua infraestrutura está atualizada”, diz o major-brigadeiro Luiz Fernando Aguiar, presidente da Comissão de Coordenação e Implantação de Sistemas Espaciais da Força Aérea Brasileira. As perspectivas para a SpaceX são favoráveis. A empresa ganhou competitividade no mercado de lançamento de satélites, ameaçando a United Launch Alliance (ULA), joint venture da Lockheed e da Boeing, que se associou à Blue Origin. Será uma disputa dura, já que a SpaceX cobra US$ 4.653 para colocar em órbita 1 quilo de carga, enquanto os custos da ULA partem de US$ 14 mil por quilo. O mercado tem espaço para vários competidores. Relatório do Bank of America prevê que a indústria espacial comercial crescerá oito vezes nas próximas três décadas, criando um mercado de US$ 2,7 trilhões em 2045. “Estamos entrando em um momento vibrante da era espacial. São esperados mais avanços nas próximas décadas do que em toda a história da humanidade”, diz o relatório. n Fabrício Marques pESQUISA FAPESP 265  z  51

Versão atualizada em 25/04/2018

Novos negócios

mia, principalmente para uso automotivo. “Esse mercado está em ebulição. Em 2017, uma empresa da China, a BYD, criou um empreendimento gigantesco, que armazena a energia gerada de usinas eólicas em uma enorme quantidade de baterias de lítio para garantir estabilidade ao fornecimento de eletricidade.” Mark Spiegel, administrador de um fundo de investimentos em Nova York e crítico de Musk, engrossou o coro dos que consideram que a Tesla está trabalhando com preços impraticáveis. “O custo do modelo básico não será inferior a US$ 40 mil. E, mesmo cobrando mais caro, a empresa não chegará perto da prometida rentabilidade”, afirmou ao serviço de notícias CNBC. “Se conseguimos mandar um Roadster rumo ao cinturão de asteroides, provavelmente conseguiremos resolver os problemas de produção do Model 3”, rebateu Musk, ao anunciar os resultados da empresa. Se a Tesla está no vermelho, a SpaceX, ainda que não divulgue resultados, é vista como lucrativa, embora em 2016 tenha tido um prejuízo de US$ 250 milhões resultante da explosão de um foguete em Cabo Canaveral. A empresa mantém US$ 4,2 bilhões em contratos com a Nasa para enviar cargas e até astronautas para a Estação Espacial Internacional (ISS). Musk investiu nesse nicho estimulado pela Nasa, que nos últimos 15 anos incentivou parcerias privadas para reduzir custos de seu programa de exploração espacial. Em 2006, Musk investiu na empresa US$ 100 milhões do próprio bolso, depois de vender sua participação na PayPal, consagrado serviço de pagamentos on-line. Esses recursos se somaram a US$ 396


ciência  SAÚDE PÚBLICA y

CÂNCER Cinco anos depois Brasil apresenta sobrevida alta em tumor de próstata e baixa nos infantis em estudo feito em 71 países Carlos Fioravanti

D

e cada 10 homens com câncer de próstata no Brasil, nove vivem pelo menos cinco anos após o início do tratamento. É um índice igual ao da Alemanha e próximo aos do Japão e Estados Unidos, que só ficam um pouco atrás do da ilha de Chipre, no Mediterrâneo, onde praticamente todos os pacientes com esse tipo de câncer vivem mais de cinco anos. No mesmo estudo que traz esse dado, publicado em janeiro na revista The Lancet, o Brasil aparece com a menor sobrevida global em câncer de cérebro em crianças: quase quatro em cada 10 sobrevivem cinco anos, um resultado bem distante da Islândia, onde nove em cada 10 vivem mais de cinco anos. Com resultados bons e outros nem tanto, o Brasil ocupou uma posição média na terceira versão do Concord, programa internacional de vigilância glo52  z  março DE 2018

bal da sobrevida em câncer coordenado pelo epidemiologista Michel Coleman, professor da London School of Hygiene and Tropical Medicine, que examinou a sobrevida em cinco anos de 37,5 milhões de pacientes com câncer em 71 países e territórios, de 2000 a 2014. Nesse estudo, Estados Unidos, Canadá, Austrália, Nova Zelândia, Finlândia, Islândia, Noruega e Suécia apresentaram a maior sobrevida em cinco anos para a maioria dos 18 tipos de câncer analisados. Como tendência geral no mundo, a sobrevida aumentou, mesmo nos tipos mais letais, como câncer de fígado, de pâncreas e de pulmão, embora os contrastes entre os países permaneçam acentuados. Nesses 15 anos, a sobrevida em cinco anos de mulheres com câncer de mama foi de 90,2% nos Estados Unidos, de 66,0% na Índia e de 0% em Mali, na África (ver gráfico na página 54). No Brasil,

entre 2000-2004 e 2010-2014, a sobrevida de adultos com câncer de pâncreas aumentou 141% e a de mulheres com câncer de mama 9,5%, enquanto a de crianças com câncer de cérebro caiu 48% e a de adultos com câncer de pulmão 20%. “A sobrevida dos pacientes nos 18 tipos de câncer está muito ligada ao índice de desenvolvimento humano de cada país e ao acesso ao sistema de saúde”, diz a epidemiologista Maria Paula Curado, pesquisadora do A.C.Camargo Cancer Center, de São Paulo, que participou do estudo. “No Brasil, para alguns tipos de câncer, mais de 70% dos casos são diagnosticados em estágio avançado, o que dificulta o tratamento e reduz a sobrevida.” O Brasil participou com informações fornecidas por seis cidades – Aracaju, Cuiabá, Curitiba, Goiânia, Jaú (SP) e São Paulo – sobre 134.597 pacientes, o equivalente a 7,7% do total de pessoas com


léo ramos chaves

câncer em tratamento no país. “Deveríamos ter examinado a sobrevida de pelo menos 80% dos pacientes tratados no Brasil”, informa Maria Paula, que criou e, de 1988 a 2006, gerenciou a base de dados de pacientes com câncer de Goiânia. “A maioria das cidades não mandou informações porque os registros não estavam completos ou não tinham qualidade suficiente, o que reforça a necessidade de apoio às equipes responsáveis pelos registros de câncer de base populacional no Brasil.” Dos 71 países, 41 participaram com dados nacionais e outros, como o Brasil, com bases menores. “Precisamos conhecer as causas da falta de acesso da população a melhores formas de tratamento e melhorar nossas taxas de sobrevida”, afirma a epidemiologista Gulnar Azevedo e Silva, diretora do Instituto de Medicina Social da Universidade do Estado do Rio de Janeiro

(Uerj) e uma das coautoras do artigo na Lancet. “A sobrevida em cinco anos das mulheres com câncer de colo de útero no Brasil é de 60%, mas deveria ser mais alta, porque é totalmente evitável; na Europa já é uma doença rara.” De acordo com o Instituto Nacional do Câncer (Inca), no Rio de Janeiro, quase 600 mil pessoas devem ter recebido o diagnóstico positivo para câncer de todos os tipos no Brasil em 2016. Por ano, essa doença causa 225 mil mortes no país. Gulnar coordenou um estudo publicado em 2016 na PLOS ONE indicando que 34,2% dos casos e 42% das mortes associadas a 25 tipos de câncer no Brasil previstas para 2020 poderiam ser evitadas, porque decorrem de fatores relacionados ao modo de vida ou ao ambiente, como tabagismo, baixo consumo de frutas e verduras, excesso de peso, consumo excessivo de álcool, infecções e exposição

Lâmina com amostras de tecidos usada para identificação e análise de tumores no A.C.Camargo Cancer Center, em São Paulo pESQUISA FAPESP 265  z  53


Sobrevida em oito tipos de câncer Porcentagem de pacientes que continuavam vivos cinco anos após o início do tratamento (países escolhidos; dados coletados entre 2010 e 2014) Catar 99,7 n n n n n

n País de menor sobrevida n País de maior sobrevida

CHL = Chile BRA = Brasil EUA = Estados Unidos CHN = China ALE = Alemanha

93,1

90,8 Coreia 68,9

70 59,7 49,6

Argélia 29,8

21,2 19,8 18,3 9,5 11,5 9,9 10,7 Islândia 4,4 0 CHL BRA EUA CHN ALE

Índia 8,5 3,7 4,6 CHL BRA EUA CHN ALE

Pâncreas

Pulmão

contínua ao sol e à poluição. O tabagismo responde por cerca de 30% das mortes por câncer, principalmente o de pulmão, que apresentou uma sobrevida em cinco anos de 8,5% no Brasil, bem distante da sobrevida de 32,9% registrada no Japão. OFERTA E DEMANDA

Gulnar e a psicóloga e epidemiologista Jeane Glaucia Tomazelli, pesquisadora do Inca, examinaram o atendimento médico às mulheres com câncer de mama – para o qual o Concord registrou uma sobrevida de cinco anos de 75% no Brasil e de 90,2% nos Estados Unidos – e verificaram que, apesar do estímulo à realização de mamografia, a oferta de serviços de diagnóstico e tratamento da rede pública de saúde está aquém da necessidade da população. Como detalhado em estudo publicado em 2017 na revista Epidemiologia e Serviços de Saúde, com 27 mamografias para cada 100 mulheres, o Brasil ainda está bem abaixo da taxa recomendada de 50 exames desse tipo para cada 100 mulheres. No estado do Rio de Janeiro, 44% dos casos de câncer de mama foram diagnosticados em fase avançada, mesmo com 68% das mulheres moran-

Mulheres esperam para fazer exame em um ônibus equipado com mamógrafo em Barretos, interior paulista, em 2003 54  z  março DE 2018

33,1 Índia 16,7 8,9

35,9

33,5 África do Sul 8,5

20,6

CHL BRA EUA CHN ALE

CHL BRA EUA CHN ALE

Estômago

Melanoma de pele

do em cidades que ofereciam serviços médicos especializados em diagnóstico e tratamento da doença. As pesquisadoras verificaram que, a despeito das recomendações do Ministério da Saúde (MS) para controle de câncer de mama, ainda são escassos os sistemas de informações com o cadastro das mulheres a serem chamadas para os exames e acompanhadas ao longo dos anos. Há também desigualdades regionais, que dificultam o acesso ao diagnóstico precoce e à cirurgia. De acordo com esse estudo, a região Norte tem um mamógrafo para cada grupo de 100 mil mulheres, enquanto na região Sul há dois para a mesma quantidade de mulheres. É tam-

bém a região Norte que tem menos profissionais especializados em cirurgias de mama (102 para cada 100 mil mulheres), mais uma vez em contraposição à região Sul (244 para cada 100 mil). “Se uma mulher faz uma mamografia com suspeita de câncer de mama”, diz Gulnar, “deveria ter de esperar no máximo quatro semanas para fazer uma biópsia e confirmar o diagnóstico e outras quatro para começar o tratamento.” Para ela, é preciso mais agilidade e processos contínuos de reformulação e monitoramento dos resultados. Uma das recomendações da Organização Mundial da Saúde (OMS) para controle do câncer anunciadas em maio de

Joel Silva / Folhapress

Argélia 33,7


Fonte allemani, C. et al. Lancet. 2018

Marrocos 99,7 90,2 83,2

91,6

Islândia 80,1

86

75,5 75,2 56,7

60,3

62,6

67,6

Argélia e Catar 100

Chipre 99,2

97,4

91,6

91,1

89,5

82 69,2

65,2

63,9 66 57,7

Equador 49,8

África do Sul 37,8

Guadalupe 19,4

CHL BRA EUA CHN ALE

CHL BRA EUA CHN ALE

CHL BRA EUA CHN ALE

Colo de útero

Próstata

Leucemia linfoide aguda (criança)

Mama

2017 é justamente antecipar o diagnóstico e assegurar o tratamento adequado para os tipos de câncer potencialmente curáveis, como a leucemia mieloide aguda em crianças. A sobrevida nesse tipo de câncer foi de 66% no Brasil, 89% nos Estados Unidos e 91% na Alemanha. “Temos de prevenir, diagnosticar e tratar imediatamente”, afirma Maria Paula. “A chance de cura de um tumor em estágio inicial é de 90%, mas cai muito em estágio avançado.” PERDAS ECONÔMICAS

Cada morte por câncer no Brasil gera uma perda econômica média de R$ 176 mil (R$ 147 mil no caso das mulheres e R$ 197 mil no dos homens), de acordo

com um estudo de janeiro deste ano na Cancer Epidemiology. As perdas foram calculadas com base na renda média das pessoas economicamente ativas, com idade entre 15 e 65 anos. As 87 mil mortes anuais prematuras por câncer no Brasil devem resultar em perdas estimadas em R$ 15 bilhões, o equivalente a 0,21% do Produto Interno Bruto (PIB). “Embora uma parte dessa força de trabalho seja reposta, o estudo mostra o impacto macroeconômico do câncer, com a perda de pessoas que deixam de contribuir para a economia com a renda de seu trabalho”, avalia a epidemiologista Marianna de Camargo Cancela, pesquisadora do Inca e coautora do trabalho.

Impacto econômico Perda de produtividade decorrente da morte de pessoas em idade economicamente ativa (15 a 65 anos) por câncer

Mortes

Custo por morte (US$)

Perda total de produtividade (bilhões de US$)

Coordenado pela economista Alison Pearce, pesquisadora da Universidade de Tecnologia de Sydney, na Austrália, o levantamento examinou o bloco dos Brics, formado por Brasil, Rússia, Índia, China e África do Sul. Nos cinco países, as mortes por câncer resultam em perdas calculadas em US$ 46,3 bilhões (cerca de R$ 150 bilhões) por ano (ver tabela abaixo). As mortes por câncer de pulmão resultaram nas maiores perdas de produtividade, principalmente na Rússia (US$ 1 bilhão) e no Brasil (US$ 0,5 bilhão). “Estamos vendo o efeito do tabagismo de 20 anos atrás”, diz Marianna. “As campanhas não reduzem a mortalidade de imediato, porque o câncer de pulmão se desenvolve lentamente e demora para se manifestar.” Os autores do estudo argumentam que esses resultados indicam como a prevenção do câncer e o acesso a melhores formas de tratamento podem impactar não apenas a vida das pessoas, mas também a economia dos países onde vivem. n Artigos científicos

China

487.080

57.491

28

ALLEMANI, C. et al. Global surveillance of trends in cancer

Índia

342.057

19.691

6,7

records for 37 513 025 patients diagnosed with one of

Rússia

72.680

68.777

4,9

Brasil

87.075

53.377

4,6

África do Sul

18.684

101.105

1,8

survival 2000-14 (CONCORD-3): Analysis of individual 18 cancers from 322 population-based registries in 71 countries. Lancet. On-line. 30 jan. 2018. PEARCE, A. et al. Productivity losses due to premature mortality from cancer in Brazil, Russia, India, China, and South Africa (Brics): A population-based comparison. Cancer Epidemiology. v. 16, n. 53, p. 27-34. abr. 2018. Os outros artigos consultados para esta reportagem

Fonte  Pearce, A. et al. Cancer Epidemiology. 2018.

estão listados na versão on-line.

pESQUISA FAPESP 265  z  55

Versão atualizada em 15/03/2018

Mali 0 CHL BRA EUA CHN ALE


Neurologia y

AA

epilepsia é uma das doenças neurológicas mais prevalentes no mundo, acometendo epilepsia é uma dascerca doenças de 50 milhões demais pessoas, seneurológicas prevalentes gundo dados no divulgados em 2017 pela mundo, acometendo cerca Organização Mundial de Saúde. É, tam- sede 50 milhões de pessoas, bém,gundo uma das maisdivulgados estudadas: descrições dados em 2017 pela de seus sintomasMundial já existem relatos Organização da em Saúde. É, tamegípcios sumérios deestudadas: 3.500 anosdescrições antes bém, euma das mais de Cristo. Nosintomas entanto, já elucidar as em causas de seus existem relatos e o processo evolução egípcios ede sumérios dedessa 3.500síndroanos antes me relacionada múltiplos fatores a de Cristo. Noaentanto, elucidar as ecausas diferentes manifestações clínicas de e o processo de evolução dessa–síndrocrises ausência (lapsos de consciência mederelacionada a múltiplos fatores e a quediferentes duram alguns segundos) aclínicas convul-– de manifestações sõescrises – continua sendo(lapsos um desafio para de ausência de consciência os pesquisadores. que duram alguns segundos) a convulUm passo significativo direçãopara sões – continua sendonessa um desafio acaba ser dado graças aos recursos os de pesquisadores. de técnicas de neuroimagem. Um estuUm passo significativo nessa direção do em escala o uso resacaba de mundial ser dadocom graças aosderecursos sonância magnética em pacientesUm com de técnicas de neuroimagem. estuepilepsia a indicação, já verificada do emtraz escala mundial com o uso de resem trabalhos anteriores,em da pacientes existênciacom sonância magnética de atrofia cerebral todas asjáformas epilepsia traz a em indicação, verificada da doença, mesmoanteriores, naquelas antes conem trabalhos da existência sideradas idiopáticas – nas quais não se de atrofia cerebral em todas as formas observam alterações cerebrais exa-conda doença, mesmo naquelasem antes messideradas clínicos comuns. idiopáticas – nas quais não se Os resultados estão na edição de feveobservam alterações cerebrais em exareiromes do clínicos periódico científico Brain. Focomuns. ram analisados dados de 24 centrosdedefeveOs resultados estão na edição pesquisa 14 países da Europa,Brain. Amé- Foreiro em do periódico científico ricaram do Norte e do Sul, Ásiadee 24 Austrália. analisados dados centros de As medidas pesquisaestruturais em 14 paísesdodacérebro Europa,foAméramrica extraídas de imagens ressonândo Norte e do Sul, de Ásia e Austrália. cia magnética 2.149 indivíduos com foAs medidasdeestruturais do cérebro epilepsia, comparados a 1.727de casos de ram extraídas de imagens ressonâncontroles, de pessoas saudáveis. cia magnética de 2.149 indivíduos com “Éepilepsia, o maior estudo em volume ca- de comparados a 1.727decasos sos analisados até hoje nesta área”, diz controles de pessoas saudáveis. o neurocientista “É o maior Fernando estudo emCendes, volume da de caUniversidade Estadual denessa Campinas sos analisados até hoje área”, diz (Unicamp) e coordenador o Instituto o neurocientista Fernando Cendes, da Brasileiro de Neurociências e NeuroUniversidade Estadual de Campinas tecnologia (Brainn), um dos Centros de (Unicamp) e coordenador do Instituto Pesquisa, Inovação e Difusão (Cepid) Brasileiro de Neurociências e Neuroapoiados pela FAPESP, contribuiu tecnologia (Brainn), que um dos Centros de comPesquisa, dados do Inovação Brasil parae oDifusão trabalho. (Cepid) Os resultados desse esforço conjunto apoiados pela FAPESP, que contribuiu indicam, em todos os casos de oepilepsia, com dados do Brasil para trabalho. Os resultados desse esforço conjunto indicam, em todos os casos de epilepsia, 56  z março DE 2018

Marcas da

Estudo internacional com imagens do cérebro indica relação da doença com atrofia cerebral Suzel Tunes

a existência de um comprometimento estrutural mais difundido do que se supunha anteriormente. Em comparação com cérebros saudáveis, todos os tipos estudados apresentaram, por exemplo, menor volume no tálamo direito (área responsável pela integração de impulsos nervosos) e menor espessura no giro pré-central (que contém a área motora primária do córtex cerebral). Nas epilepsias que provocam lesões, existe uma perda neuronal, já amplamente descrita por outros estudos, que ocasiona as crises. É o caso, por exemplo, da epilepsia de lobo temporal, associada a uma atrofia no hipocampo, importante estrutura relacionada às emoções, aprendizado e memória. “Com o tempo e a repetição das crises, essa lesão começa a afetar outras áreas do cérebro. Agora será possível monitorar essa alteração ao longo dos anos”, afirma o neurocientista. Existe, no entanto, um grande número de epilepsias não relacionadas a nenhuma lesão detectável em exames clínicos

e, provavelmente, de ordem genética. Elas apresentam boa resposta ao tratamento disponível, à base de drogas, e, às vezes, até remissão espontânea. A maioria desse tipo de epilepsia era considerada benigna. Hoje nem tanto. “O estudo dá suporte a observações recentes de que as epilepsias comuns nem sempre podem ser consideradas benignas. Mesmo com as crises controladas existem consequências para o cérebro”, afirma o pesquisador. Cendes explica que o volume de casos analisados confere relevância ao estudo, dada a sutileza das alterações cerebrais analisadas, da ordem de poucos milímetros. “As alterações que vimos são muito pequenas, algumas indetectáveis em exames clínicos. As medições são, portanto, passíveis de vieses e falhas. O grande número de dados dilui o erro e permite que os achados sejam mais robustos e confiáveis. Vários estudos prévios já foram feitos, mas o número era pequeno e não suficiente para respostas conclu-


Onde estão as lesões nos pacientes

Grau da atrofia

Os danos neuronais mais significativos se concentram em três áreas cerebrais Lobo frontal

Lobo occiptal

Lobo temporal

Vista medial (interna)

Vista medial (interna)

Vista superior Vista lateral

Hemisfério esquerdo

Vista lateral

Ambos os hemisférios

Hemisfério direito fonte brainn

sivas como as que estamos encontrando agora”, diz o pesquisador. Para a neurologista Laura Ferreira Guilhoto, da Unidade de Pesquisa e Tratamento das Epilepsias da Universidade Federal de São Paulo (Unifesp), o estudo corrobora a ideia de que se deve sempre procurar por uma causa identificável desse tipo de distúrbio cerebral, sobretudo em pacientes que não respondem aos tratamentos convencionais com fármacos. “Nos casos de controle mais difícil, os exames de imagem podem, inclusive, diagnosticar uma lesão responsável pelas crises a ser removida por meio de cirurgia”, comenta a médica, que não participou da pesquisa.

imagens Brainn

Enigma da neuroimagem

Os dados de todos os centros de pesquisa que participaram do estudo foram reunidos e analisados pelo consórcio conhecido pela sigla Enigma (Enhancing Neuro Imaging Genetics through Meta Analysis), uma rede colaborativa de pesquisa sediada na Universidade do Sul da Califórnia (USC), Estados Unidos. Como indica o próprio nome, o Enigma trabalhou os dados enviados utilizando meta-análise, método estatístico que

analisa e integra resultados de estudos independentes. analisa e integra resultados de estudos Criado em 2009 pelo neurocientista independentes. PaulCriado Thompson, da USC, pelo genetiem 2009 peloeneurocientista cista Nick Martin, da Paul Thompson, daQueensland USC, e peloInstigenetitute of Nick Medical Research, da Austrália, cista Martin, da Queensland Instio Enigma é o maior projetoda deAustrália, estudo tute of Medical Research, deoneuroimagem do mundo, Enigma é o maior projetoreunindo de estudo 900 de 35 países, especializadecientistas neuroimagem do mundo, reunindo dos emcientistas 18 diferentes cerebrais. 900 de 35doenças países, especializaEm 2015, o grupo abriu uma linha de dos em 18 diferentes doenças cerebrais. pesquisa específica Em 2015, o grupo sobre abriu epilepsia uma linhae,de nopesquisa ano seguinte, surgiam os primeiros específica sobre epilepsia e, resultados. “O artigo no Brain é a prino ano seguinte, surgiam os primeiros meira publicação dessa união de esforresultados. “O artigo no Brain é a priços”, destaca Cendes. Ele explica a meira publicação dessa união deque esforagilidade na apresentação de explica conclusões ços”, destaca Cendes. Ele que a deve-se à metodologia de trabalho do agilidade na apresentação de conclusões consórcio: grupo trabalha em seudo deve-se “Cada à metodologia de trabalho próprio centro de pesquisa e, em vez consórcio: “Cada grupo trabalha emde seu mandar dados brutos, envia resultados próprio centro de pesquisa e, em vez de sobre os quais sãobrutos, aplicadas, depois, anámandar dados envia resultados lises estatísticas”. sobre os quais são aplicadas, depois, anáO Brasil se associou ao Enigma-Epilises estatísticas”. lepsia Segundo Clarissa O desde Brasil oseinício. associou ao Enigma-EpiLin Yasuda, professora Departamento lepsia desde o início.doSegundo Clarissa deLin Neurologia da Faculdade de Ciências Yasuda, professora do Departamento Médicas da Unicamp e participante do de Neurologia da Faculdade de Ciências estudo, o grupo brasileiro foi o que en-do Médicas da Unicamp e participante viou a maior amostra. “Analisamos cerenestudo, o grupo brasileiro foi o que viou a maior amostra. “Analisamos cer-

ca de 700 indivíduos, entre pacientes e pessoas saudáveis, cujas imagens, obtidas em vários projetos, já tínhamos arquivadas em nosso banco de dados, reunidas desde 2010. Temos provavelmente um dos maiores bancos de imagens do mundo”, afirma a pesquisadora. Para organizar e processar toda essa informação, foram necessários cerca de 10 meses e uma equipe formada por seis neurologistas e um engenheiro da computação. Segundo a pesquisadora, outro projeto do Enigma já está em andamento e busca um detalhamento maior dos diferentes tipos de epilepsia e a confirmação da relação entre atrofia cerebral e parâmetros como tempo de duração da doença e frequência das crises. “Novos resultados podem sair ainda este ano.” n

Projeto Instituto Brasileiro de Neurociência e Neurotecnologia – Brainn (n. 13/07559-3); Modalidade Centros de Pesquisa, Inovação e Difusão (Cepid); Pesquisador responsável Fernando Cendes (Unicamp); Investimento R$ 20.735.974,24 (para todo o projeto).

Artigo científico WHELAN, C. D. Structural brain abnormalities in the common epilepsies assessed in a worldwide Enigma study. Brain. v. 141, n. 2, p. 391-408. 30 jan. 2018.

pESQUISA FAPESP 265  z  57


Evolução y

Mistérios de

ser macho ou fêmea

Rã amazônica é o vertebrado com o maior número registrado de cromossomos sexuais

Maria Guimarães

58  z  março DE 2018

Q

uando o biólogo Thiago Gazoni examinou pela primeira vez os cromossomos da rã conhecida como jia-da-floresta (Leptodactylus pentadactylus), durante o mestrado, que concluiu em 2011 na Universidade Estadual Paulista (Unesp) em Rio Claro, não contava registrar o vertebrado com o maior número de cromossomos sexuais já encontrado, conforme descreveu em artigo publicado no final de janeiro no site da revista Chromosoma: são 12 desses pacotes de DNA que,

nessa espécie, se organizam em forma de anel durante a divisão celular, como se dançassem uma ciranda. É um sistema muito distante do X e do Y que determinam se uma pessoa é homem ou mulher. O recordista anterior era o ornitorrinco, com 10 cromossomos sexuais. “Menos de 5% dos anfíbios cujos cromossomos foram descritos até o momento têm cromossomos sexuais prontamente identificáveis”, diz Gazoni, que aprofundou o estudo durante o doutorado encerrado em 2015. Isso significa


que quando se monta o cariótipo – uma forma de organizar e estudar o conjunto de cromossomos de um indivíduo –, na maioria das vezes é impossível distinguir visualmente aqueles relacionados à determinação do sexo. Na verdade, pouco se sabe sobre os genes específicos que tornam os anfíbios machos ou fêmeas, função desempenhada em mamíferos pelo gene SRY. Mais curioso ainda, as 13 rãs estudadas (seis fêmeas e sete machos) têm mais cromossomos sexuais do que não sexuais

Receitas variadas Em diferentes grupos de animais, o sistema de determinação do sexo pode depender de cromossomos distintos... ou não XX, XY e variações  ZZ, ZW  Hermafrodita  Indeterminado

Temperatura

Mamíferos

100%

O sistema de cromossomos XX (fêmeas) e XY (machos), com algumas variações, vale para todos os mamíferos

0,4%

Aves

99,6%

Quase todas as aves têm o sexo definido pelos cromossomos ZZ (machos) e ZW (fêmeas)

Répteis

26%

16% 47%

11%

Nem sempre os cromossomos sexuais são distintos dos autossômicos, e em parte das espécies a temperatura durante o desenvolvimento dos ovos define o sexo

Anfíbios

3% 2%

95%

Na maioria das espécies, não se sabe onde estão os genes determinadores do sexo

13%

peixes

5% 47%

27%

Enigma evolutivo

Também não há cromossomos inativados no recordista anterior: o ornitorrinco, estranho animal australiano que, apesar de exibir patas com membranas

8% Quase metade das espécies é hermafrodita, (tem órgãos reprodutivos dos dois sexos) com determinação variada para as restantes

Fonte  judith mank / consórcio tree of sex

Versão atualizada em 12/04/2018

ilustraçãO  barbara Malagoli

Esticado, o DNA de uma célula humana teria 2 metros; no núcleo, é empacotado e dividido em cromossomos que se organizam de forma específica na replicação

(os autossomos). São 12 sexuais em um conjunto total de 22 cromossomos. “O que define, visualmente, serem cromossomos sexuais é haver diferenças entre os cariótipos de machos e de fêmeas”, explica Gazoni. Os cromossomos exclusivos de um sexo seriam responsáveis por defini-lo. Durante a evolução, o que acontece é que os autossomos vão sofrendo alterações que podem dar origem a cromossomos com genes específicos para um dos sexos. Aos poucos, outros genes próximos ao determinador do sexo vão sendo inativados, dando origem a cromossomos especializados. As partes inativadas ficam mais condensadas e podem ser reconhecidas com métodos adequados de coloração. Em 2014, Gazoni passou três meses na Universidade de Cambridge, Reino Unido, no laboratório do geneticista Malcolm Ferguson-Smith, para desenvolver uma sonda que conseguisse marcar os cromossomos das rãs e mapear o trânsito de pedaços trocados entre cromossomos distintos. No futuro, um dos objetivos é identificar e localizar os genes relacionados à determinação do sexo nesses anfíbios. “Ainda não se sabe o significado dos cromossomos sexuais múltiplos”, diz a bióloga Patricia Parise-Maltempi, da Unesp de Rio Claro, orientadora de Gazoni durante o doutorado – que teve como coorientador o zoólogo Célio Haddad, da mesma instituição. Há 10 anos ela fez um estágio de pós-doutorado com Ferguson-Smith para aprender técnicas como a pintura cromossômica, que permite distinguir partes específicas dos cromossomos e comparar cariótipos. Ela se especializou sobretudo em peixes, que também apresentam cromossomos sexuais múltiplos, mas conta que o conhecimento sobre a determinação sexual é ainda bem restrito. Aparentemente, no caso de peixes e da rã L. pentadactylus, os excedentes não são inativados – como é o caso nas fêmeas de mamíferos, que empacotam um dos cromossomos X de maneira a manter a atividade genética equiparada à dos machos, portadores de apenas um deles (ver Pesquisa FAPESP nº 260).


Recordistas entre os vertebrados A rã jia-da-floresta e o ornitorrinco têm o maior número de cromossomos sexuais já encontrados; abaixo exemplos de machos, já que fêmeas têm apenas as versões X

n Cromossomos

Y

n Cromossomos

X

10 cromossomos sexuais, de um total de 52, alinham-se alternando X e Y na divisão celular

12 cromossomos sexuais, de um total de 22, organizam-se em círculo na divisão celular

entre os dedos, bico achatado e pôr ovos, não é pato e sim mamífero. Um mamífero à parte – junto com a espinhuda equidna pertence à ordem dos monotremados –, mas mesmo assim alimenta seus filhotes com leite, embora não tenha propriamente mamas. Desde os anos 1970 sabe-se que esses curiosos caçadores subaquáticos têm 52 cromossomos, dos quais 10 sexuais que aparecem enfileirados durante a divisão celular. Demorou cerca de 30 anos para que existissem ferramentas adequadas para estudar esse sistema, segundo explica o geneticista alemão Frank Grützner, da Universidade de Adelaide, na Austrália, que desde 2002 se dedica ao enigma. “Eu tinha aprendido uma técnica chamada hibridização in situ por fluorescência, na qual é possível marcar cromossomos em cores diferentes”, conta. “Era claro que ela permitiria solucionar esse complexo sistema, mas foram necessários vários anos de trabalho duro para mostrar que se tratava de cinco pares de cromossomos XX ou XY, que se alternam em fileira durante a meiose, na divisão celular” (ver infográfico acima). Especialmente relevante para entender a evolução dos sistemas de determinação sexual foi a descoberta de que essa cadeia de cromossomos dos ornitorrincos tem genes típicos dos cromossomos 60  z  março DE 2018

X de mamíferos e Z de aves, de acordo com artigo publicado por Grützner em 2004 na revista Nature. É um indício de origem comum entre esses sistemas que até então se acreditava terem surgido de forma independente. Mesmo assim, até agora não está claro qual gene determina os sexos nesse animal. Esforços de sequenciamento do genoma completo estão em curso, com mais dificuldades no que diz respeito ao cromossomo Y. “Recentemente, em colaboração com Henrik Kaessmann [da Universidade de Heidelberg, na Alemanha], descobrimos um candidato potencial – um gene AMH ligado ao Y”, detalha. “É um gene tradicionalmente ligado ao desenvolvimento dos órgãos reprodutivos, será interessante ver como ele pode atuar na determinação sexual nessa espécie.” Impressão digital

Além das profundas implicações evolutivas do sistema genético de determinação sexual, a configuração dos cromossomos é muito usada como parte da caracterização de espécies, algo como uma impressão digital. Esse era um dos objetivos de Gazoni durante o mestrado orientado pela citogeneticista Sanae Kasahara, da Unesp de Rio Claro, falecida em janeiro deste ano. “Havia questões taxonômicas mal resolvidas no gênero, e por isso

pesquisadores à época no laboratório de Haddad – Olivia Araujo e Felipe Toledo – nos trouxeram um L. pentadactylus macho coletado em Paranaíta, em Mato Grosso”, conta ele. “Logo vimos que havia vários rearranjos cromossômicos.” O trabalho se desdobrou por outros caminhos, mas a busca pela classificação continua. “Mostramos no trabalho recente que há duas espécies atualmente sendo chamadas de L. pentadactylus, precisamos saber qual delas é a verdadeira”, diz Gazoni. O plano é batizar a nova espécie em homenagem à primeira orientadora, que dedicou a carreira à pesquisa em citogenética de vertebrados. n Projetos 1. Contribuições para o entendimento da origem e evolução dos cromossomos sexuais de vertebrados, baseado no estudo de DNAs repetitivos (nº 17/00195-7); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Patricia Pasquali Parise-Maltempi (Unesp); Investimento R$ 106.795,21. 2. Diversidade e conservação dos anfíbios brasileiros (nº 13/50741-7); Modalidade Projeto Temático; Programa Biota; Pesquisador responsável Célio Fernando Baptista Haddad (Unesp); Investimento R$ 4.386.814,61.

Artigos científicos GAZONI, T. et al. More sex chromosomes than autosomes in the Amazonian frog Leptodactylus pantadactylus. Chromosoma. On-line. 26 jan. 2018. GRÜTZNER, F. et al. In the platypus a meiotic chain of ten sex chromosomes shares genes with the bird Z and mammal X chromosomes. Nature. v. 432, n. 7019, p. 913-7. 24 out. 2004.

Versão atualizada em 12/04/2018

ilustraçãO  barbara Malagoli

Fontes  Patricia maltempi / unesp; frank grützner / Universidade de adelaide


Contaminação além do garimpo Áreas da Amazônia alagadas por hidrelétricas podem aumentar níveis de mercúrio em peixes consumidos por moradores locais Rodrigo de Oliveira Andrade

A

s comunidades indígenas e ribeirinhas que vivem em áreas próximas a usinas hidrelétricas na Amazônia podem estar expostas a altos níveis de mercúrio. A suspeita é de um grupo de pesquisadores brasileiros e espanhóis coordenado pela bioquímica María Elena López, do Instituto de Ciências Biológicas da Universidade Federal do Pará (UFPA). Eles analisaram amostras de fios de cabelo de 37 ribeirinhos que vivem em ilhas na região de Caraipé, no lago Tucuruí, nos arredores da Usina Hidrelétrica de Tucuruí, no Pará, a segunda maior do Brasil. Verificaram que mais da metade dos moradores apresentava níveis de contaminação até sete vezes superior ao limite de 10 microgramas de mercúrio por grama de fio de cabelo tolerado pela Organização Mundial da Saúde (OMS). “Mais de 80% do metal identificado estava em sua forma orgânica, o metilmercúrio”, afirma María Elena. Essa é a forma mais tóxica de mercúrio, capaz de driblar o sistema de defesa do organismo e atingir o cérebro. Nesses casos, pode causar uma síndrome neurodegenerativa grave chamada doença de Minamata, caracterizada por tremores, problemas de coordenação, distúrbios sensoriais, comprometimento da visão e da audição e, em casos extremos, morte. Apesar de apresentarem altos níveis de metilmercúrio no organismo, nenhum dos ribeirinhos havia sido diagnosticado com qualquer problema de pESQUISA FAPESP 265  z  61

gabriela arrifano

Ribeirinhos em casas de palafita às margens do lago Tucuruí, no Pará: exposição excessiva ao metal

Ambiente y


saúde, o que já era esperado pelos pesquisadores. Sinais clínicos associados à contaminação por esse metal levam anos para se manifestar. No estudo, publicado em janeiro na revista Ecotoxicology and Environmental Safety, os pesquisadores argumentam que os ribeirinhos de Tucuruí estão se contaminando a partir da ingestão de peixes. A primeira suspeita era de que o envenenamento pudesse ser uma consequência da atividade garimpeira. Isso porque os casos de contaminação por mercúrio na Amazônia quase sempre estão associados à extração de ouro. É comum os mineiros despejarem mercúrio em sua forma líquida à mistura de areia e cascalho extraída dos rios para atrair o metal precioso. Ao fazerem isso, liberam grandes quantidades de mercúrio no ambiente. Mas, ao analisar o histórico da região, os pesquisadores constataram a existência de vários pontos de mineração, nenhum deles ligado à extração de ouro. Por isso, sugerem que a principal fonte de contaminação por mercúrio seria decorrente de um efeito indireto provocado pelo funcionamento da hidrelétrica de Tucuruí, construída entre 1974 e 1985.

Poluição silenciosa Construção da barragem criou ecossistemas fechados que, quando são inundados, favorecem a liberação do mercúrio nos corpos d'água

BELÉM Área estudada

Rio Tapajós

Caraipé

Rio Xingu Rio Tocantins Em algumas áreas do reservatório da hidrelétrica o tempo de retenção das águas pode chegar a 130 dias todos os anos

efeitos da barragem

María Elena explica que a construção da barragem criou ecossistemas fechados que periodicamente são inundados. “O tempo de retenção de água em algumas áreas do reservatório chega a 130 dias por ano”, diz a bioquímica. Assim, todos os anos, na época chuvosa, quando o rio transborda e invade a floresta, suas águas ricas em matéria orgânica em decomposição misturam-se à grande quantidade de matéria orgânica jovem. Com o tempo, sob a ação da luz solar, esses compostos produzem peróxido de hidrogênio (água oxigenada), que ajuda a liberar o mercúrio inorgânico estocado no solo. Em seguida, bactérias anaeróbicas convertem a substância em metilmercúrio, que entra na cadeia alimentar aquática. A possibilidade de essa dinâmica se tornar um problema na região já havia sido apresentada há quase 20 anos pelo biólogo norte-americano Philip Fearnside, hoje no Instituto Nacional de Pesquisas da Amazônia (Inpa), em artigos publicados na revista Environmental Management. Em agosto do ano passado, um estudo publicado na PLOS ONE também destacou o risco de contaminação por 62  z  março DE 2018

Usina Hidrelétrica de Tucuruí

Níveis de contaminação nos moradores da região de Caraipé é até sete vezes superior ao limite tolerado pela OMS

metilmercúrio decorrente da construção de barragens na Amazônia. “O solo amazônico é naturalmente rico em mercúrio em sua forma inorgânica, menos agressiva”, comenta María Elena. Em algumas regiões, as próprias características do solo e da água favorecem a concentração elevada do metal. É

Lago Tucuruí

o caso da bacia do rio Negro, onde cada quilo de solo contém em média 172 microgramas de mercúrio, quase quatro vezes mais do que os níveis considerados normais para os solos em outras regiões (ver Pesquisa FAPESP nº 143). “O problema é que qualquer alteração ambiental pode fazer com que o mercúrio inorgânico seja liberado e convertido em metilmercúrio”, ela afirma. Ao ser liberado no meio ambiente, o metal é absorvido por algas, alimento de pequenos peixes, que são consumidos por peixes maiores. “Os peixes que estão no topo da cadeia alimentar têm maior risco de acumular o mercúrio ao se alimentar de organismos menores contaminados”, explica María Elena. É o caso do tucunaré (Cichla sp.), uma das espécies mais consumidas na região e amplamente comercializada em Belém. “As amostras de tucunaré que avaliamos apresentaram níveis de mercúrio semelhantes aos encontrados em peixes da bacia do rio Tapajós, onde está a maior área de garimpos ativos do Brasil.” Um estudo publicado na revista Science of the Total Environment em 1995 já havia identificado a presença de metilmercúrio em outro peixe na região da hidrelétrica de Tucuruí, a pescada-amazônica (Plagioscion squamosissimus).


Tucuruí é apenas uma das mais de 400 usinas em operação ou em construção atualmente na região amazônica

1

A Eletrobras Eletronorte, administradora da Hidrelétrica de Tucuruí, reconhece a complexidade e a importância da questão. Em nota, a empresa afirma que “promove e apoia estudos que contribuam para um melhor entendimento das origens do mercúrio em ambientes naturais e antropizados [alterados pelo ser humano] da região amazônica, bem como os mecanismos biogeoquímicos que contribuem para sua mobilização, acumulação e transferência entre diferentes compartimentos ambientais”. Também destaca que atualmente desenvolve uma pesquisa sobre o papel

de microrganismos na mobilização e na acumulação de mercúrio no reservatório da usina, em parceria com a UFPA. Riscos estendidos

Episódios de contaminação por mercúrio também ocorrem em outros pontos da Amazônia. É o caso de tribos do estado de Roraima. Em 2016, ao analisar amostras de fios de cabelo de 239 índios dos grupos yanomami e ye’kuana, de 19 aldeias, pesquisadores da Escola Nacional de Saúde Pública da Fundação Oswaldo Cruz (Fiocruz) verificaram que em algumas regiões até 92% dos indígenas

fotos 1 Sócrates Arantes / Eletronorte 2 eduardo cesar

2

apresentavam contaminação por mercúrio. Nesse caso, no entanto, o metal fora liberado no ambiente pela atividade garimpeira. “As crianças e mulheres em idade reprodutiva foram as mais afetadas”, explica o médico Paulo Cesar Basta, coordenador do estudo da Fiocruz. Para ele, é importante estabelecer um plano de monitoramento ambiental para identificar as possíveis fontes de exposição ao mercúrio na Amazônia, que parecem extrapolar a atividade garimpeira. Mais de 400 hidrelétricas estão em operação ou em construção na região, sobretudo na bacia do Tapajós. “Outra estratégia seria aprofundar as análises dos corpos d’água na região e montar um mapa de risco de contaminação que pudesse ser usado para orientar as populações locais”, sugere. “Estamos falando de comunidades isoladas e pobres que dependem da pesca para sobreviver”, destaca María Elena. “Muitos sequer sabem que estão se contaminando.” n Artigos científicos

Peixes como o tucunaré acumulam metilmercúrio ao ingerir outros organismos contaminados

ARRIFANO, G. P. F. et al. Large-scale projects in the amazon and human exposure to mercury: The casestudy of the Tucuruí Dam. Ecotoxicology and Environmental Safety. v. 147, p. 299-305. jan. 2018. Forsberg, B. R. et al. The potential impact of new Andean dams on Amazon fluvial ecosystems. PLOS ONE. v. 12, n. 8, p. 1-35. ago. 2017.

pESQUISA FAPESP 265  z  63


Entrevista benedito braga y

Um direito fundamental Presidente do Conselho Mundial da Água conta o que espera do fórum que acontece em Brasília este mês

Maria Guimarães

E

ngenheiro e professor da Escola Politécnica da Universidade de São Paulo (Poli-USP), Benedito Braga tem se concentrado em estender o saber técnico para além das fronteiras acadêmicas. Como presidente, desde 2012, do Conselho Mundial da Água, ele está por trás do Fórum Mundial da Água, realizado em Brasília, de 19 a 23 de março, pelo Governo Federal e do Distrito Federal. Esta oitava edição é a primeira no hemisfério Sul e a segunda nas Américas – em 2006 foi no México. Na Secretaria de Saneamento e Recursos Hídricos, na capital paulista, Braga – que é secretário de Estado – salientou a importância de a água ser reconhecida como uma questão estratégica central. É, afinal, um direito de todas as pessoas, conforme determinado pela Organização das Nações Unidas (ONU). O que espera do Fórum Mundial da Água? O fórum inclui um Processo Temático, em que se discute os temas relevantes do ponto de vista técnico; um Processo Político, que envolve desde prefeitos até 64  z  março DE 2018

O engenheiro em sua sala na Secretaria de Saneamento e Recursos Hídricos, na região central de São Paulo

chefes de Estado; um Processo Regional, entendendo que é necessário levar em conta situações de cada continente. No Brasil também se criou um grupo para discutir sustentabilidade. Essa é a estrutura do fórum, que quer olhar questões reais como o saneamento, o tratamento dos esgotos, o acesso à água potável, sua gestão urbana e a segurança hídrica em vista das mudanças climáticas. Também tratará do financiamento das obras que possibilitem que todos tenham acesso à água potável, além de aumentar a resiliência às mudanças climáticas por meio da construção de reservatórios e barragens. Sem esquecer de como os ecossistemas e a biodiversidade são afetados. Como se garante um encontro efetivo entre técnicos, políticos e sociedade? As questões levantadas nos processos Temático, Regional e de Sustentabilidade são sintetizadas em cartas de compromisso. Tudo isso flui para o Processo Político, onde se discute uma declaração indicando o que a classe política pretende nos temas relacionados à água.

Há maneira de avaliar o sucesso de edições anteriores do fórum? Um dos objetivos é aumentar a consciência da classe política em relação à água. No início dos fóruns, em Marrakesh, em 1997, 400 pessoas participaram. No mais recente, na Coreia [2015], tivemos 40 mil pessoas envolvidas. Chefes de Estado foram à Coreia e também à França [2012]. Imagino que reflita a motivação da classe política em relação aos temas da água. Do ponto de vista técnico, há questões ou propostas principais? Esperamos formas de financiamento inovadoras para resolver o problema da infraestrutura hídrica. No âmbito das mudanças climáticas, imaginamos propostas de que nas próximas COPs [Conferências das Partes] a água tenha destaque e que venham recomendações de nos preocuparmos mais com a adaptação do que com a mitigação, na área de energia. Precisamos nos tornar mais resilientes à situação atual. Como o fórum é aberto a novas ideias, não sabemos o que vai surgir. Esperamos que essa dis-


tamento de água e esgoto. Não vejo como seja possível privatizar um aquífero. Uma fábrica pode furar um poço e ter acesso à água, mas o uso é regulamentado – no estado de São Paulo, pelo Departamento de Águas e Energia Elétrica. Como você vê a mobilização em torno de um Fórum Alternativo? Também aconteceu em Marselha, na França. São pessoas que têm uma ideologia e querem promover determinados pontos de vista. Em Brasília, o mote será “Água não é mercadoria”. Ou seja, fala da privatização da água, isso que digo não ser possível. Aparentemente eles são contra o envolvimento do setor privado nas concessões dos serviços de água e saneamento. Nós não temos posições contra ou a favor, muito pelo contrário: cada um levanta seu ponto e surgem debates.

Léo ramos chaves

cussão floresça na gestão urbana da água, enchentes, resíduos sólidos, habitação. A água perpassa todos esses setores. E a energia? O funcionamento das hidrelétricas depende de água. A água não entra na geração de energia só como hidrelétrica, mas também na refrigeração de outros sistemas. Um dos painéis de alto nível, por exemplo, vai discutir o nexo entre água, energia e alimentação: como esse processo se desenvolve no nível da bacia hidrográfica, minimizando os conflitos de uso. O tema principal do fórum é “Compartilhando água”. Existem mais de 260 bacias hidrográficas compartilhadas por dois ou mais países. Como se faz essa gestão da água que flui além das fronteiras geopolíticas, como se pode compatibilizar a soberania nacional com o compartilhamento de água? Evidentemente cada Estado pode fazer o que bem entender em seu território, mas as ações necessariamente impactam os países rio abaixo. O Brasil tem a bacia amazônica, em que estamos águas abaixo, e a bacia do Prata, na qual estamos águas acima.

É preciso muita atenção para não ter um tipo de comportamento aqui e outro lá. É semelhante para aquíferos? Sim, a água subterrânea tem a mesma perspectiva. Existe uma tendência a se fazer mais uso da água subterrânea diante de escassez? A água subterrânea é uma reserva estratégica. No interior do estado de São Paulo, a grande maioria dos municípios usa água dos aquíferos Botucatu e Bauru, que são muito generosos. Mas muitas vezes é mais fácil barrar um riacho e usar a água diretamente; a desvantagem é que é preciso um tratamento mais severo, porque está sujeita a poluição. Existem negociações sobre privatização de aquíferos? Não que eu tenha conhecimento. A ideia da privatização é algo retórico; a água é um bem público, está na Carta Magna. O município concede, para uma autarquia pública ou para uma empresa privada, o direito de explorar o serviço de tra-

O Conselho Mundial da Água não tem posições definidas? O conselho trabalha na linha do fórum, não quer impor posições. Queremos motivar a classe política para a importância da água, mas não temos uma opinião em relação à concessão de serviços de água e saneamento. Tanto público quanto privado está ótimo, o importante é que seja eficiente. Produzimos conhecimento na área de segurança hídrica: damos exemplos de lugares do mundo que fizeram um bom trabalho em aumentar a resiliência às mudanças climáticas, temos publicações sobre que tipos de financiamento podem ser usados para a infraestrutura hídrica, disponíveis no site worldwatercouncil.org. Dá para ser otimista? Acho que sim, estamos muito melhor do que estávamos. O estado de São Paulo, por exemplo, superou em 2014 uma crise hídrica parecida com a atual na Cidade do Cabo, na África do Sul, por meio de planejamento, infraestrutura, obras e serviços que foram postos em lugar. Além disso, a população reduziu o uso em 15%. Estaríamos prontos para outro 2014? Sim, estamos prontos. Espero que não aconteça, evidentemente. Há tomadores de decisão envolvidos nesse processo que já têm a visão de que água é um elemento fundamental para o desenvolvimento do território. n pESQUISA FAPESP 265  z  65


Ecologia y

Entre água e terra A tendência a chuvas mais torrenciais pode alterar o curso dos rios e áreas alagadas do Pantanal

66  z  março DE 2018

C

huvas e enchentes não parecem causar problemas no Pantanal, com extensas áreas alagadas repletas de plantas e animais adaptados à água, como jacarés, tuiuiús, lontras, martins-pescadores, piranhas, cambarás, aguapés, sem falar no gado e nos cavalos. Mas não é bem assim, de acordo com o biólogo Ivan Bergier, da Empresa Brasileira de Pesquisa Agropecuária (Embrapa) Pantanal. “As chuvas de verão estão ficando concentradas em menos dias”, afirma. Isso pode afetar o curso dos rios da planí­cie – que ele qualifica como rebeldes que se espalham quando os diques marginais se rompem. O efeito dessa dinâmica sobre os animais da planície pantaneira ainda está por ser estudado, mas pesquisas já apontam possíveis consequências. Bergier fez um levantamento das chuvas registradas entre 1925 e 2016 e verificou que a quantidade não mostra uma tendência de aumento ou diminuição, conforme artigo publicado neste ano na revista Science of the Total Environment. Apesar


josé sabino / uniderp

da variação de um ano para outro e entre décadas, a média de volume de chuva no verão se mantém um pouco acima de 600 milímetros (mm) ao ano. O problema é que o número médio de dias chuvosos vem diminuindo: cerca de 43 dias, em 1925, para 32, em 2016. A taxa média de precipitação nesses dias, em consequência, passou de 14 mm por dia no início do período estudado para 19 mm por dia ao fim. Isso significa que chuvas cada vez mais torrenciais estão se tornando frequentes e podem arrastar um volume maior de sedimento do planalto (onde estão as cabeceiras dos rios) para a planície e soterrar os cursos d’água que correm em valas rasas formadas por barreiras de sedimento construídas pelos próprios rios. Esses diques marginais naturais correm maior risco de rompimento diante da combinação de sedimentos acumulados e chuvas torrenciais, alagando por longos períodos áreas antes úmidas apenas na estação de cheia. Um exemplo desse processo vem do trabalho do grupo liderado pelo geólogo Mario Assine, do campus de Rio Claro da Universidade

O planalto e a planície estão conectados pelos rios que nascem no alto e descem os morros pESQUISA FAPESP 265  z  67


O curimbatá é uma das espécies que formam cardumes para subir os rios na piracema

Estadual Paulista (Unesp), mostrando que o curso do rio Taquari forma leques fluviais que mudam ao longo do tempo (ver Pesquisa FAPESP nº 227). Entre dezembro e março, quando as chuvas enchem a planície de água, o risco de maiores alagamentos pode inviabilizar a pecuária de corte na região. A quantidade de sedimento carregada pelos rios aumenta com o mau uso do solo nos planaltos, de acordo com ele. O investimento em sistemas agroflorestais, que reinserem as árvores no ambiente do gado, poderia ajudar a mitigar as consequências das grandes chuvas (ver Pesquisa FAPESP nº 192). Bergier avisa que as estiagens de inverno podem ficar mais longas, entrecortadas por pés d’água. Água que vem de longe

No estudo publicado este ano, Bergier percebeu uma correlação forte entre os aumentos de temperatura e as maiores taxas de precipitação em dias chuvosos. E a tendência é que fique cada vez mais quente, conforme aponta estudo do grupo do climatologista José Marengo, do Centro de Estudos de Desastres Naturais, publicado em 2016 como capítulo do livro Dynamics of the Pantanal wetland in South America, editado por 68  z  março DE 2018

Chuvas cada vez mais torrenciais estão se tornando frequentes e podem arrastar sedimento do planalto

Bergier e Assine. A estimativa, baseada em modelos climáticos globais do Painel Intergovernamental sobre Mudanças Climáticas (IPCC) de 2014, indica que as temperaturas médias do Pantanal podem aumentar entre 2 graus Celsius (°C) e 3 °C até 2040, e 6 °C até o fim do século. “Em 2016 ainda não havia sido estabelecida a conexão entre as chuvas do Pantanal e a Amazônia”, alerta Bergier. Ele explica que, longe de ser um fenômeno local, o aumento das chuvas torrenciais – como foi observado nos anos 1970 e 1980 – está associado a mudanças de circulação atmosférica, em parte induzidas pelo aumento da temperatura média do planeta. Os resultados indicam que boa parte da água que cai no Pantanal vem da Amazônia e está, portanto, sujeita às mudanças que acontecem na grande floresta. “O ‘lago voador’ que

decola da Amazônia cai com mais vigor no Pantanal quando os ventos são mais lentos”, explica. “Quando a velocidade de transporte de umidade pela atmosfera é maior, as chuvas tendem a acontecer mais ao sul do continente sul-americano.” As observações e estudos reforçam, assim, que o desmatamento e as secas na Amazônia diminuem o volume de água precipitável exportada para outras regiões (ver Pesquisa FAPESP nº 226). Os rios não estão para peixe

As consequências dessa mudança sobre a vida no Pantanal, o bioma brasileiro considerado mais preservado, com cerca de 80% da vegetação original na planície, ainda não estão medidas. O biólogo José Sabino, da Universidade Uniderp, em Campo Grande, Mato Grosso do Sul, tem observado os peixes. “No ano passa-


fotos  josé sabino / uniderp

Epudand aeceat alitaturiae doluptas inverrum erferit atest, quia parchil lestrum quias aliqui occullabo poratur si

do presenciei duas vezes, no rio Miranda, manchas ao longo de 1 quilômetro [km] em que o rio parecia ferver”, conta. “Eram milhares de peixes parados, sem conseguir avançar, como em um grande congestionamento.” Um temporal fora de hora tinha dado o sinal equivocado para a piracema, como são chamadas as migrações reprodutivas nas quais os peixes podem percorrer 300 km até as cabeceiras dos rios, onde desovam. Estimulados pelas chuvas fortes, todos os anos dourados, piraputangas, curimbatás, piaus e outros peixes migradores iniciam essa viagem. Com chuvas regulares, encontram rios cheios que permitem o trajeto. Uma vez no planalto acontece a reprodução, em seguida os peixes voltam a descer os rios. “A planície e a cabeceira têm que estar conectadas”, conclui.

Acontece que, com o assoreamento dos rios causado pelo transporte excessivo de sedimento nas chuvas torrenciais, isso não é garantido. E os problemas não acabam aí. “O sedimento fino é devastador, permeia rios e ocupa espaços onde pequenos invertebrados, larvas de insetos e camarõezinhos estão”, explica Sabino. Sem esses invertebrados, muitos peixes ficam sem o seu cardápio habitual. “É como cimentar o quintal: gera um ambiente adverso para a biota.” De acordo com o pesquisador, não existem registros de eventos climáticos extremos do passado associados às migrações nem dados sistemáticos que mostrem como isso pode influenciar a periodicidade da piracema. Na região, flutuações naturais se somam a fenômenos acelerados por modificações humanas e pelas mudanças climáticas. Nos últimos 30 anos, o bió-

Banhado do Formoso: mata ciliar ajuda a reter o solo

logo Guilherme Mourão, da Embrapa Pantanal, tem monitorado a fauna pantaneira, principalmente na região repleta de lagoas conhecida como Nhecolândia, próximo ao município de Corumbá (ver Pesquisa FAPESP nº 261). Ele começou com peixes, mas verificou que alterações nas áreas inundadas afetam um leque amplo de espécies. Uma delas é das mais emblemáticas, o tuiuiú (Jabiru mycteria). Mourão e colaboradores usaram contagens de seus ninhos, feitas durante levantamentos aéreos entre 1991 e 2004, para desenvolver um modelo matemático relacionando pESQUISA FAPESP 265  z  69


o número de ninhos e a extensão das inundações. Os resultados, publicados em 2010 na revista Zoologia, indicaram que em períodos secos, como a estiagem entre 1960 e 1974 no Pantanal, a população dessas aves sofreu uma queda dramática, com cerca de 220 ninhos por ano estimados para a região, comparado aos 12.400, em média, dos períodos de enchentes medianas. Ele também relata o quase sumiço dos jacarés e capivaras das lagoas da fazenda Nhumirim, na Nhecolândia, durante esta última década, mais seca. Ao mesmo tempo, surgiram animais terrestres que não eram comuns ali, como o veado-campeiro. De dois anos para cá os rios temporários – ou corixos – tornaram a receber água e as lagoas a encher. “Vamos ver se os animais mais ligados às áreas alagadas vão voltar”, diz Mourão. Este ano tem se mostrado especialmente chuvoso. Vida em terra

Na interface entre ambiente aquático e terrestre é grande a importância das matas ciliares, ao longo dos rios, que ajudam a fixar o sedimento e fornecem parte do

alimento consumido por peixes, como frutos derrubados por macacos. Em uma área em que turismo ligado à natureza e agropecuária estão lado a lado na atividade econômica, não se deve descuidar de boas práticas de uso do solo. A vegetação, no entanto, vem sendo perdida, segundo aponta artigo publicado este ano pela engenheira ambiental Ciomara Miranda, do Instituto Federal de Mato Grosso do Sul, em Aquidauana. Ela examinou imagens de satélite obtidas em 2000, 2008 e 2015, sempre em agosto, durante a estação seca, abarcando todos os quase 140 mil km2 do Pantanal brasileiro. Ao longo desses anos, a cobertura rasteira aumentou de 58% para 72% da área do Pantanal, enquanto a vegetação densa encolheu de 37% para 21%. Essa mudança reflete o desmatamento e a substituição da floresta por pastos, que ampliam a prática da pecuária já tradicional na região há três séculos. Se a tendência se mantiver, a previsão é de que em 2030 cerca de 78% do Pantanal seja coberto por plantas rasteiras e a floresta densa resista em apenas 14% da extensão.

O tuiuiú, ave emblemática do Pantanal, depende de áreas alagadas para viver

2

No verão, época das chuvas, os campos ficam inundados por alguns meses 70  z  março DE 2018


A previsão é de que em 2030 cerca de 78% do Pantanal seja coberto por plantas rasteiras

1

fotos 1 joão alexandrino / unifesp 2 josé sabino / uniderp  3 nina attias / instituto de conservação de animais silvestres

3

Habitante frequente da planície, o tatu-peba evita sair quando está muito calor

Mudanças como essas são problemáticas para algumas espécies nativas dali, como os tatus. A bióloga Nina Attias, durante o doutorado na Universidade Federal de Mato Grosso do Sul em parceria com a Embrapa Pantanal, examinou o uso do espaço por duas espécies – o tatu-peba (Euphractus sexcintus) e o tatu-bola (Tolypeutes matacus) – em três áreas do Pantanal. O primeiro pesa cerca de 4 quilogramas (kg) e regula a atividade conforme a temperatura. Seja noite ou dia, ele se entoca quando a temperatura sobe e espera algum frescor para sair. O segundo, com seu singelo 1 kg protegido pelo recurso de transformar-se em uma bola como de futebol de salão, prefere a noite para se mover discretamente e se recolhe quando está muito frio, saindo da toca mais cedo quando necessário. Nina mostrou que as duas espécies têm algo em comum: a necessidade de transitar entre vegetação aberta e fechada, já que os tatus têm uma capacidade limitada de regular a temperatura do corpo. O ambiente contribui, então, para a necessidade de se manter em temperaturas adequadas. “Se os animais não conseguem escolher o hábitat, têm que ajustar o horário de atividade”, explica. E se a extensão de tempo em que é possível permanecer ativo for muito reduzida, fica difícil conseguir alimento suficiente e até dedicar-se à reprodução. “Isso põe a população em risco”, alerta Nina, prestes a publicar esses resultados de sua tese na revista Animal Behaviour. Além de precisar da floresta, o tatu-bola, que não sabe nadar, também é sensível a mudanças no padrão de inundação e de largura dos rios. De acordo com Nina, essa espécie pode ter desaparecido da Nhecolândia durante as grandes cheias depois de 1974 e na década seguinte. “O que estamos vendo para os tatus deverá ser verdade para outros mamíferos quando houver eventos mais extremos do clima”, prevê. “Os animais precisam de todos os microclimas para garantir a mobilidade e a atividade.” n Maria Guimarães

Projeto Mudanças paleo-hidrológicas, cronologia de eventos e dinâmica sedimentar no quaternário da bacia do Pantanal (no 14/06889-2); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Mario Luis Assine (Unesp); Investimento R$ 253.715,39. Os artigos consultados para esta reportagem estão listados na versão on-line.

pESQUISA FAPESP 265  z  71


Entrevista William Bialek y

Entre vivos e inanimados Pesquisador de Princeton fala dos desafios de empregar a abordagem quantitativa da física em sistemas biológicos Victória Flório

É

possível usar a mesma teoria para o estudo de sistemas físicos, relativos a objetos inanimados, e de sistemas biológicos, que contemplam formas de vida tão distintas como os embriões humanos e as plantas? Esse é o tipo de questão que interessa ao norte-americano William Bialek, professor de física e membro do Instituto Lewis-Sigler, da Universidade de Princeton, nos Estados Unidos. Bialek esteve em São Paulo no final de janeiro para dar um minicurso sobre o emprego da física em sistemas biológicos durante a School on Physics Applications in Biology, evento promovido pelo Centro Internacional de Física Teórica/Instituto Sul-americano para Pesquisa Fundamental (ICTP/ SAIFR) e o Instituto de Física Teórica (IFT) da Universidade Estadual Paulista (Unesp). Nesta entrevista, o pesquisador, que publicou em 2012 o livro Biophysics: Searching for principles (sem edição em português), fala das dificuldades de empregar experimentos quantitativos e leis físicas para explicar o funcionamento de sistemas biológicos complexos. 72  z  março DE 2018

Você estuda quais questões da biofísica? A grande questão sempre foi, para mim, trabalhar com a tensão que existe entre tentar estabelecer os princípios gerais dos sistemas biológicos e prestar atenção nos detalhes dos casos particulares que ocorrem dentro da biologia. Uma das lições da física é que fenômenos qualitativamente surpreendentes são abundantes no mundo vivo e têm profundas explicações teóricas. Mas os sistemas biológicos em que ocorrem esses fenômenos são complexos e essas complicações vão contra a busca dos físicos pela simplicidade. Temos modelos detalhados e quantitativos de muitos sistemas biológicos, mas a física é mais do que uma coleção dessas histórias isoladas: temos princípios gerais a partir dos quais podemos derivar o comportamento de determinados sistemas. Podemos fazer isso no contexto mais complexo dos sistemas vivos? Como e por que a física que descreve a matéria inanimada pode ser usada para caracterizar sistemas vivos? As leis da física funcionam tanto para o

Bialek afirma que os fenômenos do mundo vivo são suscetíveis aos experimentos quantificativos da física


Léo ramos chaves

átomo como para a Lua. Acho que isso é parte da resposta. Na física, não há força motriz que faça com que o hélio superfluido se arraste pelas paredes e escape de um contêiner. Esse fenômeno emerge das interações entre átomos de hélio, que, em outros contextos, fazem coisas muito menos surpreendentes. Da mesma forma, há algo que distingue os sistemas inanimados dos sistemas vivos. Mas hoje não acreditamos mais em alguma “força vital” que anime coisas inertes. Os físicos que estudam os fenômenos da vida não estão procurando uma nova força da natureza. Eles querem entender como esses fenômenos surpreendentes emergem de forças conhecidas. A seu ver, quais são as limitações dos experimentos feitos em sistemas biológicos? Havia uma forte impressão de que os ex-

perimentos em sistemas biológicos seriam sempre caóticos e irreprodutíveis e não poderiam ser quantificáveis. Usar uma abordagem quantitativa seria, então, na melhor das hipóteses, estimar probabilidades e coletar evidências contra ou a favor de hipóteses particulares. Mas, cada vez mais, os fenômenos que vemos no mundo vivo estão se tornando suscetíveis aos experimentos quantitativos que fazem parte da tradição da física. Esses experimentos levaram à descoberta de que muitos fenômenos biológicos são bastante surpreendentes, não apenas em termos qualitativos mas também quantitativos. Eles têm revelado que os sistemas biológicos podem apresentar comportamentos muito precisos. Esses desenvolvimentos estão ocorrendo em todas as escalas, desde uma única molécula até grandes populações de organismos. Tudo

isso significa que devemos exigir mais de nossas teorias, devemos procurar pelas comparações detalhadas e quantitativas entre teoria e experiência, que são características da física em geral. Esse cenário é muito diferente de quando eu era jovem e é muito entusiasmante. Quais são os desafios para quem estuda a interface entre a física e os sistemas biológicos? As disciplinas acadêmicas se definem por seus objetos de estudo ou por seu estilo de fazer perguntas. Um biólogo está interessado naquilo que está vivo; os físicos se orgulham de “pensar como um físico”. Em física, tentamos ensinar princípios e derivar previsões para casos particulares. Em biologia, o ensino se baseia no estudo de casos. A biofísica ainda não é um campo maduro e é mais difícil pESQUISA FAPESP 265  z  73


Como estudar efeitos quânticos em sistemas vivos? Às vezes, cometemos erros ao tentar usar a mecânica quântica na descrição de sistemas biológicos. Muitos anos atrás pensei ter encontrado evidências de que as células de nossos ouvidos poderiam realizar medições limitadas pela física quântica, mas, no fim, estava errado. Aprendi o quão difícil é esse problema. Ainda tenho esperança de que efeitos quânticos sejam mais importantes em sistemas biológicos, mas sou cauteloso. A observação desses efeitos quânticos em um sistema biológico sempre provoca excitação. Mas, para ver efeitos como o tunelamento [em que uma partícula pode atravessar barreiras intransponíveis para a física clássica], é preciso atingir temperaturas muito baixas. Isso não é algo que se observe nos sistemas biológicos do cotidiano. Mas fenômenos quânticos, como a coerência [quando um sistema está simultaneamente em uma sobreposição de estados], podem ocorrer nos momentos iniciais da fotossíntese e quando moléculas biológicas interagem com a luz, como nos primeiros passos da visão. Mas não há

74  z  março DE 2018

Em física, ensinamos princípios e derivamos previsões para casos particulares. Em biologia, o ensino se baseia em casos

evidências de que a coerência quântica possa ocorrer em escala macroscópica.

com tantas outras variáveis que não podemos acompanhá-las de uma só vez. Há remanescentes de comportamento quântico na aleatoriedade de certos fenômenos, como o decaimento radioativo. Quando a matéria absorve a luz, as etapas elementares são aleatórias. Isso é assim por causa da mecânica quântica. Você tem estudado algum tema mais específico da biofísica? Existem limites físicos para a sensação e a percepção. Olhos, ouvidos e outros sentidos enviam sinais para o cérebro. Gostaria de descobrir quais são os sinais menos intensos que podem ser percebidos pelo cérebro, tendo como base os limites físicos dos dispositivos de medição sensorial. Em que medida nossos sistemas sensoriais, que, afinal, são dispositivos de medição, atingem os limites impostos pelas leis da física? A ideia de que os limites da percepção são definidos por princípios físicos fundamentais é muito atraente. Usamos essas mesmas ideias para estudar como as células “sentem” os sinais internos.

Existe algum tipo de fenômeno quântico Quais seriam as implicações cognitivas que seja observado tanto em sistemas de fenômenos como a internet? biológicos macroscópicos como nos mi- Parece que sempre pensamos que nosso tempo é especial. Mas as pessoas sempre croscópicos? Os efeitos realmente profundos e belos da se preocuparam com o fato de que os coerência quântica são difíceis de ver em desenvolvimentos tecnológicos mudam as coisas de um jeito que uma escala macro porque envolve perdas e ganhos. as variáveis que estamos Para Bialek, fenômenos A invenção da prensa de observando interagem quânticos podem tipos móveis certamente ocorrer quando células, causou alguma perda da como as da visão, tradição oral: o contador interagem com a luz de histórias local tornou-se obsoleto. Agora podemos ter acesso à história sem sequer imprimir um livro porque podemos “dar um google”. Não precisamos mais lembrar e transmitir as histórias, embora essa ainda seja uma atividade muito humana. Não precisamos ter informação em nossa memória. Em vez disso, transferimos parte de nosso processo de pensamento e de memórias para nossos computadores e celulares. Isso não é algo exatamente ruim, na verdade. Hoje em dia, mais pessoas têm acesso a essas coisas, a informações que eram uma vez muito exclusivas. Ainda não podemos entender as implicações cognitivas, uma vez que os efeitos só poderão ser observados em meus netos. n

PASIEKA /SPL RF / Latinstock

superar a história de duas disciplinas ao mesmo tempo. É muito mais complicado estudar conjuntamente física e biologia do que apenas uma das duas. Como estimular os estudantes a ter ideias próprias e fazer suas perguntas quando eles têm que lidar com idiossincrasias de duas disciplinas institucionalizadas?


Física y

O desenho mostra um filtro com quatro camadas de óxido de grafeno, que separa as moléculas de água (●) das de álcool (●). “Buracos” entre as membranas atraem quimicamente as moléculas de água, que deixam as de álcool para trás

Um filtro diferente “Buracos interligados” em membranas de óxido de grafeno ajudam a separar a água do álcool

BORGES, D. D. et al. carbon. 2018

S

imulações computacionais feitas por um grupo de físicos das universidades Estadual de Campinas (Unicamp) e Federal do ABC (UFABC) forneceram uma explicação para uma propriedade singular de membranas feitas de óxido de grafeno, folhas de estrutura hexagonal formadas majoritariamente por átomos de carbono e um pequeno número de átomos de oxigênio e de hidrogênio. Tão finas quanto um átomo, quando empilhadas umas sobre as outras, essas membranas formam uma estrutura capaz de atuar como um filtro para separar os constituintes de uma solução homogênea – mistura de dois ou mais líquidos cujos componentes não são mais distinguíveis a olho nu. A mistura estudada pelos pesquisadores incluía 50% de água e 50% de álcool (etanol ou metanol). As membranas de óxido de grafeno deixavam passar a água e retinham o álcool. Segundo o modelo teórico proposto pelos físicos, essa particularidade se deve à formação de “buracos interligados” entre as membranas pelos quais as moléculas de água passam todas juntas, deixando para trás as de álcool. O funcionamento desse labirinto molecular que atrai apenas a água foi descrito em um trabalho publicado em fevereiro na revista científica Carbon. As propriedades de filtragem das membranas de óxido de grafeno são bastante conhecidas experimentalmente. “Mas agora conseguimos descrever de forma mais abrangente e detalhada o que ocorre nesse processo”, explica o físico Douglas

● Água  ● Álcool  ● ●

Galvão, da Unicamp, um dos autores do trabalho. Não se trata de uma filtragem mecânica em que moléculas de certo tamanho passam pela malha do grafeno enquanto outras, maiores, ficam retidas. É um mecanismo que envolve atração química. “As membranas de óxido de grafeno incham e apresentam maior espaçamento entre os seus planos. Assim, formam-se canais bidimensionais que induzem a passagem da água”, diz Pedro Autreto, da UFABC, outro autor do estudo. Dentro desses labirintos bidimensionais, a presença dos átomos de oxigênio nas folhas de grafeno faz os átomos de hidrogênio das moléculas de água formarem pontes ou ligações de hidrogênio. Mal comparando, é como se apenas as moléculas de água dessem as mãos para sair do labirinto formado pelas membranas de óxido de grafeno. A eficiência do processo depende do grau de oxidação das membranas. “Quando o grafeno é puro, formado apenas por átomos de carbono, mas sem oxigênio, ocorre uma inversão na seletividade da membrana”, comenta a física Daiane Damasceno Borges, que faz estágio de pós-doutorado na Unicamp e participou do trabalho. “Nes-

Óxido de grafeno

se caso, passam pelo filtro as moléculas de álcool ao invés das de água”, complementa Cristiano Woellner, também pós-doutorando da Unicamp. Apesar do caráter teórico, o trabalho pode ser útil para a criação de novos tipos de filtros, mais eficientes e ba­ratos. “Simulações como essas permitem um grande controle de variáveis e podem guiar o desenvolvimento de biocombustíveis, nos quais é preciso separar o etanol da água”, comenta o físico Leandro Seixas, do Centro de Pesquisas Avançadas em Grafeno, Nanomateriais e Nanotecnologias (MackGraphe), da Universidade Presbiteriana Mackenzie, que não participou do estudo. n Victória Flório

Projeto Centro de Engenharia e Ciências Computacionais – Cecc (nº 13/08293-7); Modalidade Programa Centros de Pesquisa, Inovação e Difusão (Cepid); Pesquisador responsável Munir Salomão Skaf (Unicamp); Investimento R$ 18.478.546,78 (para todo o projeto).

Artigo científico BORGES, D. D. et al. Insights on the mechanism of water-alcohol separation in multilayer graphene oxide membranes: Entropic versus enthalpic factors. Carbon. v. 127, p. 280-6. fev. 2018.

pESQUISA FAPESP 265  z  75


Cosmologia y

Busca incessante Experimentos internacionais começam a procurar partículas cada vez mais leves na esperança de encontrar a matéria escura Marcos Pivetta

76  z  março DE 2018

A

busca pela natureza da matéria escura, misterioso componente do Universo, cujo efeito gravitacional seria responsável por manter a configuração das galáxias e dos aglomerados de galáxias, tem produzido resultados inconclusivos nas últimas três décadas. Vários tipos de estruturas ou partículas, algumas conhecidas, como buracos negros primordiais ou neutrinos, e outras de caráter teórico já foram apontadas como candidatas a serem o bloco constituinte da matéria escura, que representa cerca de um quarto da composição de todo o Cosmo. Nenhuma delas, no entanto, passou até agora da condição de postulante. Atualmente a proposta com mais defensores e a mais testada em uma dezena de experimentos internacionais é das Wimps. Essa sigla, em inglês, é usada para designar hipotéticas partículas de massa elevada, entre uma e milhares de vezes maior do que a do próton, que teriam sido criadas nos primórdios do Universo e interagiriam

fracamente entre si e com a matéria normal. Como ninguém sabe exatamente quão pesadas seriam as Wimps, os experimentos procuram novas partículas em diferentes faixas de massa. Cada vez que a existência de Wimps com determinadas características é descartada, a margem de procura por esse tipo de partícula se torna mais estreita. Um estudo concebido pela equipe da física Ivone Albuquerque, do Instituto de Física da Universidade de São Paulo (IF-USP), acaba de restringir um pouco mais o intervalo de massa possível das Wimps. Realizado com dados referentes a 530 dias de observação efetuados pela colaboração internacional DarkSide-50, que opera um detector subterrâneo no Laboratório Nacional Gran Sasso, no centro da Itália, o trabalho não registrou evidências da existência de partículas com massas entre 1,8 e 6 gigaelétrons-volt (GeV), cuja frequência de interação com o equipamento é bem definida. A título de comparação, a massa


Kilo-Degree Survey Collaboration / H. Hildebrandt & B. Giblin / ESO

Imagem composta de um trecho do Universo de tamanho equivalente ao de 420 luas cheias em que a matéria escura (rosa/roxo) aparece ao redor da matéria normal (amarelo). O fundo negro seriam áreas vazias

de um próton é, grosso modo, de quase 1 GeV. Entre os experimentos que buscam por Wimps, como o Large Underground Xenon (Lux) e o Cryogenic Dark Matter Search (CDMS), ambos nos Estados Unidos, apenas o Xenon100 também procurou partículas com as mesmas características das buscadas pelo DarkSide-50. Ainda assim, os dados desse experimento são bem mais abrangentes que os do Xenon100, segundo Ivone. “Foi um resultado surpreendente”, comenta a física, que coordena a participação brasileira na colaboração internacional, que reúne cerca de 150 pesquisadores de oito países. “Nosso detector do DarkSide-50, que fica na Itália, ainda é pequeno e não foi pensado para registrar partículas tão leves. Normalmente estamos procurando por Wimps com massas entre 10 e 100 GeV.” Os resultados foram detalhados em um trabalho publicado pela colaboração internacional em 20 de fevereiro no arXiv, repositório de artigos científicos, e apresentados em um encontro interna-

cional sobre matéria escura realizado na Universidade da Califórnia em Los Angeles (Ucla). A matéria escura responderia por cerca de 25% da composição do Universo – 5% seriam formados pela matéria normal visível, também denominada bariônica, e aproximadamente 70% pela energia escura. A maioria dos físicos atribui à sua existência o papel de manter a coesão das galáxias. Essas estruturas do Universo giram a uma velocidade tão elevada que, se fossem compostas apenas pela matéria normal, teriam se despedaçado muito tempo atrás. Somente a gravidade gerada pela parte visível do Cosmo não é suficiente para manter unidas as galáxias. Logo, é necessário que exista alguma forma de matéria que não interaja com a luz e que tenha um efeito gravitacional muito maior que o da parte visível dos conjuntos de galáxias. Essa forma ganhou o nome genérico de matéria escura. “As partículas de matéria escura passam por nós”, supõe a física

argentina Graciela Gelmini, da Ucla, que estuda candidatos à matéria escura. “Elas se moveriam por todos lados da galáxia a velocidades de 300 quilômetros por segundo (k/s).” A velocidade com que a matéria escura estaria se movendo elimina algumas possibilidades e restringe os tipos de partículas que poderiam constituí-la. A maioria dos modelos cosmológicos prevê que a matéria escura deve ser fria, talvez morna. “A existência de matéria escura quente foi descartada por observações cosmológicas”, explica o físico Rogério Rosenfeld, do Instituto de Física Teórica da Universidade Estadual Paulista (IFT-Unesp). O conceito de matéria escura fria ou quente está associado à velocidade dessas misteriosas partículas. A matéria escura quente se movimentaria a velocidades relativísticas, próximas à da luz, de cerca de 300 mil k/s, enquanto a fria se deslocaria a uma velocidade muito menor. “Mas, se a matéria escura se deslocasse a velocidades relativíspESQUISA FAPESP 265  z  77


Em 1998, um grupo italiano anunciou ter encontrado a matéria escura, mas a descoberta nunca foi confirmada

Detector do experimento DarkSide-50, na Itália, que procura partículas do tipo Wimp

1

78  z  março DE 2018

“Os dados reforçam a ideia de que a matéria escura é fria.” O levantamento mapeou imagens de 26 milhões de galáxias visíveis no hemisfério Sul, em torno das quais há halos de matéria escura. Os dados observacionais do Cosmo não visam identificar possíveis partículas que possam ser constituintes da matéria escura, mas fornecem alguns parâmetros importantes para orientar essa busca. Segundo Rosenfeld, estudos recentes sugerem que a menor massa possível da matéria escura morna compatível com a distribuição conhecida de matéria visível no Cosmo seria cerca de um milhão de vezes menor do que a do próton, da ordem de 5 mil elétrons-volt (eV). As Wimps não poderiam ser tão leves assim, mas os neutrinos estéreis, um tipo hipotético de partícula elementar, poderiam ter massas tão pequenas. O problema é que também não há indícios da existência desse tipo de neutrinos. A procura pela essência da matéria escura se concentra então praticamente na busca por Wimps. INTERAÇÃO COM DUAS FORÇAS

Os modelos cosmológicos dominantes preveem que, se as Wimps forem os constituintes da matéria escura, a massa dessas partículas seria equivalente à de pelo menos 100 prótons. O problema é que os físicos procuram há mais de 20 anos por partículas em torno dessa faixa de massa e não encontraram nada. Mais recentemente alguns modelos passaram a considerar a possibilidade de que a matéria escura poderia ser constituída de Wimps com massas mais leves, de menos de 10 GeV. Alguns experimentos, como o DarkSide-50, que foi concebido para tentar descobrir Wimps com massas acima de 10 GeV, começaram então a buscar partículas que pudessem se encaixar nessa definição. As teorias mais aceitas sobre as Wimps preveem que essas partículas devem interagir entre si e com a matéria normal por meio de apenas duas das quatro forças da física: a gravidade e a força nuclear fraca (ligada a processos de decaimento do núcleo atômico). Elas não sentiriam nenhum efeito do eletromagnetismo e da força nuclear forte. Em operação desde 2013, o DarkSide-50 conta com um detector composto por uma câmara que abriga 50 quilos de argônio líquido. Ao lado do xenônio e, às vezes, do germânio, esse elemento é um

fotos 1 A. Brigatti / INFN-MI 2 Dag Larsen / IceCube / NSF   3 Carlos H. Faham

ticas, a matéria bariônica não teria se unido e originado a distribuição de galáxias e de aglomerados de galáxias que conhecemos”, comenta Rosenfeld, que participa do Dark Energy Survey (DES), levantamento internacional que mapeia as estruturas visíveis do Universo, como galáxias e estrelas. Em janeiro deste ano, um grupo de pesquisadores do DES publicou na versão on-line do periódico científico Monthly Notices of the Royal Astronomical Society o maior mapa da ocorrência da matéria com o emprego da técnica de lentes gravitacionais fracas. Esse método permite inferir a presença da matéria escura por meio de uma pequena distorção que ela causa na trajetória da luz de galáxias distantes. “Vimos a deformação causada nas imagens desses objetos”, detalha a física Flávia Sobreira, da Universidade Estadual de Campinas (Unicamp), que participa do DES e é uma das autoras do trabalho.


O observatório IceCube, perto do polo Sul, estuda possíveis interações entre Wimps e neutrinos

dos mais empregados em experimentos subterrâneos na busca por Wimps. O equipamento seria capaz de detectar os flashes de luz produzidos pelos choques das partículas de matéria com o núcleo desses elementos. “O xenônio é mais usado, mas o argônio custa 400 vezes menos e possibilita construir detectores mais baratos”, comenta Ivone. Até 2021, o projeto DarkSide, que é coordenado pelo Instituto Nacional de Física Nuclear da Itália e pela Universidade de Princeton, nos Estados Unidos, planeja instalar um novo detector, mais potente, contendo 20 toneladas de argônio. A opção por instalar esses equipamentos embaixo da terra é uma forma de evitar que sinais associados à matéria escura sejam confundidos com contaminações vindas do espaço ou da atmosfera. Apenas em um lugar do mundo, cerca de 1.400 metros abaixo das montanhas do Gran Sasso, na Itália, há seis experimentos independentes de grupos diferentes que buscam partículas candidatas à matéria escura: Xenon100, Sabre, Dama, Cresst, Cosinus, além do DarkSide. A procura por Wimps também pode ocorrer de forma indireta. Esse é o caso do projeto IceCube, coordenado pela Universidade de Winsconsin-Madison, dos Estados Unidos, e projetado para

2

estudar neutrinos, um tipo de partícula elementar quase sem massa produzido em eventos astronômicos de alta energia. O projeto dispõe de uma rede de detectores subterrâneos espalhados pelo interior de um bloco de 1 quilômetro cúbico de gelo na Antártida, próximo ao polo Sul. O IceCube seria capaz de detectar neutrinos produzidos em possíveis interações de Wimps no Sol. Por ora, como todos os demais experimentos, nada de significativo foi encontrado. Até hoje, o experimento Dama foi o que produziu a notícia mais espetacular sobre a matéria escura. Em 1998, físicos da Universidade de Roma Tor Vergata anunciaram que tinham descoberto uma Wimp, com massa em torno de 10 GeV,

que seria a matéria escura. Os pesquisadores italianos teriam registrado um sinal sazonal, cujo pico máximo apareceria por volta do início de junho, em seu detector baseado em cristais de iodeto de sódio ativados pelo metal tálio, uma tecnologia diferente da empregada na maioria dos experimentos. O sinal oscilaria em razão das características da órbita da Terra, que atravessaria um “vento” de matéria escura, em direções opostas, dependendo da época do ano, enquanto gira em torno do Sol. Ninguém, no entanto, jamais conseguiu reproduzir os resultados do Dama, que, com novos detectores, continua funcionando até hoje. O físico Nelson Carlin Filho, do IF-USP, participa de um experimento sul-coreano, o Cosine-100, que começou a tomar dados em setembro de 2016. A iniciativa usa a mesma tecnologia de detecção do Dama e tentará confirmar ou refutar os resultados do projeto italiano.“Teremos de esperar dois anos para começar a ter os primeiros resultados”, comenta Carlin Filho. n Projetos

Tanque do experimento Lux, que usa detector com xenônio líquido para procurar pela matéria escura

1. Detecção direta de matéria escura e o experimento DarkSide (n. 16/09084-0); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Ivone Albuquerque (USP); Investimento R$ 102.060,36. 2. Procura da matéria escura: Wimps e fótons escuros (n. 17/02952-0); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Nelson Carlin Filho USP); Investimento R$ 155.820,64.

Artigo científico AGNES, P. et al. Low-mass dark matter search with the DarkSide-50 experiment. ArXiv. On-line. 20 fev. 2018.

pESQUISA FAPESP 265  z  79


tecnologia  engenharia aeronáutica y O jato durante um de seus voos de certificação

E190-E2 Capacidade 114 passageiros

Alcance 5.278 quilômetros

Comprimento 36,2 metros

Envergadura 35,1 metros

Início de operação Abril/2018

Um jato mais eficiente Previsto para começar a operar em abril, novo avião da Embraer apresenta desempenho acima do esperado nos testes de certificação Yuri Vasconcelos


fotos  Embraer /divulgação

Detalhes da cauda (acima), turbina (no alto) e trem de pouso (à dir.) dos E-Jets E2: aeronaves são mais econômicas e silenciosas do que as da geração anterior

T

erceira maior fabricante de aviões comerciais do mundo e líder no segmento de aeronaves com até 150 assentos, a Embraer deve entregar em abril deste ano o primeiro modelo de sua nova geração de jatos E-Jets E2. Batizado de E190-E2, o avião vai integrar a frota da norueguesa Widerøe, principal companhia aérea regional da Escandinávia. Com capacidade para 114 passageiros, o jato apresentou uma performance acima da esperada durante a campanha de certificação, etapa que precede o início de sua operação comercial. Os testes em voo mostraram que o novo avião tem maior alcance de voo, emite menos poluentes, é mais econômico e silencioso do que originalmente especificado pela Embraer. O bom desempenho obtido pelo E190-E2 é resultado do trabalho de pesquisa e desenvolvimento (P&D) realizado nos laboratórios da

Embraer, da experiência de seus engenheiros em projetar e desenvolver novas aeronaves e de parcerias realizadas com pesquisadores de universidades. “Nos últimos 17 anos nenhuma indústria aeronáutica desenvolveu tantos aviões como nós”, conta Rodrigo Silva e Souza, vice-presidente de Marketing da Embraer Aviação Comercial. “Nesse período, criamos a primeira geração de E-Jets para aviação comercial, vários modelos dos jatos executivos, como os Phenom e os Legacy, o cargueiro KC-390 para a área de defesa e, finalmente, os E2.” De acordo com a Embraer, o E190-E2 chegará ao mercado repleto de inovações – na fuselagem, desenho das asas, trem de pouso, motores, interiores, aviônicos etc. –, o que faz dele o mais eficiente jato de corredor único do mercado, categoria que inclui os tradicionais Boeing 737 e Airbus A320, além dos modelos da família C Series da BompESQUISA FAPESP 265  z  81


1

bardier, rival da brasileira no mercado de aviação regional. “Nosso novo jato foi projetado para ter uma performance em consumo de combustível 16% menor do que a geração atual de E-Jets, mas superou essa meta e atingiu 17,3%”, informa Souza. Segundo ele, com esse índice, o avião é cerca de 10% mais econômico do que seus concorrentes diretos, os jatos canadenses C Series. A redução do gasto de combustível dá duas vantagens importantes para o E190-E2 no concorrido mercado aeronáutico: ele emite menos poluentes e tem um alcance superior, ou seja, consegue voar distâncias maiores. A Embraer calcula que, com a melhora de 1,3% no consumo, cada jato evitará a emissão de cerca de 1.700 toneladas de dióxido de carbono (CO2) ao longo de 10 anos. Com relação ao alcance, o modelo poderá atingir destinos a 5,3 mil quilômetros (km), ante 4,5 mil km dos integrantes da atual geração de E-Jets. “Essa distância adicional dará às companhias aéreas uma capacidade de alcançar aeroportos mais distantes, elevando sua capilaridade”, destaca o executivo da Embraer. A maior parte da redução projetada de consumo de 16% ocorreu em função dos novos motores Pratt & Whitney, mais eficientes do que os da primeira geração de E-Jets. Eles responderam por 69% da melhora inicialmente projetada, seguidos do novo desenho da asa (22%) e do sistema fly-by-wire (9%). “Um aspecto fundamental para a redução de consumo acima do previsto, os 1,3% a mais, foi a melhoria do fly-by-wire”, afirma Silva. Com essa tecnologia, o controle de 82  z  março DE 2018

peças móveis nas asas e na cauda do avião (flaps, ailerons, spoilers, slat e profundor) é feito por meio de comandos eletrônicos computadorizados. Responsáveis, juntamente com as asas, pela sustentação do avião, essas peças aerodinâmicas são acionadas pelo piloto para mudar a direção, o sentido e o nível do voo. A melhora do fly-by-wire do novo jato permitiu a redução de 20% da área de empenagem (parte terminal da fuselagem, localizada na região traseira, conhecida como a cauda do avião), minimizando arrasto e peso. O fly-by-wire dos E-Jets E2 é a quarta geração projetada pela Embraer. Essa tecnologia, que elevou de forma significativa o nível de automação dos aviões, substituiu o sistema tradicional de comando formado por cabos de aço e atuadores hidráulicos. PARCERIA COM A FAPESP

A Embraer também conseguiu reduzir a emissão de ruído do E190-E2 acima do planejado. Projetar e desenvolver aviões mais silenciosos que operem em aeroportos sem incomodar os moradores de seu entorno é um dos desafios da indústria aeronáutica. “Em muitos aeroportos da Europa e do Japão, a taxa de pouso paga pela companhia aérea é multiplicada pelo fator ruído. Assim, um avião mais silencioso pode ter um custo operacional menor”, explica Silva. Para medir e tabular os níveis de ruído das aeronaves, a Organização da Aviação Civil Internacional (Icao) estabeleceu uma métrica chamada EPNdB, sigla em inglês para “ruído efetivamen-

Linha de montagem na fábrica de Gavião Peixoto (SP): empresa já recebeu 280 encomendas das três aeronaves da família E2


Projetos de pesquisa investigaram como elevar o conforto e reduzir o ruído dos aviões

Cabine de teste do E190-E2: projeto priorizou o conforto dos passageiros

te percebido em decibéis”. Esse índice varia em função do porte do avião e considera o barulho produzido por ele durante a decolagem, o voo em cruzeiro e a aproximação para pouso. O jato da Embraer atingiu nos testes 20 EPNdB de margem acumulada em relação aos limites da Icao, 3 EPNdB a mais do que o projetado. Quanto maior a margem acumulada – ou seja, a diferença entre o índice alcançado pelo avião e o estabelecido pela Icao –, mais silencioso é o jato. A fim de reduzir o ruído emitido por seus aviões, a Embraer desenvolveu um amplo trabalho de pesquisa. Com recursos do Programa de Apoio à Pesquisa em Parceria de Inovação Tecnológica (Pite) da FAPESP, o projeto “Aeronave silenciosa: Uma investigação em aeronáutica” identificou e avaliou o ruído gerado e propagado pela primeira geração de E-Jets da empresa. O foco do estudo foi o chamado ruído aerodinâmico, causado pelo fluxo de ar que passa ao redor da asa e pela fuselagem do avião. “Os conhecimentos gerados ao longo do trabalho ajudaram a Embraer a aprimorar o projeto aerodinâmico de seus jatos E2”, afirma o engenheiro Julio Romano Meneghini, da Escola Politécnica da Universidade de São Paulo (Poli-USP), que coordenou o projeto Pite, executado entre 2008 e 2011. “A pesquisa resultou em várias ferramentas de simulação numérica e gerou uma patente internacional relativa a um selo [pequena tira de material flexível] na ponta do flap. Esta foi uma das soluções que encontramos para redu-

zir o ruído gerado por um vórtice [escoamento giratório de ar] durante o pouso e a decolagem.” Para o engenheiro André Gasparotti, gerente do programa de desenvolvimento tecnológico da Embraer, a reduzida emissão de ruído do E190-E2 se deve, em boa medida, ao trabalho de P&D da Embraer nos últimos 10 anos, inclusive aquele apoiado pela FAPESP. “A parceria com a Fundação permitiu aumentar o conhecimento sobre ruído e conforto dos passageiros”, diz. Outro projeto Pite cujos resultados foram aplicados no E190-E2 investigou o bem-estar dos passageiros durante o voo e definiu critérios de conforto a serem usados como parâmetros de projeto e design dos novos jatos da companhia. “No projeto de pesquisa ‘Conforto de cabine: Desenvolvimento e análise integrada de critérios de conforto’, estudamos a influência de diferentes parâmetros ambientais sobre o passageiro, como ruído, iluminação, temperatura, pressão e vibração”, relata o engenheiro Jurandir Itizo Yanagihara, também da Poli e pesquisador responsável pelo projeto Pite. De acordo com Yanagihara, uma característica importante dos E-Jets E2 é o desenho da cabine, que recebeu contribuições de ferramentas desenvolvidas no projeto. CARTEIRA DE PEDIDOS

A nova série de jatos E2 da Embraer, cujo desenvolvimento teve início em 2013, é formada por outros dois modelos, o E195-E2 e o E175-E2. A Embraer recebeu até março deste ano 280 pedidos das três aeronaves, além de cerca de 420 intenções de compra. Computados os quatro modelos da primeira geração de E-Jets (E170, E175, E190 e E195), a carteira salta para 1.800 pedidos firmes, dos quais 1.400 já foram entregues. A companhia brasileira Azul será a primeira a receber o E195-E2, maior aeronave comercial projetada e construída no país. Com 41,5 metros (m) de comprimento e 35,1 m de envergadura (distância entre as pontas das asas), ela tem capacidade para até 146 passageiros. A entrega da primeira unidade está prevista para 2019. O “caçula” E175-E2, para 90 ocupantes, deve estrear em 2021. n Projetos 1. Aeronave silenciosa: Uma investigação em aeroacústica (n. 06/ 52568-7); Modalidade Parceria para Inovação Tecnológica (Pite); Pesquisador responsável Julio Romano Meneghini (USP); Investimento R$ 3.741.069,33. 2. Conforto de cabine: Desenvolvimento e análise integrada de critérios de conforto (n. 06/52570-1); Modalidade Parceria para Inovação Tecnológica (Pite); Pesquisador responsável Jurandir Itizo Yanagihara (USP); Investimento R$ 3.205.550,76.

fotos  embraer

Artigos científicos

3

ILÁRIO, C. et al. Prediction of jet mixing noise with lighthill’s acoustic analogy and geometrical acoustics. The Journal of the Acoustical Society of America. v. 141, p. 1203­-13. fev. 2017. MENEGHINI, J. et al. Wake instability issues: From circular cylinders to stalled airfoils. Journal of Fluids and Structures. v. 27, p. 694­-701. jul.-ago. 2011.

pESQUISA FAPESP 265  z  83


SENSORIAMENTO REMOTo y

N

Carlos Fioravanti

Água subterrânea vista do espaço Novo satélite deve retomar

este mês de março, o Falcon-9, um foguete com quase 70 metros de altura e 4 de diâmetro, deverá fazer mais um voo, par­­tindo de uma base aérea militar da Califórnia, nos Estados Unidos, para levar ao espaço o Gravity Recovery and Climate Experiment Follow-On (Grace-Fo), conjunto de dois satélites idênticos construídos na Alemanha. O Grace-Fo deverá substituir a primeira versão do equipamento, que em 2017, após 15 anos em órbita a 500 quilômetros da superfície, parou de mandar informações sobre a variação do campo gravitacional terrestre (ver Pesquisa FAPESP no 181). Como a força da gravidade depende da massa, que varia de acordo com a quantidade de água acumulada nos rios, na neve, no solo e nos aquíferos, o Grace fornece informações sobre as reservas de água doce superficiais e, como nenhum outro satélite, também as subterrâneas, por causa de seu modo único de funcionamento. Os dados do Grace, com uma resolução espacial de 300 a 400 km2, têm servido para análises abrangentes, complementando os métodos tradicionais de avaliação da quantidade de água acumulada nas rochas dos aquíferos. A Companhia de Pesquisa de Recursos Minerais (CPRM) acompanha a situação de 27 aquíferos do país por medidores de nível de água instalados em 380 poços artesianos. “A rede de coleta de informações é muito pequena para monitorar todo o país”, diz a geóloga Maria Antonieta Mourão, hidróloga sênior da empresa. “Com o novo Grace, poderíamos usar os equipamentos dos poços artesianos apenas para calibrar as medições sobre a recarga dos aquíferos.” A CPRM registrou uma redução de dois a quatro metros no volume nas reservas subterrâneas do noroeste do estado de São Paulo, Triângulo Mineiro e

a coleta de dados sobre aquíferos de todo o mundo Carlos Fioravanti 84  z  março DE 2018

Uma das áreas de recarga do aquífero Guarani, a lagoa do Saibra, em Ribeirão Preto, estava parcialmente seca em 2014


Tendência (mm/ano) 60

-90 mm/ano 40

20

0

O Grace (ilustração acima), formado por dois satélites idênticos, permitiu o monitoramento da variação do volume total de água na bacia do Paraná entre 2011 e 2015 (ao lado, áreas mais secas em vermelho e marrom)

-20

-40

-60

-80

foto edson silva /folhapress  ilustração nasa

fonte NASA /MELO, D. C. D. et al. Hydrology and Earth System Sciences. 2016

Mato Grosso em 2014, em comparação com 2011, e tem alertado para a intensa exploração dos aquíferos, que pode levar ao esgotamento das reservas. O aquífero Guarani, uma das maiores reservas mundiais subterrâneas de água, com uma área de 1,2 milhão de km2, está sendo explorado por cerca de 4 mil poços artesianos nos estados de São Paulo, Paraná, Santa Catarina, Rio Grande do Sul e Mato Grosso do Sul. O aquífero Alter do Chão, na região Norte, com uma área de quase 500 mil km2, também sofre com a superexploração – estima-se em 15 mil o total de poços em Manaus – e a contaminação por lixões, postos de combustíveis, cemitérios e esgotos, principalmente nas grandes cidades. Foi por meio do Grace que pesquisadores brasileiros identificaram a redução drástica das reservas de aquíferos brasileiros durante a seca de 2014, que começou em outubro do ano anterior no estado de São Paulo e se estendeu pela região Sudeste até 2015. Entre 2011, um ano chuvoso, e 2015, a seca causou uma redução de cerca de 150 quilômetros cúbicos (km3) de água superficial e subterrânea na região Sudeste. Esse volume equivale à metade da capacidade máxima dos reservatórios das usinas hidrelétricas da bacia do Paraná, a rede de

rios que drena uma área próxima a 900 mil km2 e abastece cerca de 60 milhões de pessoas, incluindo os quase 20 milhões de moradores da Grande São Paulo. A seca de 2014 atingiu mais a região central e nordeste da bacia do Paraná, com uma redução do volume de água maior nos reservatórios de maior porte ou mais próximos das cabeceiras dos rios, observou o engenheiro civil Davi Melo, pesquisador da Escola de Engenharia de São Carlos da Universidade de São Paulo (EESC-USP). “Os reservatórios maiores, embora tenham sofrido uma redução de volume de mais de 50% entre 2011 e 2015, compensaram a perda dos menores e reduziram a propagação da seca”, diz. Ele detalhou a análise do impacto da seca de 2014 na bacia do Paraná em um artigo de novembro de 2016 na Hydrology and Earth System Sciences e em seu doutorado, concluído em 2017, sob orientação do engenheiro civil Edson Wendland, professor de hidrologia na EESC-USP. O Nordeste e a Índia

Também examinada por meio do Grace, a região Nordeste apresentou uma redução do volume de água subterrânea de 49 km3 por ano, um pouco menor que a do Sudeste, de 56 km3 por ano, entre fevereiro de 2012 e janeiro de 2015,

de acordo com um estudo publicado na Journal of Hydrometeorology em fevereiro de 2016. Seu autor, o engenheiro civil carioca Augusto Getirana, trabalha na Nasa, a agência espacial norte-americana, desde 2011, e tem usado intensivamente os dados do Grace para examinar as áreas de seca nos Estados Unidos. Os mapas são publicados pelas instituições que colaboram com a Nasa, como o Departamento de Agricultura e o Centro Nacional de Mitigação da Seca da Universidade de Nebraska. “Podemos usar apenas o Grace para ter uma visão geral e quantificar o volume de água de aquíferos de uma região ou combinar com outras fontes de informação, como os modelos hidrológicos, que simulam o fluxo de água na terra ou na atmosfera, e observações de campo, quando precisamos de detalhes”, diz ele. Em 2007, uma equipe da Universidade do Texas em Austin, Estados Unidos, identificou uma equivalência de 82% entre as medidas de campo e as do satélite de um aquífero de 450 mil km2 na região central do país. Em 2009, uma equipe da Nasa liderada por Matthew Rodell observou uma redução muito maior que a reposição nos aquíferos do noroeste da Índia, região que abriga 114 milhões de pessoas. A retirada de 109 km3 de água de agosto de 2002 a outubro de 2008 para irrigação de arroz era 20% acima do estimado pelo governo e correspondia ao dobro da capacidade do maior reservatório de superfície da Índia. As possibilidades de uso do Grace constam da programação do simpósio latino-americano de monitoramento de águas subterrâneas marcado para abril de 2018 em Belo Horizonte, quando o novo satélite estiver em operação. n Projeto Disponibilidade hídrica em eventos extremos: Secas na região da bacia do Rio Paraná (nº 16/23546-7); Modalidade Bolsa de pós-doutorado; Pesquisador responsável Edson Cezar Wendland (USP); Bolsista Davi de Carvalho Diniz Melo; Investimento R$ 196.780,00.

Artigos científicos MELO, D. C. D. et al. Reservoir storage and hydrologic responses to droughts in the Paraná River basin, south-eastern Brazil. Hydrology and Earth System Sciences. v. 20, n. 11, p. 4673-88. 2016. GETIRANA, A. Extreme water deficit in Brazil detected from space. Journal of Hydrometeorology. v. 17, p. 5919-99. 2016. As referências completas dos outros artigos citados estão na versão on-line desta reportagem.

pESQUISA FAPESP 265  z  85


humanidades   demografia y

Estratégia

de entrada

Em menos de uma década, nova dinâmica dos fluxos migratórios e características da legislação fizeram solicitações de refúgio no Brasil crescer 34 vezes Christina Queiroz

E

ntre 2010 e 2017, as solicitações de refúgio no Brasil passaram de 966 para 33 mil ao ano. Se no início desta década os haitianos eram os responsáveis pela maior parte das solicitações (442, ou 46%), atualmente o fluxo dos venezuelanos representa a maior demanda, somando 17 mil pedidos encaminhados ao governo brasileiro apenas no ano passado. Os dados são do Comitê Nacional para os Refugiados (Conare) e estão no Atlas temático observatório das migrações em São Paulo – Migrações internacionais, desenvolvido pelo Núcleo de Estudos de População da Universidade Estadual de Campinas (Nepo-Unicamp) e lançado no final de 2017. Na avaliação dos pesquisadores que elaboraram o documento, o crescimento exponencial pode ser

86  z  nononononono DE 2018

interpretado, por um lado, como resultado das barreiras crescentes que os imigrantes enfrentam para entrar em países da União Europeia e nos Estados Unidos. Por outro, reflete peculiaridades da legislação migratória brasileira, que faz com que a solicitação de refúgio seja o caminho mais seguro para determinados fluxos de estrangeiros realizarem a entrada regular no país. A adoção dessa estratégia, no entanto, está longe de assegurar a permanência no Brasil. Todo processo de imigração é marcado pela incerteza. Até o final do ano passado, o Estatuto do Estrangeiro, elaborado durante a ditadura militar e vigente desde 1980, regulamentava a política migratória brasileira de acordo com a lógica da segurança nacional. Rosana Baeninger, professora do Instituto de Filosofia e Ciências Humanas (IFCH) da Unicamp e pesquisadora do Nepo, explica que o estatuto estabelecia algumas condições


Léo ramos chaves

Michel Charles está há três anos no Brasil e integra o grupo de haitianos que imigrou após terremoto de 2010

pESQUISA FAPESP 265  z  87


P

ara os imigrantes sul-americanos, a situação começou a mudar com o estabelecimento, em 1991, do Mercosul, processo de integração regional do qual atualmente participam todos os estados da América do Sul, exceto a Venezuela, suspensa do bloco em 2017. “O Mercosul permitiu que cidadãos desses países solicitassem residência temporária e trabalhassem no Brasil”, observa Rosana. No último mês de novembro, com a entrada em vigor da Nova Lei de Imigração, estrangeiros de distintas nacionalidades adquiriram o direito de regularizar sua permanência sem a neces-

Imigrantes buscam trabalho e documentação em centro de atendimento do governo do estado de São Paulo

88  z  março DE 2018

Em busca de refúgio

28.670

28.385

no Brasil Haitianos e venezuelanos responderam pela maioria das demandas entre 2010 e 2016

16.779

17.631

14.465

Fonte: Atlas da Imigração

11.690

Total Haiti Venezuela

966 442 4 2010

10.308

4.022

3.220 2.549

3.375 3.310

4

1

55

209

2011

2012

2013

2014

sidade de sair do país, como acontecia anteriormente. “A nova legislação procura facilitar a permanência de fluxos que imigram por razões humanitárias ou de indivíduos com baixo nível de escolarização, algo inexistente na lei anterior. Porém, como ela ainda não teve todas as suas resoluções definidas, o estrangeiro não sabe ao certo o melhor caminho para ter sua presença no Brasil regularizada.” De acordo com ela, tanto as limitações do Estatuto do Estrangeiro, no passado, quanto as indefinições da nova lei têm feito com que alguns fluxos de imigrantes apostem na modalidade de refúgio

829

2015

646 2016

para ampliar as chances de permanecer regularmente no Brasil. A modalidade do refúgio é regida pela Convenção das Nações Unidas sobre o Estatuto dos Refugiados, de 1951. O documento estabelece padrões para o tratamento desses imigrantes, definido de forma distinta pelos países signatários. No Brasil, o refúgio é regido pela Lei nº 9.474/97. Promulgada há 20 anos, ela não foi afetada diretamente pela nova legislação sobre imigração. Para ter o reconhecimento do status de refugiado, o imigrante deve comprovar que sofre “fundados temores de perseguição por

divulgação / Secretaria da Justiça e da Defesa da Cidadania do Governo do Estado de São Paulo

para que o estrangeiro conseguisse visto permanente ou temporário no Brasil. Essas condições variavam conforme acordos bilaterais entre países, mas algumas situações davam direito à permanência, como casamento com brasileiros, nascimento de filhos em território nacional ou uma proposta de trabalho. Quem entrasse sem visto ficava proibido, pelo estatuto, de regularizar sua situação depois de já estar em território brasileiro. “Acordos de reciprocidade permitiam a permanência por até 90 dias, como turista. Passado esse período, muitos imigrantes ficavam indocumentados, o que lhes restringia o acesso a alguns direitos”, explica Rosana.


casos analisados pelo conare Em 2016 foram recebidas 10.308 solicitações de refúgio; órgão se pronunciou sobre 1.986* 3 31 45

n Cessação do status de refugiado (ocorre, por exemplo, quando o imigrante decide voltar ao país de origem)

86

n Reassentamento para outros países n Perda da condição (acontece, 942

879

por exemplo, quando o imigrante renuncia ao status de refugiado ou sai do país sem autorização do governo)

n Reunião familiar (ocorre quando o imigrante traz familiares de seu país de origem)

n Indeferidos n Status de refugiado reconhecido

Fonte Atlas da Imigração

* A maioria dos casos julgados em 2016 envolve solicitações feitas em anos anteriores

da Pontifícia Universidade Católica de Minas Gerais (PUC-MG). Ele afirma, no entanto, que inicialmente o governo limitou em 1,2 mil o número desses vistos, concedidos por ano. “Tal fato levou a uma situação de caos na porta da embaixada brasileira em Porto Príncipe e ampliou ainda mais a chegada de imigrantes pela fronteira Norte, que faziam a solicitação de refúgio”, lembra Fernandes. Segundo ele, para os haitianos que solicitaram refúgio e tiveram o pedido negado, o governo concedeu visto de residência permanente. “Em nenhum momento os haitianos ficaram em situação de irregularidade no país. Com isso, as solicitações de refúgio se transformaram em mecanismo para se obter a regularização da permanência no Brasil”, diz Fernandes. Entre 2012 e 2014, as solicitações de refúgio de haitianos saltaram de 3,3 mil para 16,7 mil. Fluxo em ascensão

Ao protocolar solicitação de refúgio, o imigrante assegura direitos como carteira de trabalho e atendimento pelo SUS

motivos de raça, religião, nacionalidade, grupo social ou opiniões políticas ou grave e generalizada violação de direitos humanos” em seu país de origem. Ao protocolar a solicitação, o imigrante passa a ter todos os direitos dos regularizados – como residência provisória, carteira de trabalho e atendimento pelo Sistema Único de Saúde (SUS) –, além da garantia de não ser deportado. O processo para solicitação de refúgio é gratuito, diferentemente do que ocorre na obtenção de vistos. As solicitações são julgadas pelo Conare, órgão interministerial do qual também fazem parte a Polícia Federal, o Alto Comissariado das Nações Unidas para os Refugiados (Acnur) e organizações não governamentais. “As solicitações de refúgio têm levado ao menos dois anos para serem decididas”, informa Gustavo da Frota Simões, professor no curso de relações internacionais e coordenador da cátedra Sérgio Vieira de Mello da Universidade Federal de Roraima (UFRR).

O processo de entrada de haitianos, a partir de 2010, permite entender como a modalidade do refúgio, em algumas situações, pode funcionar como estratégia de ingresso no Brasil. Os haitianos chegaram após o terremoto ocorrido naquele ano e que provocou a morte de 316 mil pessoas no país caribenho. Os primeiros imigrantes cruzaram a fronteira pelo Acre ou Amazonas. Em 2010, 442 haitianos solicitaram refúgio. Em 2011, foram 2,5 mil. Enquanto aguardavam julgamento, todos tiveram direito à residência e carteira de trabalho. “O governo brasileiro não reconheceu os haitianos como refugiados. Porém, identificou que eles estavam imigrando por razões humanitárias e criou um visto para que pudessem ter a presença regularizada no Brasil. Esse visto atendia os que estavam no Haiti com intenção de emigrar e tramitava na embaixada brasileira no país”, esclarece o economista Duval Magalhães Fernandes, professor do Programa de Pós-graduação em Geografia

Reportagem publicada em fevereiro pelo jornal O Globo, com base em informações da Polícia Federal, mostrou que, em 45 dias, 18 mil venezuelanos solicitaram refúgio, valor superior ao total registrado em todo o ano de 2017. Estima-se hoje que entre 40 mil e 60 mil venezuelanos vivam em Boa Vista, município com 350 mil habitantes e capital de Roraima, estado que faz fronteira com a Venezuela. Nem todos, no entanto, desejam se estabelecer no Brasil. “Alguns tentam permanecer próximos à fronteira, para levar dinheiro, alimentos e remédios e visitar familiares que ficaram no país de origem, enquanto outros planejam regressar à Venezuela”, avalia João Carlos Jarochinski Silva, professor de relações internacionais da UFRR. Segundo ele, até 2015, os venezuelanos costumavam ir a Boa Vista e Pacaraima para comprar alimentos e, em seguida, regressavam ao país natal. Foi a partir de 2016 que mais pessoas optaram por permanecer em uma dessas cidades, o que, de acordo com o pesquisador, fez aumentar as solicitações de refúgio. Apesar de fazer parte do Mercosul até 2017, a Venezuela não havia adequado sua legislação para integrar-se ao sistema de facilitação de vistos. “A suspensão da Venezuela do bloco não afetou a forma como se desenvolvia a política de permissão de entradas de venezuelanos no Brasil. Em março de 2017, o Conselho pESQUISA FAPESP 265  z  89


Pesquisa realizada entre junho e agosto de 2017 com 650 imigrantes venezuelanos não indígenas adultos residentes em Boa Vista idade (%) 72

23 2,9 18-19 anos

20-39

40-64

0,9

1,2

65 ou mais

Ignorada

escolaridade (%) 30,5 28,8

15,6

14

4,8

3,5

2,3 0,9

o o to to do eto pleto pleto let let ua ple ple ab mp mp ad alf om com om om co co -gr .c n nc an r o i i inc s d i o . d io or pó un éd eri un éd eri s. f up .m s. f up en s. m ens s. s en s. s en en en

Nacional de Imigração (CNIg) editou a Resolução Normativa nº 126, autorizando a residência temporária de migrantes de países fronteiriços, medida que beneficiou esses solicitantes de refúgio”, observa. De acordo com ele, os trâmites para solicitar autorização de residência tornaram-se gratuitos em função de uma decisão judicial, três meses depois de publicada a resolução. Mesmo assim, as solicitações de refúgio continuaram sendo o caminho escolhido pela maioria dos venezuelanos que desconheciam a normativa, mas sabiam da não obrigatoriedade de apresentação de documentos. “A pessoa pode protocolar o pedido de refúgio vestindo apenas a roupa do corpo”, detalha Jarochinski. O governo brasileiro não tem reconhecido os venezuelanos como refugiados e deferiu 14 das 3,3 mil solicitações feitas em 2016. “Muitos venezuelanos imigram ao Brasil para fugir da fome, da inflação e da violência, porém outros abandonam o país de origem porque sofrem perseguição política, o que garante o reconhecimento como refugiado. O governo precisa analisar cada caso individualmente antes de deferir o pedido”, explica. O aumento do fluxo de solicitações de refúgio por parte de venezuelanos é recente e a maioria das demandas ainda não foi julgada. Enquanto a imigração venezuelana pode ser compreendida pela crise no país fronteiriço com o Brasil, a chegada de fluxos recentes de sírios e haitianos está relacionada à atuação política do Brasil nessas nações. Rosana Baeninger

Compreensão dos fluxos migratórios recentes passa por crise em país fronteiriço e atuação política do Brasil

lembra que o protagonismo do Brasil na Missão das Nações Unidas para Estabilização do Haiti, iniciada em 2014 após a queda do então presidente Jean Bertrand Aristide, justifica, ao menos em parte, o interesse dos haitianos em tentar a vida no país. Em relação aos sírios, o Conare publicou uma resolução normativa em 2013 simplificando a emissão de vistos e o processo de solicitação dos pedidos de refúgio, que já vinham sendo feitos pelos próprios sírios e outros estrangeiros afetados pela guerra civil em andamento desde 2011. Segundo o levantamento do Atlas do observatório das migrações, das 391 solicitações encaminhadas por sírios em 2016, 326 foram aceitas. Ao reconhecer o pedido de refúgio, embora

motivo da imigração (%) 51

25,4 12,3

10,8 0,5

cr

ca

mi

co

e ise

se

cri

ca

líti

po

bu

sc

e ad

lho

ba

tra

s

vo

oti

sm

o utr

do

ora

ign

o

Fonte  Cátedra Sérgio Vieira de Mello/UFRR, Pesquisa Perfil Sociodemográfico e Laboral da Migração Venezuelana no Brasil, 2017

90  z  março DE 2018

1

Venezuelanos aguardam atendimento da Polícia Federal em Boa Vista, RR

fotos 1 Fabio Gonçalves / Fotoarena / Folhapress  2 e 3 léo ramos chaves

PERFIL SOCIODEMOGRÁFICO DA IMIGRAÇÃO VENEZUELANA


não conceda cidadania plena, o governo brasileiro confirma, além dos direitos assegurados a imigrantes regulares, alguns outros, como a garantia de não devolução ao país de origem e a emissão de passaporte.

L

uís Renato Vedovato, professor na Faculdade de Ciências Aplicadas da Unicamp, considera que o estabelecimento dessa resolução aconteceu em um momento em que o governo brasileiro queria aumentar a presença política no Oriente Médio. “O país buscava uma vaga permanente no Conselho de Segurança da Organização das Nações Unidas (ONU) e parte da abertura para receber sírios se deveu ao interesse nesse novo posicionamento, além da disposição em estreitar laços com países do Sul global”, avalia. Apesar da abertura, o Brasil tem hoje poucos refugiados sírios. São cerca de 2,2 mil pessoas, uma pequena comunidade, se comparada àquelas integradas pelos milhões de sírios que atualmente vivem na Turquia e Jordânia, observa

2

Mesquita Brasil, em São Paulo: resolução do Conare permitiu entrada de família de refugiados sírios no país

Igor José de Renó Machado, professor na Universidade Federal de São Carlos (UFSCar) e coordenador do grupo de pesquisa Antropologia das Migrações. Os fluxos recentes de sírios, haitianos e venezuelanos, assim como o de pessoas provenientes de outros países da América Latina e África, ressalta Rosana, evidenciam uma intensificação do movimento das migrações Sul-Sul, em um momento em que os países do Norte global passaram a impor cada vez mais barreiras à entrada de estrangeiros. Em 2016, os refugiados e solicitantes de refúgio somavam 25,9 milhões de pessoas em todo o mundo, segundo dados do International migration report 2017, recém-publicado pela Organização das Nações Unidas (ONU). Com a assinatura, naquele mesmo ano, da Declaração para Refugiados e Migrantes de Nova York, os países-membros da ONU assumiram o compromisso de desenvolver políticas públicas para acolher esse contingente de deslocados. A ONU estima aprovar o Pacto Mundial para uma Migração Segura, Ordenada e Regular durante a Conferência Mundial de Migração, prevista para acontecer em dezembro, no Marrocos. n

3

pESQUISA FAPESP 265  z  91

Versão atualizada em 08/05/2018

Projeto Observatório das migrações em São Paulo: Migrações internas e internacionais contemporâneas no estado de São Paulo – Nepo-Unicamp (n. 14/04850-1); Modalidade Projeto Temático; Pesquisadora responsável Rosana Aparecida Baeninger (Unicamp). Investimento R$ 962.356,42 (para todo o projeto).


memória

1

Vacina controversa A primeira tentativa de evitar a febre amarela no Brasil, em 1883, foi marcada pela polêmica

Carlos Fioravanti

92 | março DE 2018

N

a manhã de 14 de abril de 1883, o médico carioca Domingos José Freire (1843-1899), professor da Faculdade de Medicina do Rio de Janeiro, deu um passo radical em seu propósito de criar uma vacina contra a febre amarela, doença que se tornara constante na sede da Corte desde o primeiro surto, em 1849. Inspirado no químico francês Louis Pasteur (1822-1895), que já havia criado as vacinas contra o cólera das galinhas e o carbúnculo de ovelhas, Freire e três estudantes de medicina entraram em um necrotério de Niterói, abriram o cadáver de um marinheiro morto em consequência da febre amarela havia menos de uma hora, retiraram sangue do coração e fragmentos de órgãos e tecidos e levaram tudo para o laboratório de química orgânica da faculdade. Ao microscópio, em amostras do sangue do marinheiro, eles viram o que supuseram ser o agente causador da febre amarela – uma bactéria que Freire já tinha identificado e chamado de Cryptococcus xanthogenicus. Depois, injetaram sangue do cadáver em um coelho, que

Refeitório da hospedaria da Ilha das Flores, no Rio de Janeiro, que recebia imigrantes: prioridade para vacinação


fotos 1 coleção leopoldino brasil. acervo centro de memória da imigração da ilha das flores/Uerj 2 Doctrine microbienne 3 O Album, ano 1, nº 22. 1893

Ilustração de um balão de vidro usado na produção da vacina, publicada em livro em 1885

teve convulsões e morreu em 15 minutos. Tiraram sangue do coelho, no qual identificaram o criptococo, e o injetaram em um porquinho-da-índia, que também morreu, indicando a possibilidade de transmissão do agente causador da febre amarela. Posteriormente, em 1928, descobriu-se que a doença é causada por um vírus. Um mês antes, o ministro dos Negócios do Império, conselheiro Pedro Leão Veloso (1828-1902), tinha prometido a Freire uma “condigna recompensa” se tivesse sucesso em seu trabalho. Foi também em abril que o médico começou a relatar suas experiências na Gazeta de Notícias, na qual também respondia a médicos e cronistas que contestavam ou ridicularizavam seu trabalho. “A ciência não tinha sido ainda encapsulada nos periódicos científicos e no mundo acadêmico”, diz o historiador da ciência Jaime Larry Benchimol, pesquisador da Casa de Oswaldo Cruz da Fundação Oswaldo Cruz (COC-Fiocruz), que relatou a cena do necrotério no livro O desenvolvimento da vacina contra a febre amarela (Editora Fiocruz, 1999) e escreveu vários artigos sobre Freire. “O debate era público e a retórica uma parte indissolúvel do fazer científico naquele momento.” Alguns meses depois, em agosto de 1883, Freire

2

Freire escrevia com frequência em jornais para relatar os avanços de seu trabalho e responder a outros médicos que o criticavam

3

apresentou ao novo ministro do Império, Francisco Antunes Maciel (1844-1917), os resultados de suas experiências com as culturas do micróbio atenuado da febre amarela. Maciel nomeou uma comissão da Junta Central de Higiene Pública para verificar o trabalho realizado na faculdade de medicina. Após conflitos com o ministro por causa de problemas com a vacinação contra a varíola na Bahia, a comissão se demitiu e em outubro Freire foi nomeado presidente da Junta. O médico já tinha começado a inocular sua vacina em voluntários, sob protestos da extinta comissão da Junta. Dizia que tinha autorização

Freire ganhou prestígio e viajou a Paris e Washington para falar de seu trabalho

do governo, mas o então presidente da Academia Imperial de Medicina, Nuno de Andrade (1858-1915), comentou que “quem autorizou o dr. Freire a inocular culturas foi o próprio dr. Freire”, como relatado no livro de Benchimol. Em 1º de novembro, 48 pessoas tinham sido vacinadas, a maioria espanhóis e italianos recém-chegados ao Rio. Em novembro o Ministério do Império autorizou a publicação de anúncios convidando imigrantes e nativos a se vacinarem no Instituto Vacínico, que aplicava a vacina contra a varíola. Estima-se que a vacina de Freire tenha sido injetada em cerca de 13 mil pessoas entre 1883 e 1889 na então capital federal e nos estados do Rio, de São Paulo e de Minas Gerais. “Para mostrar que a vacina dele funcionava, Freire produzia relatórios anuais, embora com PESQUISA FAPESP 265 | 93


2

1

Ilustração de 1885 da bactéria C. xanthogenicus (à esq.) e foto de microscopia do vírus causador da febre amarela, identificado em 1928

métodos estatísticos bastante vulneráveis, mostrando o número de pessoas vacinadas e de vidas que ele supostamente teria salvo”, diz Benchimol. Como parte de sua argumentação, em 1885 o médico publicou no Rio de Janeiro um livro de 451 páginas, Doctrine microbienne de la fièvre jaune et ses inoculations préventives, com fotos do suposto agente causador e descrições de seu método e das pessoas vacinadas. Suas ações lhe davam visibilidade e prestígio, a ponto de ser convidado para falar sobre seu trabalho em Paris e em Washington. “Havia várias teorias em disputa, incluindo a miasmática [segundo a qual as doenças resultariam dos odores fétidos da matéria orgânica em decomposição e águas paradas], que justificavam a reforma urbana do Rio”, lembra Benchimol. “A febre amarela era um problema 94 | março DE 2018

controvertido, com um índice de mortalidade próximo a 40%, como hoje.” A luta pela autoria da descoberta do agente causador da doença foi intensa até 1928, quando se atribuiu esse papel a um vírus isolado de macacos naturalmente infectados na África ocidental. Em 1883, um fisiologista do Museu Nacional, João Batista Lacerda (1846-1915), apresentou à Academia Imperial de Medicina o que considerava a verdadeira causa da febre amarela: o Fungus febris flavae, que se acumulava no fígado e produzia uma severa icterícia. Lacerda perdeu credibilidade depois que um bacteriologista francês examinou seu material e verificou que se tratava de uma bactéria, não um fungo. Dois outros agentes causadores da febre amarela anunciados foram descritos em uma edição dos Annales de l’Institut Pasteur de 1897:

o primeiro era uma bactéria que viveria no tubo digestivo dos pacientes e fora identificada por um médico do Rio, Wolf Havelburg; o segundo era o Bacillus icteroides, identificado pelo bacteriologista italiano Giuseppe Sanarelli (1864-1940), diretor do Instituto de Higiene Experimental da Universidade de Montevidéu, no Uruguai. novas descobertas

Uma campanha do Exército dos Estados Unidos em Cuba, em 1900, validou a hipótese de transmissão da doença por mosquitos

Em 1887, o bacteriologista norte-americano George Sternberg (1838-1915), a pedido do governo dos Estados Unidos, criticou a inconsistência dos métodos de trabalho e das vacinas criadas pelo médico Manuel Carmona y Valle (1831-1902) no México e por Freire no Brasil, após visitar os laboratórios de ambos. “Sternberg considerou o fracasso de suas próprias tentativas de isolar o ‘germe da febre amarela’ como prova suficiente de que o sucesso das demais não poderia passar de ilusão. Afirmava que os trabalhos de Freire e de Carmona y Valle não tinham nenhum interesse científico”, comentou a historiadora da ciência Ilana Löwy, pesquisadora do Centro de Pesquisa, Medicina,


fotos 1 Doctrine microbienne 2 cdc 3 Fundo Instituto Oswaldo Cruz  4 e 5 wikimedia commons

Preparo de ovos embrionados para produção da vacina contra a febre amarela no Rio, em 1943

Ciências, Saúde e Sociedade (Cermes) de Paris, no livro Vírus, mosquitos e modernidade: A febre amarela no Brasil entre ciência e política (Editora Fiocruz, 2006). “As novas descobertas e procedimentos do trabalho científico invalidaram o que Freire e outros haviam feito no final do século XIX”, diz a historiadora da ciência Marta de Almeida, pesquisadora do Museu de Astronomia e Ciências Afins (Mast). Em 1881, o médico cubano Carlos Finlay (1833-1915) apresentou em um congresso científico em Washington a ideia de que o agente causador da febre amarela seria transmitido por meio do mosquito Stegomyia fasciata, depois renomeado como Aedes aegypti. “Finlay também supunha que o agente da febre amarela fosse uma bactéria, a Micrococcus tegraenus, o que ajuda a explicar por que sua teoria demorou a ser aceita”, diz Benchimol. 4

3

A Fundação Rockefeller financiou os primeiros testes no Brasil, em 1937, de uma vacina produzida em Nova York

5

Apenas em 1900, o Exército dos Estados Unidos, que também procurava uma bactéria como agente da febre amarela, testou a hipótese de transmissão da doença proposta por Finlay, combatendo os mosquitos de Cuba, e em seis meses a doença que perseguia os soldados tinha desaparecido. O médico Emílio Ribas (1862-1925), diretor do Serviço Sanitário do Estado de São Paulo, reforçou a ideia de transmissão de Finlay em 1898 ao se deixar picar por insetos infectados e adquirir uma forma branda da doença (ver Pesquisa FAPESP nº 157). No Rio, o médico Oswaldo Cruz (1872-1917) liderou campanhas de erradicação do mosquito transmissor. “No início os médicos

Sternberg (à esq.), crítico de Freire, e Finlay (à dir.), descobridor do Aedes aegypti como transmissor do vírus

resistiram à ideia de transmissão da febre amarela por mosquitos, que incomodavam, mas eram vistos como inofensivos”, diz Marta. Em 1936, o médico sul-africano Max Theiler (1899-1972) concluiu o desenvolvimento de uma vacina contra a febre amarela nos laboratórios da Divisão Internacional de Saúde (IHD) da Fundação Rockefeller, em Nova York, com uma versão atenuada do vírus já reconhecido como agente causador da doença. A fundação financiou os primeiros testes de campo, realizados no Brasil no ano seguinte, e, diante dos resultados positivos, apoiou a produção da vacina em larga escala, iniciada logo depois no Instituto Tecnológico em Imunobiológicos (Bio-Manguinhos), no Rio de Janeiro, com uma variedade do vírus original e um método de produção praticamente inalterado desde essa época. n PESQUISA FAPESP 265 | 95


carreiras

Planejamento financeiro

Na ponta do lápis Orçar bem os custos de um projeto de pesquisa pode ser decisivo para obtenção de financiamento Um aprendizado que se impõe a todo pesquisador desde o início de sua carreira é o da necessidade de financiamento para desenvolver projetos com qualidade e certa tranquilidade. No entanto, em um cenário acadêmico cada vez mais competitivo, e de recursos escassos, não basta elaborar uma proposta consistente e inovadora. É preciso também ter clareza sobre quanto cada projeto, em suas distintas etapas, irá custar. “Uma estimativa orçamentária criteriosa é fundamental quando se busca financiamento para um projeto de pesquisa”, afirma a bióloga Lúcia Lohmann, do Instituto de Biociências da Universidade de São Paulo (IB-USP). Nos últimos anos várias instituições, sobretudo dos Estados Unidos, lançaram manuais com orientações sobre como estimar e justificar os custos de um projeto. É o caso da Escola de Artes da Universidade de Nova York, que publicou um guia sobre como elaborar uma proposta de orçamento de pesquisa (https://goo.gl/23siHG), e da Universidade Dartmouth, que dispõe de um manual dedicado à importância do financiamento na elaboração de um projeto de investigação científica (http://goo.gl/6qQrVA). Elemento-chave de qualquer solicitação de subvenção científica, o orçamento é a expressão quantitativa de um plano financeiro acerca das despesas futuras de um projeto de pesquisa. “Entre outras coisas, uma proposta orçamentária bem detalhada também indica aos avaliadores que o pesquisador se empenhou na elaboração de seu projeto e tem clareza de todas as etapas e componentes necessários para cumprir seus objetivos”, avalia Lúcia. A bióloga é hoje responsável pela coordenação de vários projetos, sendo o principal desenvolvido no âmbito da cooperação entre os programas Biota-FAPESP e Dimensions of Biodiversity, da National Science Foundation (NSF), principal agência norte-americana de fomento à ciência. Ela recomenda que os pesquisadores procurem sempre submeter propostas orçamentárias equilibradas. “Despesas superestimadas podem depor contra o projeto, fazendo-o parecer megalomaníaco”, analisa a pesquisadora, a partir de sua experiência como assessora ad hoc. O oposto também pode ser prejudicial. “Subestimar 96 | março DE 2018


ilustração  daniel almeida

os custos do projeto pode comprometer a pesquisa que, no limite, corre o risco de ser interrompida ou não concluída.” “Orçar um projeto é um processo trabalhoso. Exige conhecimento técnico, o que nem todo pesquisador em início de carreira tem”, observa a bioquímica Bernadette Dora Gombossy de Melo Franco, da Faculdade de Ciências Farmacêuticas da USP, que solicita financiamento à pesquisa há quase 30 anos. “É preciso humildade para pedir ajuda quando necessário. Sempre contei com a orientação de colegas mais experientes, por isso não me lembro de ter errado gravemente ao longo da carreira.” Em sua avaliação, a elaboração de um projeto e a preparação de seu orçamento devem se desenvolver em paralelo. “Não dá para fazer um projeto sem saber quanto ele custará, assim como não dá para elaborar um orçamento sem saber o que será necessário para o projeto.” Bernadette lembra que muitas chamadas de propostas lançadas pelas agências de fomento têm um valor limite para cada solicitação, que precisa ser observado na elaboração do projeto, considerando-se a infraestrutura já disponível para sua execução. Para o psiquiatra Euripedes Constantino Miguel, da Faculdade de Medicina (FM-USP), é crucial que o orçamento do projeto de pesquisa reflita a realidade dos custos necessários para sua execução. “Do contrário, o pesquisador corre o risco de não entregar o que prometeu, o que pode comprometer sua credibilidade perante a agência de fomento, e de ter de devolver os recursos do próprio bolso.” Para Bernadette, é preciso estar atento às especificidades de cada agência de fomento. “Cada uma tem suas próprias regras, as quais podem mudar de acordo com cada tipo de chamada ou edital.” A NSF aconselha aos pesquisadores que comecem a orçar o projeto bem antes do prazo para submissão, atentando para os

1

Apresente propostas orçamentárias equilibradas. Despesas superestimadas podem depor contra o projeto, ao passo que subestimar seus custos pode comprometer a pesquisa, que corre o risco de eventualmente ser interrompida

2

Comece a esboçar a proposta orçamentária somente após ter uma ideia clara dos objetivos e metodologia. As perguntas científicas e os métodos usados para respondê-las precisam ser coerentes com os recursos necessários à sua execução

3

Na organização dessas informações, um bom início pode ser a elaboração de uma lista com os custos detalhados do projeto e sua respectiva porcentagem do orçamento total estimado

4

Se a pesquisa envolve colaborações com outros pesquisadores, é preciso discutir os gastos das atividades com cada um

custos dos experimentos, da publicação de artigos, das viagens para pesquisa de campo e da participação em eventos científicos. “É importante ter em pauta todos os itens do projeto e saber que há o risco de variações de mercado, sobretudo se os recursos forem concedidos em moeda estrangeira”, explica Juliana Juk, gerente de projetos do Instituto Nacional de Psiquiatria do Desenvolvimento para Crianças e Adolescentes, um dos Institutos Nacionais de Ciência e Tecnologia (INCTs). Nesse sentido, Euripedes recomenda que os pesquisadores só comecem a esboçar a proposta orçamentária após ter uma ideia clara sobre seus objetivos e metodologias. “As perguntas científicas e os métodos a serem usados para respondê-las precisam ser coerentes com os recursos

necessários à sua execução”, considera. “Se a pesquisa envolve colaborações com outros pesquisadores, vale a pena se reunir previamente com eles para discutir os gastos envolvendo as atividades de cada um. O combinado com cada pesquisador é uma premissa básica e, como tal, deve ser cumprida, mas é importante que também haja espaço, se preciso, para negociação entre projetos ou mesmo readequação dos objetivos iniciais.” Os pesquisadores lembram que a condução de um projeto de pesquisa é um trabalho coletivo. “Sempre contei com a minha equipe para elaborar os projetos e estimar seus custos”, relata Bernadette, que também responde pela coordenação do Food Research Center (ForC), um dos Centros de Pesquisa, Inovação e Difusão (Cepid) financiados pela FAPESP. PESQUISA FAPESP 265 | 97


Rodrigo de Oliveira Andrade 98 | março DE 2018

perfil

Das redações para o consultório Após trabalhar como jornalista no Brasil e na Europa, Christian Kieling optou pela medicina e hoje pesquisa depressão na adolescência

arquivo pessoal

Na organização dessas informações, um bom começo pode ser a elaboração de uma lista com os custos detalhados do projeto e a respectiva porcentagem do orçamento total estimado. Além dos programas de edição de planilhas como o Excel, existem hoje várias ferramentas digitais para ajudar os pesquisadores a gerenciar os custos das pesquisas, como as plataformas Fluxx, Deltek e o Worktribe, muito usado por universidades dos Estados Unidos e Reino Unido. Algumas instituições, como a USP, contam com softwares próprios para o acompanhamento da execução dos recursos concedidos aos pesquisadores. “É importante manter o controle semanal dos gastos quando se trabalha em grandes projetos”, alerta Lúcia, cujos projetos em curso movimentam quase R$ 2 milhões. “É preciso que os pesquisadores se organizem bem, registrem todo fluxo de caixa e arquivem os recibos e comprovantes de compra de equipamentos, reagentes e demais.” Além de facilitar a prestação de contas, essas práticas contribuem para o equilíbrio das despesas. Sempre que possível, Euripedes também indica a contratação de um gerente de projetos. “Graças à expertise desses profissionais, conseguimos executar no Instituto Nacional de Psiquiatria do Desenvolvimento vários projetos de grande porte, nacionais e internacionais ao mesmo tempo, que movimentam ao todo aproximadamente R$ 11 milhões”, afirma. Ao desincumbir-se de pelo menos parte das tarefas administrativas e contábeis, o pesquisador pode dedicar mais energia e tempo à pesquisa. Também para a ciência, tempo é dinheiro. n

As incertezas tão comuns no início da vida acadêmica levaram o gaúcho Christian Kieling a se inscrever em dois cursos de graduação diferentes em 1997. Prestou vestibular para direito, na Universidade Federal do Rio Grande do Sul (UFRGS), e jornalismo, na Pontifícia Universidade Católica do Rio Grande do Sul (PUC-RS). “Fui aprovado nos dois cursos e, como as aulas de um eram de manhã e as do outro à noite, matriculei-me em ambos”, relembra. Com o tempo, o jornalismo se tornou uma via cada vez mais atraente. “Pedi transferência para o jornalismo na UFRGS em 1998”, ele conta. Em 2000, um ano antes de concluir a graduação, Kieling iniciou um estágio na RBS, grupo de comunicação de Porto Alegre. Um dia, enquanto escutava rádio, sintonizou de passagem uma estação católica que anunciava uma vaga de estágio na Rádio Vaticano. “Decidi me candidatar e me chamaram”, diz. Kieling trabalhou dois meses em Roma na redação brasileira da emissora antes de voltar para a RBS. Aos 21 anos, ainda inseguro sobre a escolha pelo jornalismo, candidatou-se a uma vaga na Rádio França Internacional, em Paris, onde ficou por um mês. Durante o período em que esteve na França, Kieling leu alguns livros do neurologista inglês Oliver Sacks. “Ele apresentava uma visão diferente da neurologia, com um viés antropológico”, conta. “Foi quando passei a me interessar por questões de neurociências.” De volta ao Brasil, prestou novamente vestibular, dessa vez para medicina, na UFRGS.

“Formei-me em jornalismo na terceira semana de aula em medicina”, lembra. Logo ele iniciou sua iniciação científica em psiquiatria, trabalhando como assistente de pesquisa no Programa de Déficit de Atenção e Hiperatividade do Hospital de Clínicas de Porto Alegre (HCPA). Como já tinha uma graduação concluída, foi exortado por seu orientador a tentar o mestrado em psiquiatria antes mesmo de concluir o curso de medicina. Kieling apresentou sua dissertação em setembro de 2007, três meses antes de concluir a graduação. Passou por residências médicas de psiquiatria e de psiquiatria da infância e da adolescência, durante as quais realizou seu doutorado. Em seguida, ingressou em um estágio de pós-doutorado na mesma instituição, concluído em 2015. Foi nessa época que fundou o Programa de Depressão na Infância e na Adolescência (ProDIA) do HCPA. Hoje professor da UFRGS, o psiquiatra coordena uma equipe de mais de 20 pessoas que buscam compreender aspectos sociodemográficos e neurobiológicos associados ao risco de desenvolver depressão durante a adolescência. Mais recentemente, sua equipe foi contemplada pela organização britânica MQ com uma verba de pesquisa de £ 1 milhão (aproximadamente R$ 4,3 milhões). O valor foi concedido após Kieling e outros 30 pesquisadores do mundo todo terem se reunido por três dias em um hotel nos arredores de Londres para formar grupos e elaborar uma proposta de estudo em saúde mental. Ao final, os times defenderam suas ideias para uma banca, que definiu o destino do financiamento. n R.O.A.


São Paulo 93,7 mHz Ribeirão Preto 107,9 mHz

Pesquisa Brasil Toda sexta-feira, das 13 às 14h, você tem um encontro marcado com a ciência na Rádio USP FM. Reapresentação aos sábados, às 18h, e às quintas, às 2h da manhã Pesquisa Brasil traz notícias e entrevistas

A cada programa, três

Você também pode baixar

sobre ciência, tecnologia, meio

entrevistados falam sobre o

e ouvir o programa da semana e

ambiente e humanidades. Os temas são

desenvolvimento de pesquisas

os anteriores na página de

selecionados entre as reportagens da

e inovações e escolhem a

Pesquisa FAPESP na internet

revista Pesquisa FAPESP

programação musical

(revistapesquisa.fapesp.br/podcast)

Agora o programa também vai ao ar na Web Rádio UNICAMP Toda segunda, às 13h. www.rtv.unicamp.br


FAPESP oferece recursos para

Pesquisa em Pequenas Empresas em São Paulo Chamada de Propostas para o Programa FAPESP Pesquisa Inovativa em Pequenas Empresas (PIPE)

As solicitações de financiamento devem apresentar projetos de pesquisa a serem desenvolvidos em duas etapas: FASE 1 viabilidade tecnológica de produto ou processo. Duração máxima: 9 meses. Recursos: até R$ 200 mil FASE 2 desenvolvimento de produto ou processo inovador. Duração máxima: 24 meses. Recursos: até R$ 1 milhão

Condições para participação O proponente deve ser pesquisador vinculado a empresas com até 250 empregados e unidade de P&D no Estado de São Paulo n

n O proponente deve demonstrar conhecimento e As normas competência técnica no tema do projeto para submissão n A empresa não precisa estar formalmente de propostas constituída na submissão da proposta estão n A empresa deve oferecer condições adequadas disponíveis em fapesp.br/pipe para o desenvolvimento do projeto de pesquisa

A FAPESP reservou até R$ 15 milhões às propostas consideradas meritórias nesta chamada

Data-limite para apresentação de propostas 2 de maio de 2018

TIRE SUAS DÚVIDAS Participe do “Diálogo sobre apoio à pesquisa para inovação na Pequena Empresa”, reunião organizada pela FAPESP, CIESP, ANPEI e SIMPI para esclarecimentos sobre a Chamada de Propostas. 28 DE MARÇO DE 2018 das 9h às 12h na sede da FAPESP INSCRIÇÕES fapesp.br/eventos/ dialogo22018

Previsão de divulgação do resultado da chamada 22 de setembro de 2018

Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia

FAPESP – Rua Pio XI, 1500 – Alto da Lapa – São Paulo, SP – CEP 05468-901 • (11) 3838-4000 – www.fapesp.br


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.