www.revistapesquisa.fapesp.br
Preprints ganham espaço na biologia e nas ciências sociais abril de 2017 | Ano 18, n. 254
Estudo internacional destaca participação de mulheres na ciência brasileira Escritor João Antônio usou experiência na imprensa para retratar as classes baixas Cultura 3D preserva função das células em laboratório Entrevista
O físico Daniel Kleppner fala de seu trabalho, que levou ao GPS
por que
Ano 18 n.254
envelhecemos Acúmulo de lesões no DNA, produção excessiva de radicais livres e perda da capacidade de substituição das células danificadas provocam o declínio dos organismos
> Carreiras Dicas para escrever um bom projeto de pesquisa
COLEÇ ÃO
ENCADERNADA L I V R O S E M C A PA D U R A C O M T O D A S A S E D I Ç Õ E S L A N Ç A D A S N O S Ú LT I M O S 4 A N O S
À VENDA NO SITE CULTLOJA
R E V I S TA C U LT. C O M . B R 11
3385 3385 • 99998 9728
W H AT S A P P
A S S I N E @ R E V I S TA C U LT. C O M . B R
fotolab
A beleza do conhecimento em imagens
Sua pesquisa rende fotos bonitas? Mande para imagempesquisa@fapesp.br Seu trabalho poderá ser publicado na revista.
Isto não é uma tapioca O coral-sol tem grande capacidade de regeneração e um variado repertório reprodutivo. Essas características permitem que a espécie Tubastraea coccinea, originária do Indo-Pacífico, espalhe-se pela costa brasileira e cause danos às populações de corais nativos. A oceanógrafa Bruna Luz está caracterizando a espécie do ponto de vista genético, um conhecimento que poderá ajudar a entender o modo de vida desse organismo e possibilitar que seja usado como modelo em outras pesquisas.
Imagem enviada por Bruna Luz, estudante de doutorado na Universidade Federal do Paraná
PESQUISA FAPESP 254 | 3
abril 254
POLÍTICA DE C&T 32 Difusão Publicação de preprints ganha espaço em áreas como biologia e ciências sociais 37 Pesquisa & Desenvolvimento Universidades e empresas do Brasil cooperam intensamente em poucos setores, mostra artigo 40 Gênero Brasil se destaca em estudo internacional sobre produção científica de mulheres 44 Financiamento Instituto privado vai investir até R$ 18 milhões por ano em pesquisas no país CIÊNCIA
CAPA Pesquisas identificam fenômenos genéticos e moleculares ligados ao envelhecimento p. 18
46 Entrevista Experimentos do físico norte-americano Daniel Kleppner fundamentaram descobertas sobre o comportamento dos átomos e tecnologias como o GPS
50 Física Modelos matemáticos ajudam a entender como falhas se propagam nas redes elétricas e causam apagões 58 Citologia Cultura em ambiente tridimensional permite distinguir novas estruturas celulares 62 Zoologia Glândula na ponta dos espinhos produz o veneno da lagarta-de-fogo
HUMANIDADES 78 Geografia humana Condomínios e shopping centers acentuam a separação socioespacial em cidades médias 88 Literatura Projeto de João Antônio de retratar as classes baixas se beneficiou de atividade na imprensa
64 Paleontologia Fósseis indicam a existência de uma fauna desconhecida que viveu na região de Curitiba há 40 milhões de anos TECNOLOGIA 66 Agricultura Empresas investem na produção de vespas para combater doença dos laranjais 70 Pecuária Avanços da genética podem levar animais da raça nelore a ter carne mais macia 74 Pesquisa empresarial Dextra, desenvolvedora de softwares, busca a internacionalização
ENTREVISTA Regina Meyer Urbanista dedica-se a estudar a macrometrópole paulistana p. 26
Foto da capa baranozdemir / Getty images
www.revistapesquisa.fapesp.br No site de Pesquisa Fapesp estão disponíveis gratuitamente todos os textos da revista em português, inglês e espanhol, além de conteúdo exclusivo
SEÇÕES 3 Fotolab
vídeos youtube.com/user/pesquisafapesp
6 Cartas 7 Carta da editora 8 Boas práticas Personagem fictícia é admitida como editora em 48 revistas científicas Astronomia Alguns exoplanetas rochosos teriam crostas rígidas demais para abrigar vida p. 54
Artes visuais Onipresença da fotografia começou com a popularização das câmeras p. 84
11 Dados Número de engenheiros formados no Brasil entre 2000 e 2015
Pesquisadores da Escola de Engenharia de Lorena da USP testam ingredientes nacionais em busca de novos sabores de cerveja bit.ly/VCienciaCerveja
12 Notas 92 Memória Mulheres contribuíram para disseminar a psicanálise no Brasil 95 Carreiras Projeto de pesquisa bem escrito tem mais chances de conseguir recursos
Experiência com ratos indica quais vias neurais controlam o comportamento agressivo de predadores bit.ly/VCircuitoCaca
rádio bit.ly/PesquisaBr O arqueólogo Paulo DeBlasis relata aspectos do modo de vida de povos Jê revelados por escavações recentes no planalto de Santa Catarina bit.ly/ podPauloDeBlasis
Conteúdo a que a mensagem se refere:
comentários
cartas@fapesp.br
Revista impressa Reportagem on-line Galeria de imagens Vídeo
Literatura infantil
A reportagem de capa “Antes de Monteiro Lobato” (edição 253) ficou superinteressante e completa. Parabéns!
cionamento. Isso não ocorre lá porque o governo fornece os medicamentos e insumos que o paciente precisa. Gisele Figueiredo
Vera Esau Rádio
Câmara Brasileira do Livro São Paulo, SP
contatos revistapesquisa.fapesp.br redacao@fapesp.br PesquisaFapesp PesquisaFapesp pesquisa_fapesp
Pesquisa Fapesp
pesquisafapesp cartas@fapesp.br R. Joaquim Antunes, 727 10º andar CEP 05415-012 São Paulo, SP Assinaturas, renovação e mudança de endereço Envie um e-mail para assinaturaspesquisa@ fapesp.br ou ligue para (11) 3087-4237, de segunda a sexta, das 9h às 19h Para anunciar Contate: Paula Iliadis Por e-mail: publicidade@fapesp.br Por telefone: (11) 3087-4212 Edições anteriores Preço atual de capa acrescido do custo de postagem. Peça pelo e-mail: clair@fapesp.br Licenciamento de conteúdo Adquira os direitos de reprodução de textos e imagens de Pesquisa FAPESP. Por e-mail: mpiliadis@fapesp.br Por telefone: (11) 3087-4212
6 | abril DE 2017
Sistema de avaliação
Janes Jorge
Modelos como o descrito na reportagem “Engrenagem em movimento” (edição 252), sobre o novo sistema de avaliação da Universidade de São Paulo, poderiam e deveriam ser adotados também no ambiente corporativo. Metas e desafios devem estar sempre alinhados aos objetivos estratégicos da empresa, porém, têm de ponderar as especificidades e especialidades individuais dos colaboradores. Isso pouco se vê nos modelos corporativos.
Unifesp/Campus Guarulhos
Denis Komninakis
Quero parabenizar a revista pela reportagem de capa sobre a literatura infantil. Tema tão relevante do ponto de vista acadêmico e social foi abordado em um texto claro, informativo, agradável, articulado à iconografia e diagramação de qualidade. Dificilmente eu leria essa reportagem se não fosse a edição impressa de Pesquisa FAPESP. Aliás, nem as demais, também muito interessantes.
Guarulhos, SP
Serrapilheira
Zika
Que apareçam mais iniciativas privadas no Brasil de financiamento à ciência nesses moldes do Instituto Serrapilheira, instituição privada de Branca e João Moreira Salles (publicada on-line e nesta edição).
Sinto orgulho de fazer parte da linha de pesquisa que deu origem à reportagem “Estrutura de proteína essencial à replicação do vírus zika é desvendada” (publicada on-line), apesar de não ter participado do artigo. É bom trabalhar com amigos competentes.
Frank Wyllys Cabral Lira
Nathalya Mesquita
Demandas crescentes
Vídeo
A reportagem “Demandas crescentes” (edição 252) cita a França como exemplo de país em que não ocorre a “judicialização da saúde”, na qual um ex-ministro da Saúde brasileiro explica que os franceses não usam esse recurso pela consciência de que o governo tem suas limitações. Discordo desse posi-
A mais vista em março no Facebook webdoc
Amazônia
37.503 pessoas alcançadas 282 reações 422 compartilhamentos
Que vídeo espetacular (“Circuítos da caça”). Parabéns!
Esdley Moreira
Sua opinião é bem-vinda. As mensagens poderão ser resumidas por motivo de espaço e clareza.
fundação de amparo à pesquisa do estado de são Paulo
carta da editora
José Goldemberg Presidente Eduardo Moacyr Krieger vice-Presidente Conselho Superior Carmino Antonio de Souza, Eduardo Moacyr Krieger, fernando ferreira costa, João Fernando Gomes de Oliveira, joão grandino rodas, José Goldemberg, Marilza Vieira Cunha Rudge, José de Souza Martins, julio cezar durigan, Pedro Luiz Barreiros Passos, Pedro Wongtschowski, Suely Vilela Sampaio Conselho Técnico-Administrativo
Para entender o envelhecimento Alexandra Ozorio de Almeida |
diretora de redação
Carlos américo pacheco Diretor-presidente Carlos Henrique de Brito Cruz Diretor Científico
issn 1519-8774
Conselho editorial Carlos Henrique de Brito Cruz (Presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Maria Hermínia Tavares de Almeida, Marisa Lajolo, Maurício Tuffani, Mônica Teixeira comitê científico Luiz Henrique Lopes dos Santos (Presidente), Anamaria Aranha Camargo, Ana Maria Fonseca Almeida, Carlos Américo Pacheco, Carlos Eduardo Negrão, Fabio Kon, Francisco Antônio Bezerra Coutinho, Francisco Rafael Martins Laurindo, José Goldemberg, José Roberto de França Arruda, José Roberto Postali Parra, Lucio Angnes, Luiz Nunes de Oliveira, Marie-Anne Van Sluys, Maria Julia Manso Alves, Paula Montero, Roberto Marcondes Cesar Júnior, Sérgio Robles Reis Queiroz, Wagner Caradori do Amaral, Walter Colli Coordenador científico Luiz Henrique Lopes dos Santos diretora de redação Alexandra Ozorio de Almeida editor-chefe Neldson Marcolin Editores Fabrício Marques (Política), Marcos de Oliveira (Tecnologia), Ricardo Zorzetto (Ciência), Carlos Fioravanti e Marcos Pivetta (Editores especiais), Bruno de Pierro (Editor-assistente) revisão Alexandre Oliveira e Margô Negro arte Mayumi Okuyama (Editora), Ana Paula Campos (Editora de infografia), Júlia Cherem Rodrigues e Maria Cecilia Felli (Assistentes) fotógrafos Eduardo Cesar e Léo Ramos Chaves Mídias eletrônicas Fabrício Marques (Coordenador) Internet Pesquisa FAPESP online Maria Guimarães (Editora) Rodrigo de Oliveira Andrade (Repórter) Jayne Oliveira (Redatora) Renata Oliveira do Prado (Mídias sociais) banco de imagens Valter Rodrigues Colaboradores Bia Melo, Daniel Bueno, Diogo Freire, Domingos Zaparolli, Evanildo da Silveira, Igor Zolnerkevi, Márcio Ferrari, Maurício Puls, Nelson Provazi, Pedro Hamdan, Renato Pedrosa, Suryara Bernardi e Veridiana Scarpelli É proibida a reprodução total ou parcial de textos e fotos sem prévia autorização Para falar com a redação (11) 3087-4210 cartas@fapesp.br Para anunciar Paula Iliadis (11) 3087-4212 publicidade@fapesp.br Para assinar (11) 3087-4237 assinaturaspesquisa@fapesp.br Tiragem 23.900 exemplares IMPRESSão Plural Indústria Gráfica distribuição Dinap GESTÃO ADMINISTRATIVA INSTITUTO UNIEMP PESQUISA FAPESP Rua Joaquim Antunes, no 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP FAPESP Rua Pio XI, no 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia Governo do Estado de São Paulo
R
eportagens sobre envelhecimento atraem leitura, especialmente de quem procura burlar o destino de todo ser vivo. A humanidade já avançou muito em termos de longevidade, mas, para encontrar novas formas de adiar o envelhecimento, a ciência precisa entendê-lo – algo a que vem se dedicando de forma crescente há várias décadas. Um enorme corpo de pesquisas indica que são múltiplos os processos envolvidos no envelhecimento, e não um só. A reportagem de capa desta edição (página 18) apresenta as principais linhas de investigação sobre os mecanismos celulares e moleculares associados à senescência, com destaque para a participação brasileira. Dois processos importantes são a perda da capacidade de multiplicação das células, o que dificulta a renovação dos tecidos, e a diminuição da possibilidade de fazer autorreparos no DNA quando surgem defeitos. Outros envolvem organelas como as mitocôndrias, estruturas como os telômeros e o perfil genético de cada pessoa. Mais do que trazer respostas definitivas, o estado da arte da pesquisa ressalta a comple xidade do problema. Em outra escala, a de células cultivadas em laboratório, um novo conceito tem obtido sucesso: a cultura tridimensional. Em ambiente bidimensional, como uma placa de Petri, as células formam uma camada plana, distinta de sua organização no organismo vivo. A ideia de promover o cultivo suspenso em um meio de gel permitiu não apenas a proliferação das células, mas a reprodução de sua arquitetura. Reportagem à página 58 mostra como um grupo do Laboratório Nacional Lawrence Berkeley, usando a cultura tridimensional, identificou ligações físicas entre a informação genética no núcleo da célula e o ambiente celular,
ampliando o entendimento sobre as relações da célula com o meio que a cerca. Reportagens sobre lagartas-de-fogo com veneno nas pontas das cerdas e o uso de vespas para o controle biológico do greening, doença que afeta os laranjais, também compõem a edição, mas ela não se restringe à biologia. Em visita ao Brasil, o físico experimental Daniel Kleppner, do Massachusetts Institute of Technology, concedeu entrevista (página 46) na qual conta sobre suas pesquisas, que permitiram avanços como o Sistema de Posicionamento Global (GPS). Além de suas significativas contribuições para a física atômica, o pesquisador se dedicou à docência, defendendo que ensino e pesquisa andam juntos: “Ensinar deve ser um processo criativo, para encontrar novas maneiras de entender as coisas, o que também é parte do trabalho de pesquisa científica”. As fotografias no mundo atual são objeto de reportagem à página 84, que mostra como sua onipresença está vinculada não apenas à popularização das câmeras, mas também à ampliação do acesso às viagens turísticas. No final do século XIX, os novos meios de transporte e a concessão de férias remuneradas ampliaram o turismo – e as cobiçadas viagens não seriam completas sem o seu registro, tornando a câmera pessoal um objeto de desejo. O Instituto Serrapilheira, centro privado dedicado ao fomento de pesquisa nas ciências da vida, ciências físicas, engenharias e matemática, anunciou o início de suas atividades (página 44). A iniciativa do documentarista João Moreira Salles é um exemplo positivo de alocação de recursos privados para benefícios públicos, no caso, a pesquisa científica. Sendo bem-sucedido, o Serrapilheira poderá ser inspiração para outras iniciativas semelhantes. PESQUISA FAPESP 254 | 7
➭
Boas práticas
“Dra. Fraude” se candidata para vaga de editora Quarenta e oito publicações predatórias aceitaram uma personagem fictícia em seu corpo editorial
Representantes de conselhos editoriais de 360 revistas científicas de acesso aberto receberam em 2015 um e-mail de uma certa Anna Olga Szust, jovem professora do Instituto de Filosofia da Universidade Adam Mickiewicz, na Polônia. Na mensagem, ela se dispunha a atuar como editora das publicações, embora oferecesse escassas credenciais acadêmicas: no currículo, havia apenas alguns trabalhos apresentados em conferências e um capítulo de livro, cujo título sugeria que jovens mulheres nascidas na primavera seriam mais atraentes fisicamente do que as outras. Em pouco tempo, vieram respostas. Anna foi aceita como editora por 48 periódicos e quatro chegaram a convidá-la para assumir o posto de editora-chefe “sem responsabilidades”, como escreveu um dos interlocutores. Houve também uma oferta para ela ajudar a criar uma nova revista. A facilidade com que a inexperiente e desconhecida professora foi atendida já seria grave. O caso, porém, revela algo muito pior: 8 | abril DE 2017
Anna Olga Szust não existe. A inicial do nome do meio e o sobrenome, juntos, formam a palavra polonesa oszust, que pode ser traduzida como fraudador ou trapaceiro. A personagem foi criada por pesquisadores de universidades da Polônia, da Alemanha e do Reino Unido, que a apelidaram de “Dra. Fraude”, numa investigação sobre o modo de operar das chamadas revistas predatórias, como são conhecidas as publicações que divulgam papers sem submetê-los a uma genuína revisão por pares – basta pagar para ver o artigo publicado. “Anna foi criada justamente para ser uma péssima opção como editora”, disse à revista The New Yorker Katarzyna Pisanski, professora da Escola de Psicologia da Universidade de Sussex, no Reino Unido, uma das organizadoras do teste, coordenado por Piotr Sorokowski, pesquisador da Universidade de Wroclaw, na Polônia. O grupo publicou um artigo em março na Nature narrando a experiência – sem, contudo, revelar o nome das revistas. A frequência com que pesquisadores
ilustrações Veridiana Scarpelli
recebem convites por e-mail para integrarem o corpo editorial até mesmo de periódicos fora de sua área de especialização motivou o grupo a investigar o que havia de errado na forma de recrutamento. Os e-mails assinados pela “Dra. Fraude” foram enviados a 360 periódicos escolhidos aleatoriamente, parte deles indexados no Journal of Citation Reports (JCR), ligado ao Web of Knowledge, e parte no Diretório de Revistas de Acesso Aberto (Doaj, em inglês). Também serviu como base uma lista de revistas de acesso aberto suspeitas compilada por pesquisadores da Universidade do Colorado, nos Estados Unidos. Nenhuma revista indexada no JCR respondeu ao e-mail. O estudo mostra que, dos periódicos que responderam à mensagem, poucos questionaram Anna O. Szust sobre sua experiência. E nenhum fez qualquer tentativa de entrar em contato com a instituição com a qual a falsa pesquisadora manteria vínculo. O currículo da “Dra. Fraude” foi cuidadosamente construído pelos autores do estudo. O e-mail continha seus interesses acadêmicos, dentre os quais história da ciência e ciências cognitivas, endereço eletrônico, uma fotografia e link para sua página hospedada no site da Universidade Adam Mickiewicz. Também foram criadas contas em redes sociais, como o Google+, o Twitter e o Academia.edu. Pelo menos uma dúzia de revistas condicionaram a indicação de Anna como editora
a alguma forma de pagamento ou doação. Em alguns casos, foi exigido pagamento de uma taxa. Um periódico chegou a cobrar US$ 750, depois reduziu o valor para “apenas US$ 650”. Outros periódicos pediram à personagem que organizasse uma conferência e informaram que os trabalhos submetidos ao evento seriam publicados desde que os autores pagassem uma taxa. Um editor chegou a sugerir a partilha dos lucros: 60% para a revista e 40% para Anna. De acordo com a pesquisa, das oito revistas do Doaj que aceitaram Anna como editora, seis permanecem no diretório. Publicar em uma revista de acesso aberto de prestígio não custa barato. Revistas da Public Library of Science (PLOS), por exemplo, podem cobrar de US$ 1.495 a US$ 2.900 para publicar um artigo. “Já as revistas predatórias cobram muito menos, entre US$ 100 e US$ 400”, disse em entrevista a The New York Times Jeffrey Beall, bibliotecário da Universidade do Colorado, criador de uma lista de publicações predatórias utilizadas no estudo. Na avaliação de Beall, a responsabilidade não deve recair apenas sobre os editores predatórios, pois a maioria dos pesquisadores que paga para publicar em revistas de baixo nível sabe exatamente o que está fazendo. “Acredito que há inúmeros pesquisadores que conseguiram emprego ou promoções valendo-se
de artigos que publicam nesse tipo de revista, atribuindo essa produção científica como parte de suas credenciais acadêmicas”, criticou. David Crotty, diretor da editora Oxford University Press, concorda que as revistas predatórias se tornaram mais presentes porque satisfazem uma necessidade de mercado. “Os editores predatórios de fato agem de maneira desonesta e enganosa, mas, ao mesmo tempo, atendem ao desejo de alguns autores de enganar os responsáveis pela avaliação de seu desempenho”, escreveu Crotty em artigo publicado em fevereiro no portal The Scholarly Kitchen. Enquanto os periódicos considerados legítimos, que se baseiam na revisão por pares, costumam demorar meses ou até mais de um ano para analisar e aceitar ou rejeitar um artigo para publicação, as revistas predatórias reduzem esse tempo a poucas semanas, ao adotarem um sistema de seleção frouxo ou inexistente. Algumas instituições começam a propor ações para coibir o avanço das revistas predatórias. A Associação Mundial de Editores Médicos (Wame) divulgou no dia 18 de fevereiro um alerta no qual afirma que instituições científicas e centros de pesquisa precisam começar a monitorar pesquisadores que atuem como editores ou membros de conselhos editoriais de publicações suspeitas. Como medida punitiva, sugere às instituições o afastamento deles. Um estudo recentemente publicado na revista BMC Medicine também destacou a necessidade de organizações científicas e de ensino serem mais rígidas com pesquisadores que corroboram as práticas das publicações predatórias. No estudo, os autores, entre eles Virginia Barbour, presidente do Committee on Publication Ethics (Cope), chama a atenção para os perigos da ação dessas revistas na área médica. “Quando não submetida ao escrutínio rigoroso da revisão por pares, a pesquisa clínica de baixa qualidade pode ter seus resultados incluídos, por exemplo, em um trabalho de revisão, poluindo o registro científico. Em biomedicina, isso pode resultar em danos aos pacientes”, conclui o estudo. PESQUISA FAPESP 254 | 9
Uma proposta feita por instituições científicas da Austrália reacendeu o debate sobre as definições de má conduta científica, usualmente restritas a casos de fraude, falsificação de dados e plágio. A ideia é adotar uma descrição mais ampla para irregularidades praticadas por pesquisadores, eliminando o termo “má conduta” do Código australiano para a conduta responsável em pesquisa, que atualmente passa por revisão. O guia foi originalmente lançado em 2007 pelo Conselho Nacional de Saúde e Pesquisa Médica da Austrália (NHMRC, em inglês), pelo Conselho Australiano de Pesquisa (ARC) e pela organização Universities Australia, que reúne 39 universidades. As entidades argumentam que o fato de não existir uma definição de má conduta científica adotada internacionalmente dificulta a padronização de investigações e de diretrizes de boas práticas. Diante disso, sugerem que o termo seja substituído por “violações do código”. De acordo com a proposta, que esteve aberta para consulta pública até 28 de fevereiro, a mudança busca incentivar a comunicação de todos os tipos possíveis de falha, e não apenas as formas mais extremas de má conduta, como a fabricação de dados deliberada. Outro objetivo é mesmo evitar o termo “má conduta”, o qual, segundo a proposta apresentada pelas entidades, é pejorativo. A ideia atraiu críticas. Teme-se, por exemplo, que a medida possa tornar menos rigorosas as políticas e ações para coibir práticas fraudulentas, levando cada instituição a adotar sua própria definição de má conduta. “É equivocado justificar a exclusão do termo com o argumento de que não há uma definição universalmente aceita de má conduta”, escreveu Kerry Breen, médico aposentado em Melbourne e membro do NHMRC, 10 | abril DE 2017
que participou da criação do código australiano em 2007, em um comunicado enviado para a entidade e divulgado pelo site Retraction Watch. “A adoção do termo ‘violação’ parece-me incrivelmente arbitrária e baseada unicamente na sua utilização corrente no Canadá”, comentou Breen, referindo-se ao código estabelecido pelo Secretariado de Conduta Responsável em Pesquisa do governo canadense (SRCR, na sigla em inglês). De fato, o código do Canadá passou em 2016 por uma reformulação e o termo “má conduta” foi substituído por “violação”. Segundo a nova versão, o importante não é determinar se a falha foi intencional ou resultado apenas de um erro, mas sim promover medidas para que as violações não se repitam. De acordo com a advogada Susan Zimmerman, diretora do SRCR, era preciso adotar uma concepção mais ampla para que outros tipos de falha fossem considerados em investigações. “Algumas violações são fruto de esquecimento ou falta de atenção. Ainda assim,
ilustração bia melo
Definições de má conduta em debate
podem ter um efeito prejudicial sobre a integridade científica e minar a confiança do público e de governos na pesquisa. Portanto, precisamos nos preocupar com uma gama mais ampla e diversa de atividades do que simplesmente a má conduta intencional”, disse Susan Zimmerman à Pesquisa FAPESP.
Transparência sobre artigos retratados O Journal of Process Management – New Technologies International, periódico de acesso aberto sediado na Sérvia, disponibilizou em sua página na internet (www.japmnt. com) uma lista com os seus artigos que foram alvo de retratação, ou seja, que tiveram a publicação cancelada por conter erros ou irregularidades. De acordo com o blog Retraction Watch, que divulga casos de má conduta em vários países, a decisão de criar um espaço exclusivo para reunir suas retratações é inédita e busca coibir novos abusos. A revista existe desde 2013 e não está indexada no banco de dados Web of Science (WoS).
Até o final de março, a lista continha cinco artigos, todos retratados em 2016, juntamente com as notificações de retratação e os links remetendo ao paper original. Os casos são de plágio. Questionado pelo Retraction Watch sobre as razões de listar artigos retratados, Predrag Trajković, editor-chefe do periódico, disse que a lista é uma tentativa de dissuadir os autores de cometer plágio. “Uma lista é algo que os pesquisadores podem facilmente acessar e visualizar. Eles não vão submeter artigos com plágio sabendo que tais trabalhos poderão ser expostos no site”, disse Trajković.
Dados
Aumento expressivo de engenheiros
82.363
Concluintes por categoria administrativa (2000-2015) De 2000 a 2015 houve um crescimento de 360% no número de engenheiros formados no Brasil. 67.818
O setor privado liderou o processo, ampliando em quase 600% a quantidade de formandos na área, no período. Os sistemas federal e estadual cresceram 185% e 139%, respectivamente, e o sistema municipal teve pequena participação 54.042 44.775
n Federal n Estadual n Municipal n Privado n Total
40.921 37.277 29.955
17.634
17.777
8.401 346
8.228 395
2.721
19.602 9.087
21.530 10.301
23.502 10.969 755
26.331 13.350
16.090
31.689
31.943
16.420
16.510
5.262
5.222
9.470
9.938
10.768
11.593
2008
2009
2010
2011
4.435
4.611
549
2.843
3.046
6.166
6.311
7.003
7.634
7.875
8.219
8.832
9.294
2000
2001
2002
2003
2004
2005
2006
2007
3.903
1.087
4.284
4.128
343 3.169
33.441
26.404
5.691
1.352
749
45.527 40.420
23.974
957
1.540
634
20.944
58.032
60.576
1.133
2.164
467
6.050
5.923
12.387
13.766
2012
2013
410 6.122
264 6.514
15.759
17.553
2014
2015
Taxa de conclusões de curso Razão (em %) entre o número de concluintes sobre o número de ingressantes de seis anos antes Os 82,4 mil engenheiros formados em 2015 representam 51% do número de ingressantes de 2010. Esse índice é uma estimativa da fração de ingressantes que concluíram seus cursos. Os sistemas estaduais apresentaram índice de conclusão de 68%. No sistema privado passou de valores entre 40% e 46% até 2008, no período considerado, para valores acima de 50% desde
Da participação de 48% do total em 2000, o sistema privado atingiu, em 2015, 71% do total de concluintes em programas de engenharia. Instituições com fins lucrativos formaram mais de 30% dos engenheiros, ou 24,7 mil do total de 82,4 mil, participação que era de 24% em 2014, apenas um ano antes
2009. Já o sistema federal vem experimentando queda desde 2011, atingindo 47% em 2015 n Federal n Estadual n Privado n Total
80 70
68%
60
52%
50
51% 47%
40 30 20 10
ilustrações freepik.com
0 2005/ 2000
2007/ 2002
2009/ 2004
2011/ 2006
2013/ 2008
2015/ 2010
Fontes e metodologia Brasil – Censo da Educação Superior, 2000-2015, INEP/MEC; EUA – www.asee.org/papers-and-publications/publications/college-profiles/15EngineeringbytheNumbersPart1.pdf; Alemanha e Reino Unido, estimativas de dados da Eurostat (cerca de 70% de todos os formados nas áreas de engenharias e construção, que incluem programas de tecnologia associados à engenharia) – http://ec.europa.eu/ eurostat/statistics-explained/index.php/Tertiary_education_statistics
Notas Mulheres nos simpósios da Magna Grécia O simpósio dos gregos antigos, uma reunião social embalada por vinho, comida, discussões (filosóficas e mundanas) e entretenimento a cargo de escravos, era frequentado exclusivamente por homens livres. Em partes da Magna Grécia, como era chamado o sul da península itálica colonizado pelos helenos, os costumes parecem ter sido mais liberais. Estudo feito pelas arqueólogas italianas Chiara Albanesi, da Universidade da Basilicata, e Ilaria Battiloro, da Universidade Mount Allison 1
(Canadá), sugere que mulheres de alta reputação social também participavam dos simpósios da Lucânia, região hoje equivalente à Basilicata (Mouseion, v. 14, n. 1, 2017). Elas analisaram artefatos encontrados em 18 tumbas dos séculos IV e III a.C. atribuídas a mulheres de alto prestígio da Lucânia e constataram a presença de objetos ligados ao consumo de vinho, como copos, ânforas e crateras (vasos largos usados para misturar água e vinho). Também foram achados objetos típicos do universo feminino, como joias, utensílios de tecelagem e vasos nupciais denominados lebes gamikòs. Como os túmulos de membros de famílias abastadas da Antiguidade refletiam seus gostos e hábitos, as pesquisadoras argumentam que é razoável supor que essas mulheres tenham participado de simpósios. “Embora a maior parte da informação disponível venha da sociedade ateniense, as atividades nos simpósios eram uma prerrogativa dos homens no mundo grego em geral”, explica Ilaria.
Vaso nupcial de tumba da antiga Lucânia, onde mulheres participariam de eventos normalmente restritos a homens
“Das comunidades do Sul da Itália, a Apúlia é a única, além da Lucânia, que tem evidência arqueológica documentada de que as mulheres podem ter participado de banquetes comunais.” Os etruscos, povo que então dominava a área da atual Toscana, permitiam que mulheres tomassem parte de seus simpósios, liberalidade que pode ter chegado aos habitantes do sul da península via trocas comerciais.
Físico Marcelo Knobel será novo reitor da Unicamp
2
Knobel deverá tomar posse no mês de abril 12 | abril DE 2017
O governador Geraldo Alckmin nomeou o
Instituto de Magnetismo Aplicado, na Es-
físico Marcelo Knobel como novo reitor da
panha. Knobel ocupará o cargo por quatro
Universidade E stadual de C ampinas
anos. Uma de suas prioridades do manda-
(Unicamp). O nome de Knobel recebeu
to será enfrentar a crise financeira da
52,6% dos votos do colégio eleitoral e en-
Unicamp, que terminou 2016 com um dé-
cabeçava a lista tríplice encaminhada ao
ficit de R$ 253,9 milhões. “Num primeiro
governador, que tem prerrogativa de esco-
momento, será necessário rever contratos
lha. A posse está programada para o dia 19
e otimizar recursos e, posteriormente, es-
de abril. Aos 48 anos, Knobel é professor
treitar as negociações com o governo do
do Instituto de Física Gleb Wataghin e era
estado”, explica Knobel. Um tópico que o
coordenador adjunto de Colaborações em
novo reitor pretende discutir com o gover-
Pesquisa da FAPESP até 2017. Doutorou-se
no é sobre o complexo hospitalar da
em ciências pela Unicamp e fez pós-dou-
Unicamp, que atende a macrorregião de
torado no antigo Instituto Eletrotécnico
Campinas. O complexo consome 20% dos
Nacional Galileo Ferraris, na Itália, e no
recursos do orçamento da instituição.
SBPC defende Associação Brasileira de Antropologia, acusada por CPI do Congresso de fazer estudos que favorecem indígenas
3
fotos 1 Sailko/Wikimedia Commons 2 gustavo martins moreno / cnpem 3 Sérgio Vale/Secom 4 cem / daniel waldvogel
Mapa das linhas de ônibus de São Paulo
Deputados versus antropólogos
responsáveis pelos trajetos. Para viabilizar o projeto, o cientista político Marcos Campos
A Sociedade Brasileira para o Progresso da Ciência
e o geógrafo Daniel
(SBPC) enviou uma carta ao Congresso Nacional em
Os estudiosos de
Waldvogel, do CEM,
defesa da Associação Brasileira de Antropologia (ABA),
questões urbanas
usaram dados
ameaçada de ter o sigilo fiscal e bancário quebrado
ligadas ao transporte
disponibilizados pelo site
pela Comissão Parlamentar de Inquérito (CPI) da Fun-
coletivo têm uma nova
da São Paulo Transporte
dação Nacional do Índio (Funai) e do Instituto Nacional
ferramenta on-line para
(SPTrans), autarquia
de Colonização e Reforma Agrária (Incra). A associação
analisar características
que gerencia as linhas
e outras organizações não governamentais são acu-
das linhas municipais de
de ônibus do município,
sadas de influenciar processos de demarcação de ter-
ônibus que cruzam a
todas operadas por
ras por meio de estudos feitos sob encomenda e de
cidade de São Paulo. De
empresas privadas,
receber “dinheiro do exterior”. O pedido de quebra de
forma gratuita, mediante
e recorreram à lei de
sigilo foi feito no dia 8 de março pelo deputado federal
cadastro, o Centro de
acesso à informação
Nilson Leitão (PSDB-MT) e aguarda votação. Presiden-
Estudos da Metrópole
para completar o
te da Frente Parlamentar da Agropecuária, Leitão
(CEM) passou a
levantamento. Foi
argumentou em nota que “há fortes indícios de uma
disponibilizar em seu site
utilizado o Sistema de
<http://www.fflch.usp.
Informação Geográfico
br/centrodametropole/>
(SIG) do CEM para
um banco de dados
transformar o banco de
georreferenciado sobre
dados em um arquivo
as 2.349 linhas que
cartográfico digital.
estratégia conjunta de uma rede de ONGs patrocinadas por fundações e governos estrangeiros mobilizando
Traçado georreferenciado do itinerário de ônibus em trecho da capital paulista
indígenas a invadir áreas privadas e, mediante atos de violência, pressionar a demarcação de áreas onde não há ocupação tradicional de indígenas, o que contraria a Constituição Federal de 1988”. De acordo com Lia Zanotta Machado, professora da Universidade de Bra-
operavam na capital paulista em setembro de
4
sília (UnB) e presidente da ABA, as acusações são gra-
2015. O banco traz
ves e infundadas, uma vez que a entidade não produz
informações como
estudos para a Funai e o Incra. “Somos procurados pelo
itinerário, horário de
Ministério Público e por juízes que atuam em casos de
funcionamento,
demarcação de terras. A associação disponibiliza listas
extensão e data de
com nomes de especialistas para auxiliar magistrados
criação das linhas,
a tomarem suas decisões com base em informações
média dos passageiros
científicas”, esclarece. Ela explica que esse é um pro-
transportados por dia,
cedimento normal e que a decisão final cabe aos juízes.
tamanho da frota
“A associação, como várias outras instituições cientí-
utilizada, forma
ficas e universidades, recebe financiamento de funda-
de pagamento,
ções de apoio estrangeiras. A ABA tem projetos finan-
gratuidades oferecidas
ciados pela Fundação Ford, dos Estados Unidos, que
pelo sistema e empresas
também apoia seminários realizados pela entidade.” PESQUISA FAPESP 254 | 13
1
Reclassificando dinossauros A fosfo falha no teste
Em cinco minutos, um modelo computacional formulado por um aluno de doutorado da Universidade de Cambridge, o paleontólogo Matthew Baron, comparou dados referentes a 457 traços anatômicos de 74 espécies de dinossauros. Polêmico, o resultado
“Nas doses em que
da análise refutou boa parte do conhecimento acumula-
estávamos estudando, o
do nos últimos 130 anos sobre esses répteis que viveram entre
produto não é eficiente
240 e 66 milhões de anos atrás (Nature, 23 de março). De acor-
o suficiente para ser
do com o estudo, que propõe novos graus de parentesco entre
recomendado.” Foi assim
essas espécies e esboçou rearranjos em sua árvore evolutiva, os
que o médico Paulo Hoff,
dinossauros não devem ser divididos em dois grandes grupos
diretor-geral do Instituto
como é feito tradicionalmente. Os livros de paleontologia sepa-
do Câncer do Estado de
ram esses répteis em Ornithischia, animais com o quadril seme-
São Paulo (Icesp),
lhante ao das aves, e Saurischia, com essa estrutura anatômica
justificou a interrupção
parecida com a de lagartos. Os do primeiro tipo reúnem apenas
dos testes clínicos com a
dinossauros herbívoros, muitos com placas no dorso, como o
fosfoetanolamina, a
tricerátopo e o estegossauro. A segunda divisão abrange os te-
chamada “pílula do
rópodes (dinossauros bípedes e carnívoros), como o conhecido
câncer”, durante coletiva
tiranossauro, e um conjunto de grandes herbívoros de pescoço
de imprensa realizada no
longo, os sauropodomorfos. Paradoxalmente, as aves atuais
dia 31 de março.
descendem do grupo dos Saurischia, e não dos Ornithischia.
O estudo foi iniciado em
Defendida por Baron, a nova classificação sugere que os terópo-
julho de 2016 e, em uma
des sejam reunidos com os Ornithischia em um grupo denomi-
primeira fase, permitiu
nado Ornithoscelida e que os sauropodomorfos sejam unidos aos
determinar que a
herrerassaurídeos, um dos primeiros tipos conhecidos de dinos-
substância não era
sauro, em um redesenhado grupo Saurischia. Outro ponto polê-
tóxica. De lá para cá, a
mico do trabalho diz respeito ao suposto local de origem dos
medicação foi dada a 72
dinossauros. Atualmente o material fóssil aponta para a América
pacientes com 10 tipos
do Sul como o berço desses répteis, mas o trabalho de Baron
diferentes de tumor, dos
sustenta que eles podem ter surgido no hemisfério Norte, talvez
quais 59 já passaram
onde hoje está a Escócia.
por reavaliação. Apenas um deles, que tem melanoma, apresentou uma resposta parcial depois de duas reavaliações e continuará no estudo. Entre os 21 portadores de câncer colorretal, o tipo em que foi possível reunir um número maior de voluntários, nenhum teve a resposta esperada conforme padrões internacionais: uma redução de pelo menos 30% nas lesões
2
14 | abril DE 2017
Nova proposta altera a posição na árvore genealógica de vários dinossauros, como o tiranossauro (alto) e o tricerátopo (acima)
tumorais. Com esses resultados, a equipe do Icesp considera pouco ética a inclusão de novos pacientes no estudo.
fotos 1 Wikimedia Commons 2 Allie_Caulfield / Wikimedia Commons 3 Giant Magellan Telescope – GMTO Corporation 4ANDRÉ GODOY / USP
São Paulo cria rede de astronomia Uma aliança para impulsionar a pesquisa em astronomia
se mantendo acima da média mundial nos últimos cinco
e o desenvolvimento de instrumentação astronômica.
anos. Muitos desses pesquisadores colaboram com alguns
Esse é o mote da Rede Paulista de Astronomia, a SPAnet,
dos principais projetos internacionais da área, como o
lançada oficialmente em 16 de março em evento na sede
Telescópio Gigante Magalhães, o GMT, no Chile, previsto
da FAPESP. “O objetivo é criar uma conexão entre os
para entrar em operação em 2022. A SPAnet pretende
pesquisadores e dar mais visibilidade para a astronomia
aumentar a colaboração entre os astrônomos paulistas,
dentro do estado”, explica o coordenador da SPAnet, o
promovendo cursos, workshops, compartilhamento de
astrofísico Laerte Sodré Júnior, diretor do Instituto de
recursos e infraestrutura. Além da pesquisa acadêmica,
Astronomia, Geofísica e Ciências Atmosféricas da Uni-
a rede quer incentivar a participação de empresas pau-
versidade de São Paulo (IAG-USP). Cerca de 160 pesqui-
listas de tecnologia no desenvolvimento de instrumen-
sadores de várias instituições paulistas atuam em astro-
tação astronômica. A iniciativa também planeja estimu-
nomia. Juntos, eles produzem mais de 500 artigos
lar projetos de educação e de divulgação científica sobre
científicos por ano, cerca 2,2% do total dos papers sobre
astrofísica no estado. “Vamos estabelecer uma estraté-
astronomia publicados todo ano no mundo. O impacto
gia para cada frente: ciência, tecnologia e educação”,
dessa produção, medido pelo número de citações, vem
explica Sodré.
A SPAnet quer unir os astrofísicos do estado que participam de grandes projetos internacionais como o supertelescópio GMT
3
Modelo tridimensional contra zika No combate à febre zika, muitos grupos
essa estrutura em mãos, os pesquisadores
de pesquisa escolheram como alvo a pro-
esperam que ocorra uma corrida para en-
teína NS5, produzida pelo vírus e principal
contrar uma forma de impedir seu funcio-
responsável pela sua própria replicação,
namento e, quem sabe, produzir um me-
uma vez que infecta as células. Um grupo
dicamento que possa ser usado após a
liderado pelo físico Glaucius Oliva, do Ins-
picada do mosquito ou logo que os sinto-
tituto de Física de São Carlos da Univer-
mas aparecerem, de maneira a prevenir a
sidade de São Paulo (IFSC-USP) e coorde-
doença ou pelo menos acelerar a recupe-
nador do Centro de Pesquisa e Inovação
ração e reduzir os danos. “Buscamos o
em Biodiversidade e Fármacos (CIBFar),
desenvolvimento de fármacos por meio
conseguiu produzir cristais dessa proteína
da modelagem de moléculas que interagem
e desvendar a estrutura tridimensional da
com receptores específicos”, conta Oliva.
molécula com grande precisão quanto aos
O CIBFar é um dos Centros de Pesquisa,
milhares de átomos que a compõem (Na-
Inovação e Difusão (Cepid) financiados
ture Communications, 27 de março). Com
pela FAPESP.
4
A estrutura tridimensional da NS5 é descrita como uma mão, com palma, polegar e três dedos PESQUISA FAPESP 254 | 15
A matemática caótica do redemoinho Em um artigo publicado há 55 anos, Edward Lorenz, professor de meteorologia do Instituto de Tecnologia de Massachusetts (MIT), argumentava que forças tênues poderiam influenciar o clima e desdobrar-se em eventos catastróficos. Entender a resposta da atmosfera e dos mares a essas pequenas forças ajuda os
1
Fluxos turbulentos que podem gerar redemoinhos de ar apresentam padrões recorrentes
pesquisadores a explicar como os enormes redemoinhos de tornados se desenvolvem a partir da combinação turbulenta de pequenos redemoinhos de ar. Mas continua sendo
Trump quer reduzir em 18% o orçamento dos Institutos Nacionais de Saúde
e quando essa dinâmica
O governo do presidente norte-americano,
diretor de assuntos internacionais da Socie-
turbulenta levará a
Donald Trump, anunciou que pretende cortar
dade Americana de Microbiologia em entre-
tempestades. Agora uma
em 18% o orçamento dos Institutos Nacionais
vista à revista Nature, que se manifestou
equipe coordenada por
de Saúde (NIH) no próximo ano fiscal. A prin-
contrária à proposta em um editorial publica-
Michael Schatz, do
cipal agência de pesquisa médica do país
do em 17 de março. Em uma audiência na Casa
Instituto de Tecnologia
poderá perder US$ 5,8 bilhões. Seu atual
dos Representantes dos Estados Unidos, a
da Geórgia, formulou
orçamento é da ordem de US$ 32 bilhões. O
Câmara dos Deputados do país, o secretário
previsões computacionais
anúncio foi feito em 29 de março, poucos dias
de Saúde e Serviços Sociais, Tom Price, reco-
das etapas que compõem
depois de Trump enviar ao Congresso sua
nheceu que o papel desempenhado pelos NIH
esse tipo de movimento
proposta de orçamento, com restrições a ou-
é “incrivelmente importante”, mas argumen-
turbulento, por meio de
tros órgãos da administração que investem
tou que o orçamento da agência pode ser
equações matemáticas
em pesquisa, como o Departamento de Ener-
reduzido a fim de evitar ineficiências. “Cerca
que descrevem fluxos de
gia e a Nasa (ver tabela). O plano, que enfren-
de 30% dos recursos do NIH acabam sendo
fluidos (Physical Review
ta resistências e ainda precisa ser votado no
aplicados para cobrir despesas indiretas dos
Letters, 15 de março).
Senado, causou consternação na comunida-
projetos”, disse Price. Na proposta do gover-
Analisando milhares de
de científica. “Cortar o financiamento da pes-
no, os únicos departamentos cujo orçamento
imagens de um fluxo
quisa é o mesmo que cortar os motores de
pode aumentar são os de Segurança Interna,
turbulento bidimensional
um avião em sua decolagem”, disse Jason Rao,
de Defesa e o de Assuntos dos Veteranos.
fotos 1 NASA/SVS 2 léo ramos chaves
impossível prever onde
produzido em laboratório, Schatz identificou padrões recorrentes. Esses modelos assinalam as condições em que os redemoinhos crescem
Proposta de orçamento para 2018 (em bilhões de dólares, para alguns setores da administração)
Agência de Proteção Ambiental
77,7
– 31% – 21% – 16%
68,2
– 14%
Depto. de Educação
8,2 22,6
ou diminuem e ajudam a prever sua evolução. A matemática por trás desses padrões se parece
29,7 19,2 74,5
com a que descreve o movimento caótico de um pêndulo invertido. 16 | abril DE 2017
Comparação com orçamento de 2017
41,3 521,7 Fonte New york times com dados da casa branca
Departamento de Agricultura Depto. de Saúde e Serviços Sociais
– 6%
Depto. de Energia
– 1%
Nasa
6%
Depto. de Assuntos dos Veteranos
7%
Depto. de Segurança Interna
10%
Depto. de Defesa
Nova datação é baseada em análises de sedimentos oriundos de um furo de sondagem para exploração de petróleo na foz do rio
Idade do rio Amazonas é estimada em 9 milhões de anos O rio Amazonas é tão grande e complexo que frequentemen-
profundidade de 4,5 quilômetros abaixo do leito do mar e se
te seus atributos são alvo de debates e redefinições. Se não
situa no chamado leque submarino do Amazonas, onde os
há dúvida de que é o mais volumoso curso d’água doce da
sedimentos transportados pelo rio são depositados. Por isso,
Terra, perduram as discussões sobre se ele é mais extenso do
a área é considerada como importante para se determinar
que o Nilo, normalmente citado como o maior rio do planeta.
com precisão a história evolutiva do rio, que nasce nos Andes
A idade exata do surgimento do Amazonas é outro ponto de
peruanos e atravessa o norte da América do Sul. “Conseguimos
discórdia. Um novo estudo de pesquisadores holandeses e
reduzir as incertezas sobre o intervalo de tempo em que o
brasileiros estima que o rio se formou entre 9,4 e 9 milhões
Amazonas se formou”, diz a geóloga Carina Hoorn, da Uni-
de anos atrás, e não há 3 milhões de anos, como alguns tra-
versidade de Amsterdã, principal autora do trabalho. Também
balhos recentes defendem (Global and Planetary Change, 20
participou da pesquisa uma equipe da Universidade de Bra-
de março). A datação é baseada em análises geoquímicas e
sília (UnB), coordenada pelo geólogo Farid Chemale Jr. Uma
palinológicas (de grãos de pólen e esporos de plantas) feitas
análise anterior feita em 2009 por Carina e outros colabora-
em sedimentos oriundos de um furo de sondagem para ex-
dores, com material dessa mesma sondagem submarina,
ploração de petróleo na foz do Amazonas, quando o rio de-
havia chegado a uma idade estimada de 11 milhões de anos
ságua no Atlântico na costa do Pará. O furo chega a uma
para o Amazonas, estimativa agora revista. PESQUISA FAPESP 254 | 17
capa
Os mecanismos do envelhecimento Estudos com células e organismos vivos identificam fenômenos genéticos e moleculares associados ao declínio físico e mental Marcos Pivetta e Ricardo Zorzetto
léo ramos chaves
N
unca um número tão grande de pessoas viveu tanto. Dos bebês que nascem hoje, mais da metade deve completar 65 anos e viver quase duas décadas a mais do que as pessoas nascidas em meados do século passado. O aumento da longevidade da população mundial e a redução da fertilidade estão fazendo o mundo envelhecer rapidamente. Projeções do documento Developing in an ageing world, publicado em 2007 pela Organização das Nações Unidas (ONU), indicam que em 2050 haverá cerca de 2 bilhões de pessoas com 60 anos ou mais no planeta (22% do total) – em 2005 eram 670 milhões, ou 10% da população. O aumento da expectativa de vida também traz problemas. Um deles é o aumento rápido da proporção de idosos em muitos países – entre eles, o Brasil. Na França, passaram-se quase 150 anos para que o número relativo de idosos subisse de 10% para 20% da população. Nesse tempo, o país enriqueceu e melhorou as condições de vida das pessoas. China, Brasil e Índia passarão por algo semelhante em 25 anos (ver gráfico na página 21). Hoje há 26 milhões de idosos (12,5% da população) no Brasil. Segundo projeções do Instituto Brasileiro de Geografia e Estatística (IBGE), os idosos serão 29% em 2050, quando esse grupo somará 66 milhões de indivíduos. “O Brasil está envelhecendo na contramão”, afirma o médico e epidemio-
logista carioca Alexandre Kalache, que dirigiu por 13 anos o Programa Global de Envelhecimento e Saúde da Organização Mundial da Saúde (OMS) e hoje preside a seção brasileira do International Longevity Centre (ILC), uma organização sem fins lucrativos que investiga o envelhecimento populacional e estratégias de adaptação dos países à chamada revolução da terceira idade. “Já temos problemas de saúde, emprego, educação, saneamento e também teremos de lidar com uma população formada por um grande número de idosos.” As doenças associadas ao envelhecimento devem se tornar mais comuns, ao mesmo tempo que mais gente viverá com saúde por mais tempo, mudando o panorama laboral, que exigirá mais flexibilidade e capacidade de adaptação de pessoas, empresas e Estado. “As cidades terão de se preparar para esse novo cenário, criando políticas de moradia, transporte, participação social, trabalho e educação que levem em consideração o idoso”, alerta o epidemiologista. Em paralelo a essas mudanças, ocorreu ao longo do último século um avanço jamais visto na compreensão das causas do envelhecimento. Uma busca simples com as palavras-chave ageing ou aging em uma das maiores e mais importantes bases de artigos científicos na área da saúde, o Pubmed, encontra cerca de 384 mil papers sobre o assunto publicados de 1925 a 2016 (ver gráfico na página 23). PESQUISA FAPESP 254 | 19
Em uma revisão publicada em 2013 na revista Cell intitulada The hallmarks of aging, pesquisadores da Espanha e da França apresentam uma síntese do que se sabe sobre os mecanismos celulares e moleculares – as causas mais profundas – do envelhecimento. Esta reportagem revisita os principais tópicos do assunto e apresenta avanços, inclusive com a participação de brasileiros.
Os genes e o tempo
u
ma “boa genética” é talvez o fator biológico mais associado à longevidade. Experimentos envolvendo a manipulação de genes estenderam de forma significativa o tempo de vida de organismos considerados modelos, como leveduras, moscas, vermes e até mamíferos. A intervenção molecular foi bem-sucedida no verme Caenorhabditis elegans, um nematoide com 1 milímetro de comprimento cujo genoma foi sequenciado em 1998. Em vez de durar duas ou três semanas, o verme passou a viver de 145 a 190 dias depois que alguns de seus genes foram alterados. Com o camundongo (Mus musculus), talvez o melhor amigo de laboratório do ser humano, os resultados são mais modestos, mas igualmente positivos. Intervenções no genoma prolongam em um ano a longevidade do roedor, que é de quase dois anos. Esses resultados levam alguns biólogos moleculares e geneticistas a defender a ideia de que a senescência é um processo dotado de plasticidade, controlável em certa medida. “Podemos acelerar ou retardar o envelhecimento nos animais”, diz o biólogo português João Pedro Magalhães, chefe do Grupo de Genômica Integrada do Envelhecimento da Universidade de Liverpool, na Inglaterra. “O próximo passo é fazer isso no ser humano.” Segundo Magalhães, os estudos com organismos-modelo já identificaram uns 2 mil genes capazes de regular o envelhecimento. Uma das estratégias dessa busca por viver mais e melhor é procurar mecanismos celulares e moleculares associados a uma boa velhice em quem é extremamente longevo. Magalhães coordenou em 2015 o sequenciamento do genoma da baleia-da-groenlândia (Balaena mysticetus), o mamífero mais resiliente à passagem do tempo. Com 18 metros de comprimento e 100 toneladas, esse cetáceo do Ártico pode ter em seu DNA pistas sobre como contornar o câncer e sobreviver por dois séculos. O trabalho, publicado na Cell Reports, mostra alterações em um gene ligado à termorregulação, que pode ser importante para entender o baixo metabolismo do animal. Um ritmo mais lento pode explicar como um mamífero tão grande vive três vezes mais que o homem. O DNA dos indivíduos mais longevos de nossa própria espécie também pode ser fonte de infor-
20 | abril DE 2017
mações úteis para combater doenças associadas à velhice e conter o avanço dos ponteiros do relógio biológico. Essa é a expectativa de projetos ambiciosos como o Wellderly, conduzido desde 2007 pelo Instituto de Pesquisa Scripps, da Califórnia. Em 2016, foram publicados os primeiros resultados de peso do projeto, que sequenciou o genoma completo de 600 idosos saudáveis (sem doenças crônicas), com idade entre 80 e 105 anos, e comparou com o de 1.500 adultos mais jovens. A diferença mais significativa é que os partici pantes do Wellderly apresentavam um risco genético menor de desenvolver problemas cognitivos. Em alguns idosos saudáveis, foram identificadas variantes (versões) do gene COL25A1 que lhes dariam proteção contra a doença de Alzheimer. Eles também tinham uma propensão pequena a desenvolver problemas cardíacos, embora o risFalhas no reparo co genético de tumores, diabetes de DNA ocorrem tipo 2 e derrames fosse igual ao do grupo de controle. em enfermidades “Foi surpreendente não ver diferença no risco genético para o características do desenvolvimento de cânceres”, comenta Ali Torkamani, diretor envelhecimento, de Informática de Genoma e de como a doença de Descoberta de Drogas do Scripps. “Sabemos também que há doenAlzheimer ças genéticas que influenciam a velocidade do envelhecimento, geralmente acelerando-o. Mas, no geral, o envelhecimento é um processo complexo.” O Centro de Pesquisa sobre o Genoma Humano e Células-Tronco (CEGH-CEL) da Universidade de São Paulo (USP) coordena um projeto que caminha para ser um Wellderly brasileiro, com duas populações de idosos. A primeira inclui mais de 1.300 residentes na cidade de São Paulo que tinham mais de 60 anos quando participaram do levantamento epidemiológico Saúde, Bem-estar e Envelhecimento (Sabe), realizado desde 1999 pela Faculdade de Saúde Pública da USP. A segunda, o estudo 80+, abrange a análise do DNA de cerca de 130 octogenários, todos com boa saúde. Os pesquisadores da USP sequenciaram o exoma, a parte do genoma que codifica proteínas, dos idosos do Sabe. Os primeiros resultados, de 609 participantes, foram publicados em março de 2017 na revista Human Mutation e evidenciaram a singular mistura de populações (negro, índio e europeu) que caracteriza o Brasil. Foram encontradas 207 mil variantes genéticas que nunca tinham sido descritas nos bancos internacionais de dados moleculares. “Isso mostra a importância de produzirmos estudos
o rápido avanço dos idosos As barras abaixo indicam o tempo que levou para a proporção de idosos passar de 10% para 20% da população
14
5a
no
s
fonte organização mundial da saúde
an 75
1970
os
89
an
os
1995
os 25
an
os an 25
2055
25
an
os
35
an
os
2015
1995
2035
2025
1850
1881
1940
2020
1970
2010
2000
França
suécia
EUA
índia
japão
brasil
china
com a nossa população”, comenta a geneticista Mayana Zatz, coautora do estudo e coordenadora do CEGH-CEL, um dos Centros de Pesquisa, Inovação e Difusão (Cepid) financiados pela FAPESP. Cada idoso tinha 300 alterações em média, a maioria inofensiva. Apenas sete indivíduos apresentaram mutações associadas a doenças, em geral algum câncer. Nas próximas semanas, o geneticista Michel Naslavsky, do centro da USP, viaja aos Estados Unidos para sequenciar o genoma de 1.300 idosos do Sabe e do 80+. “Será um trabalho demorado”, conta Naslavsky, primeiro autor do estudo na Human Mutation. Os dados produzidos pelo CEGH-CEL estão disponíveis na página do Arquivo Brasileiro Online de Mutações (ABraOM).
léo ramos chaves
Formas de proteger o DNA
A
corrente majoritária de biólogos e bioquímicos aceita hoje a ideia de que os organismos envelhecem e morrem porque, com o tempo, suas células perdem a capacidade de desempe-
nhar funções, definham e morrem mais depressa do que conseguem ser repostas. A todo momento, reações químicas no organismo, além de fenômenos ambientais, podem causar lesões na molécula de DNA. Experimentos feitos nos anos 1970 pelo bioquímico sueco Tomas Lindahl mostraram que o DNA de uma célula humana sofre 10 mil pequenas alterações espontâneas por dia, quase uma a cada 10 segundos. Nos 3,6 bilhões de anos de existência de vida no planeta surgiram proteínas que auxiliam o material genético a se manter íntegro, permitindo às células produzirem cópias perfeitas de si mesmas e continuar a existir. Como nada é perfeito, os mecanismos de reparo também falham. Em um estudo com camundongos publicado em 2007 na Nature, pesquisadores dos Estados Unidos e da Holanda comprovaram que, com o tempo, as células-tronco acumulam defeitos genéticos e perdem a capacidade de se reproduzir e manter os tecidos íntegros e em funcionamento. Estudos posteriores mostraram que o mesmo ocorre com células humanas, inclusive em síndromes marcadas por envelhecimento acelerado como a progéria. No Instituto de Ciências Biomédicas da USP, o biólogo molecular Carlos Menck e sua equipe investigam a causa das alterações genéticas que impedem o reparo adequado do material genético. Há alguns anos, eles acompanham pessoas com a doença hereditária xeroderma pigmentosum (ver Pesquisa FAPESP nº 199). Expostas ao sol, elas desenvolvem câncer de pele muito facilmente porque suas células não consertam os danos causados pela radiação ultravioleta. Algumas podem também apresentar problemas neurológicos e outros sintomas parecidos com os observados nas síndromes de envelhecimento acelerado, que em alguns casos leva à morte no primeiro ano de vida. Falhas nesses mesmos genes levam ao atraso no desenvolvimento físico e mental característicos da síndrome de Cockayne. Anos atrás Menck iniciou uma colaboração com um ex-aluno, o biólogo brasileiro Alysson Muotri, da Universidade da Califórnia em San Diego, para estudar os fenômenos que poderiam acometer os neurônios dessas pessoas. Com a adição de compostos químicos, eles induziram células da pele de pessoas com síndrome de Cockayne a regredirem ao estágio de células-tronco – essas células são capazes de originar outros tecidos. Depois, as estimularam a se transformarem em neurônios e viram que eles formavam conexões irregulares com outras células. “Os defeitos observados nos neurônios criados em laboratório explicariam, ao menos parcialmente, a origem dos problemas neurológicos desses indivíduos”, conta Muotri, um dos autores do artigo publicado em 2016 na revista Human Molecular Genetics. PESQUISA FAPESP 254 | 21
telômeros encurtados
D
urante a vida da célula, os danos genéticos não ocorrem igualmente ao longo da molécula de DNA. Eles parecem atingir com mais frequência suas duas extremidades, regiões conhecidas como telômeros. Atribui-se a esses segmentos de material genético a função de proteger o restante da fita de DNA – alguns comparam o seu papel com o da ponta plástica do cadarço dos sapatos. Cada vez que o material genético duplica e a célula se divide, os telômeros encolhem 2%. Só uma enzima, a telomerase, é capaz de recuperar o comprimento dos telômeros. Nos mamíferos, porém, a maioria das células adultas 22 | abril DE 2017
não produz telomerase, geralmente sintetizada pelas células-tronco. Com capacidade restrita de recuperação, os telômeros encurtam com a idade. Pesquisadores da Universidade Harvard, nos Estados Unidos, já demonstraram que é possível encompridar os telômeros artificialmente, introduzindo nas células cópias extras do gene da telomerase. Essa estratégia, no entanto, pode ser arriscada, uma vez que alguns tumores se tornam malignos depois de reativar a produção da enzima telomerase. Em algumas enfermidades, o encurtamento dos telômeros é mais rápido. Uma delas é a disqueratose congênita, uma doença rara marcada pela dificuldade de produzir células do sangue, da pele e do tecido pulmonar e que pode levar a um envelhecimento acelerado como na progéria. Há algum tempo se sabe que quem tem disqueratose apresenta um encurtamento acentuado dos telômeros. O biólogo brasileiro Luis Francisco Batista, ex-aluno de Menck e professor na Washington University em Saint Louis, Estados Unidos, confirmou a causa: falhas no funcionamento da telomerase. A partir de células da pele de pessoas com disqueratose, ele gerou células-tronco e verificou que a doença é mais grave quanto maior a incapacidade de produzir telomerase ativa. Desde esse resultado, publicado em 2011 na revista Nature, Batista se dedica a estudar como a falta de telomerase e o encurtamento dos telômeros afetam o estoque de células-tronco dos tecidos. “Estamos tentando conhecer a cadeia de eventos que ocorre em seguida”, conta Batista.
Reconstituição artística de dois cromossomos, estruturas que empacotam o DNA nas células. Os telômeros (em laranja) protegem as pontas dos cromossomos
ALFRED PASIEKA / SCIENCE PHOTO LIBRARY
Menck e Muotri também verificaram que esses neurônios acumulavam espécies reativas de oxigênio, ou radicais livres, compostos contendo uma forma de oxigênio que interage facilmente com o DNA e as proteínas, danificando-os. Eles suspeitam que a produção se dê em versões defeituosas das mitocôndrias, responsáveis pela produção de energia nas células. “Acreditamos que esse seja o link com a progéria, uma vez que níveis elevados de espécies reativas de oxigênio já foram relacionados ao envelhecimento”, diz Muotri. “Agora estamos tentando reverter esse quadro usando compostos antioxidantes.” Na USP, Menck trabalha para amplificar os danos que as espécies reativas de oxigênio causam no material genético de pessoas com síndrome de Cockayne e tentar descobrir qual parte da maquinaria celular esses danos emperram. Caso se confirme que essa estratégia reproduz o que ocorre em pessoas com síndrome de Cockayne, Menck e Muotri terão em mãos um modelo de envelhecimento acelerado, útil para compreender o que ocorre com pessoas saudáveis. Problemas com o reparo de DNA também ocorrem em outras enfermidades características do envelhecimento, como a doença de Alzheimer, mais frequente depois dos 80 anos. Na USP em Ribeirão Preto, a geneticista Elza Sakamoto Hojo e sua equipe vêm analisando a eficiência do reparo do DNA em pessoas com e sem Alzheimer. Eles coletaram amostras de sangue de 13 pessoas com idade entre 65 e 90 anos com a doença (e de 14 sem) e submeteram as células a concentrações elevadas de espécies reativas de oxigênio – usaram água oxigenada –, situação semelhante à que deve ocorrer no organismo em condições de estresse. Em um artigo publicado em 2013 no International Journal of Molecular Sciences, o grupo mostra que as células das pessoas com Alzheimer levaram três vezes mais tempo para se recuperar do banho de radicais livres do que as dos idosos saudáveis.
Exaustão sem reposição
N
os idosos, há um acúmulo de células que atingiram o fim de seu ciclo de vida, perderam a capacidade de copiar seu próprio DNA e gerar clones de si mesmas. Essa marca do envelhecimento tem um aspecto positivo: células que não se dividem podem ser eliminadas pelo sistema imunológico, evitando o aparecimento de tumores. O problema é que também diminui a capaci dade de o organismo se defender de ameaças externas, como vírus e bactérias, o que pode afetar a eficiência de vacinas. “No Japão, que tem muitos octogenários, testa-se a administração de três doses menores, em vez de uma, da vacina de gripe”, comenta a bióloga Valquiria Bueno, professora da Escola Paulista de Medicina da Universidade Federal de São Paulo (Unifesp). Estudiosa da imunossenescência, Valquiria comparou a produção de células de defesa de seis homens e seis mulheres com idade entre 88 e 101 anos do Sabe com o de estudantes da universidade com menos de 30 anos. A geração na medula óssea de leucócitos, um tipo de célula de defesa, foi em média 40% menor nos idosos, dado semelhante ao encontrado em trabalhos internacionais. Além desses achados, apresentados em 2016 no livro The ageing imune system and health, viu-se que no sangue desses idosos longevos também aumenta a produção de outro tipo de célula que pode reduzir a resistência a infecções e favorecer o desenvolvimento de câncer.
Danos nas centrais energéticas
produção científica em crescimento A base de artigos Pubmed registra cerca de 384 mil trabalhos sobre envelhecimento publicados de 1925 a 2016 Nº de artigos
fonte pubmed
25.000
20.000
15.000
10.000
5.000
Ano de publicação
0
1925
1950
1975
2000
Também há abordagens mais polêmicas. Experimentos recentes com animais sugerem que a troca de células velhas por novas poderia retardar o envelhecimento ou reverter parcialmente a deterioração em certos órgãos. Alguns desses estudos empregam uma técnica controversa concebida em meados do século XIX, a parabiose, por meio da qual um roedor jovem é unido cirurgicamente a um velho a fim de que este receba uma transfusão de sangue novo. Em 2013, a equipe de Amy Wagers, especialista em medicina regenerativa da Universidade Harvard, publicou um artigo na Cell em que, por meio da parabiose, identificou em camundongos velhos que receberam sangue de animais jovens o aumento de uma proteína que combateria disfunções cardíacas ligadas à velhice. Estudos posteriores reportaram benefícios desse método em tecidos cerebrais e musculares. Em novembro passado, um artigo publicado na Nature Communications relatou que a administração de sangue novo praticamente não melhorou os parâmetros biológicos de camundongos velhos. Já roedores jovens pioraram ao receber transfusões de sangue velho. “Nosso estudo sugere que o sangue novo por si só não funcionará como tratamento”, disse, ao divulgar o trabalho para a imprensa, Irina Conboy, professora da Universidade da Califórnia em Berkeley, principal autora do artigo. “É mais correto dizer que há inibidores no sangue velho que precisamos combater para reverter o envelhecimento.”
2016
P
or muito tempo as mitocôndrias foram tratadas como as vilãs do envelhecimento. Em 1956, o químico e médico norte-americano Denham Harman propôs que uma causa da perda de vigor e morte das células seria a produção de radicais livres. Então pesquisador da Universidade da Califórnia em Berkeley, ele suspeitava que essas moléculas pudessem interagir com o DNA, as proteínas e os outros componentes das células, causando estragos. Experimentos posteriores reforçaram os argumentos de Harman e levaram até à recomendação de não se fazer exercício físico, que aumenta o consumo de energia e a respiração celular. Hoje a visão é outra. Nas duas últimas décadas, experimentos indicaram que os radicais livres desempenham uma função dupla nas células. Em concentrações baixas, induzem a produção de compostos antioxidantes, protegem as células do envelhecimento e até estimulam a sua proliferação. Em níveis elevados, porém, desencadeiam a morte celular. PESQUISA FAPESP 254 | 23
No final dos anos 1970, durante um estágio de pós-doutorado na Universidade Johns Hopkins, o médico e bioquímico Aníbal Vercesi notou que determinadas condições provocavam a abertura de poros nas membranas das mitocôndrias, matando-as. Mais tarde, de volta à Universidade Estadual de Campinas (Unicamp), onde é professor, ele constataria que esse efeito se deve ao aumento da concentração de radicais livres. Em experimentos feitos com sua equipe – da qual participavam os médicos e bioquímicos Roger Castilho e Alicia Kowaltowski, então alunos de doutorado e hoje professores na Unicamp e na USP, respectivamente –, Vercesi verificou que no interior das mitocôndrias o acúmulo de cálcio estimula a produção de radicais livres em excesso e leva aos danos celulares. Pelos poros que surgem na membrana da mitocôndria escapam proteínas, material genético e os próprios radicais livres. “Propusemos essa hipótese em 2001”, conta o bioquímico. “Hoje ela é amplamente aceita e até usada para explicar os danos que ocorrem no infarto do miocárdio e na isquemia cerebral, além do desenvolvimento de doenças que surgem com a idade, como o diabetes e o Alzheimer.” A bioquímica Nadja de Souza Pinto, ex-aluna de doutorado de Vercesi e hoje professora na USP, estuda as consequências da produção excessiva de radicais livres sobre o DNA das mitocôndrias. No período em que trabalhou no Instituto Nacional de Envelhecimento dos Estados Unidos, ela estudou o cérebro de pessoas com Alzheimer e observou que o reparo das lesões de DNA causadas por radicais livres é menor naquelas com os sintomas mais graves. De volta ao Brasil, ela, o geriatra Wilson Jacob Filho e o gerontólogo José Marcelo Farfel, ambos da USP, estão avaliando o reparo de DNA nas mitocôndrias de dois grupos: aqueles com o Alzheimer típico e os chamados portadores assintomáticos, que não desenvolvem problemas cognitivos. Em estudos com ratos, Nadja constatou que o reparo do DNA mitocondrial aumenta até meados da vida do animal, depois decai. “Estamos propondo que a baixa atividade desses mecanismos de reparo possa ser um fator de risco para o Alzheimer”, conta.
comer menos e viver mais
O
efeito da alimentação sobre o tempo de vida de diferentes organismos talvez seja o tópico relacionado ao envelhecimento há mais tempo estudado. Há quase um século se sabe que reduzir a quantidade de energia consumida pelos animais prolonga seu tempo de vida. Em 1933, o bioquímico e gerontólogo norte-americano Clive McCay, pesquisador na Universidade Cornell, publicou na Science um breve artigo no
24 | abril DE 2017
qual comparava a longevidade dos ratos criados pelo seu grupo, em Nova York, com a de outros mantidos no laboratório do fisiologista James Slonaker na Universidade Stanford, na Califórnia. Os roedores do grupo de McCay, alimentados com uma dieta mais nutritiva, cresciam e alcançavam a maturidade sexual mais rapidamente. Mas viviam apenas metade do tempo dos ratos do laboratório de Slonaker, que haviam ganhado peso e amadurecido mais lentamente e vivido, em média, 1.200 dias. “É possível que longevidade e crescimento rápido sejam incompatíveis e que a melhor chance para uma vida anormalmente longa pertença aos animais que crescem mais vagarosamente e alcançam a maturidade mais tarde”, argumentou McCay, lançando a hipótese de que a ingestão reduzida de calorias favoreceria a longevidade, em detrimento da capacidade reprodutiva. Pelos 50 anos seguintes, o envelhecimento foi entendido como inevitável e inerente à vida. Essa visão só começou a mudar nos anos 1990, com os achados da bióloga molecular Cynthia Kenyon. Professora da Universidade da Califórnia em São Francisco e hoje vice-presidente de pesquisa sobre envelhecimento da empresa Calico, criada pelo Google, Cynthia verificou que alterações em um gene dobravam o tempo de vida do C. elegans sem afetar sua fertilidade. Mais tarde se descobriu que esse gene codificava uma proteína da superfície das células – um receptor – à qual se conectam peptídeos semelhantes à insulina. Esse receptor, viu-se depois, funcionava como um sensor de nutrientes do ambiente extracelular. “Esses avanços geraram uma corrida para se estudar a restrição calórica do ponto de vista molecular”, conta o biomédico Marcelo Mori, da
Uma mitocôndria, organela celular que converte nutrientes em energia, observada ao microscópio eletrônico
imagem DENNIS KUNKEL MICROSCOPY / SCIENCE PHOTO LIBRARY foto léo ramos chaves
Unicamp, que investiga os mecanismos que promovem o aumento do tempo de vida e são ativados pela restrição calórica e pelo exercício físico. Um desses mecanismos é a produção de microRNAs, moléculas que bloqueiam o funcionamento dos genes e a produção de proteínas. Em estudos com camundongos iniciados em seu pós-doutorado em Harvard e continuados na Unifesp e na Unicamp, Mori verificou que a principal fonte de microRNAs circulantes em mamíferos é o tecido adiposo, onde estão as reservas de gordura, e que essa produção diminui com o envelhecimento. Ele também constatou, em experimentos com camundongos e com C. elegans, que a restrição calórica aumenta o tempo de vida, por elevar a atividade da enzima Dicer, que transforma moléculas longas de RNA em microRNAs (ver Pesquisa FAPESP nº 212). “O envelhecimento diminui a produção de Dicer, de microRNAs e o tempo de vida, enquanto a restrição calórica faz o oposto”, afirma Mori. Na USP, Alicia Kowaltowski e seu grupo estão interessados em conhecer como a redução na ingestão de calorias afeta o funcionamento das mitocôndrias. Em animais mantidos sob uma dieta mais restritiva elas são mais alongadas, apresentam menos danos e são substituídas mais rapidamente do que na dieta normal, observaram os pesquisadores em artigo deste ano na revista Mechanisms of Ageing and Development. Experimentos anteriores, apresentados em 2016 na Aging Cell, indicaram que a restrição calórica melhora o funcionamento das mitocôndrias dos neurônios e as torna mais resistentes a estresses celulares como o aumento dos níveis de cálcio e de radicais livres. Comer menos, segundo outro trabalho do grupo, também melhora o funcionamento das células do pâncreas produtoras do hormônio insulina, protegendo contra o diabetes, uma das doenças características do envelhecimento. Os achados são animadores, mas não se sabe se é possível aplicá-los à saúde das pessoas. “É difícil transpor os resultados obtidos com os modelos animais para os seres humanos”, conta Alicia. No laboratório, os animais vivem protegidos, são sedentários e comem à vontade, o que os torna obesos em comparação com os que vivem na natureza. “Já as pessoas, mesmo sedentárias, realizam atividades e não se alimentam continuamente”, lembra a pesquisadora. “No caso humano, é possível que apenas manter o peso em níveis considerados saudáveis já seja o equivalente à restrição calórica para os animais de laboratório”, diz. Marcelo Mori, da Unicamp, imagina ser inviável para a maioria dos seres humanos manter uma restrição calórica radical por toda a vida sem que isso resulte em prejuízos à saúde. Para o biomédico, é preciso encorajar a busca de intervenções
farmacológicas ou dietéticas que mimetizem os efeitos da restrição calórica de forma segura e menos exigente, assim como a prática regular de atividade física, que também parece aumentar o tempo médio de vida e talvez possa ser mais facilmente adotada. “Apesar dos recentes avanços”, lembra Mori, “o fato é que ainda estamos longe de propor estratégias viáveis para aumentar a longevidade dos seres humanos”. n
Projetos 1. CEGH-CEL – Centro de Estudos do Genoma Humano e de Células-tronco (nº 13/08028-1); Modalidade Centros de Pesquisa, Inovação e Difusão (Cepid); Pesquisadora responsável Mayana Zatz (USP); Investimento R$ 26.897.714,59. 2. Consequências de deficiências de reparo de lesões no genoma (nº 14/15982-6); Modalidade Projeto Temático; Pesquisador responsável Carlos Frederico Martins Menck (USP); Investimento R$ 2.451.302,99. 3. Instabilidade genômica e vias de sinalização molecular envolvendo respostas a danos e reparo de DNA (nº 13/09352-7); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Elza Tiemi Sakamoto Hojo (USP-RP); Investimento R$ 624.252,12. 4. Metabolismo energético, estado redox e funcionalidade mitocondrial na morte celular e em desordens cardiometabólicas e neurodegenerativas (nº 11/50400-0); Modalidade Projeto Temático; Pesquisador responsável Aníbal Eugênio Vercesi (Unicamp); Investimento R$ 3.019.922,94. 5. Dicer, miRNAs e o controle da função mitocondrial no contexto do envelhecimento e da restrição calórica (nº 15/01316-7); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Marcelo Alves da Silva Mori (Unicamp); Investimento R$ 292.429,97. 6. Bioenergética, transporte iônico, balanço redox e metabolismo de DNA em mitocôndrias (nº 10/51906-1); Modalidade Projeto Temático; Pesquisadora responsável Alicia Juliana Kowaltowski (USP); Investimento R$ 2.210.658,64. 7. Estudo das respostas celulares a danos no DNA mitocondrial em células de mamíferos (nº 08/51417-0); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Nadja Cristhina de Souza Pinto (USP); Investimento R$ 292.654,45. 8. Avaliação das células mieloides supressoras em indivíduos idosos: população brasileira e britânica (nº 14/50261-8); Modalidade Auxílio à Pesquisa – Regular; Acordo Universidade de Birmingham; Pesquisadora responsável Valquiria Bueno (Unifesp); Investimento R$ 64.197,47.
Artigos científicos LÓPEZ-OTÍN, C. et al. The hallmarks of aging. Cell. 6 jun. 2013. NASLAVSKY, M. S. et al. Exomic variants of an elderly cohort of Brazilians in the ABraOM database. Human Mutation. 23 mar. 2017. VESSONI, A. T. et al. Cockayne syndrome-derived neurons display reduced synapse density and altered neural network synchrony. Human Molecular Genetics. 10 jan. 2016. LEANDRO, G. S. et al. Lymphocytes of patients with Alzheimer’s disease display different DNA damage repair kinetics and expression profiles of DNA repair and stress response genes. International Journal of Molecular Sciences. 10 jun. 2013. BATISTA, L. F. et al. Telomere shortening and loss of self-renewal in dyskeratosis congenita induced pluripotent stem cells. Nature. 22 mai. 2011. KOWALTOWSKI, A. J., CASTILHO, R. F. e VERCESI, A. E. Mitochondrial permeability transition and oxidative stress. FEBS Letters. 20 abr. 2001. WEISMANN, L. et al. Defective DNA base excision repair in brain from individuals with Alzheimer’s disease and amnestic mild cognitive impairment. Nucleic Acids Research. v. 35(16). p. 5545-55. 2007. SOUZA-PINTO, N. C. et al. Age-associated increase in 8-oxo-deoxyguanosine glycosylase/AP lyase activity in rat mitochondria. Nucleic Acids Research. v. 27(8), p. 1935-42. 1999. LUÉVANO-MARTÍNEZ, L. A. et al. Calorie restriction promotes cardiolipin biosynthesis and distribution between mitochondrial membranes. Mechanisms of Ageing and Development.14 fev. 2017. AMIGO, I. et al. Caloric restriction increases brain mitochondrial calcium retention capacity and protects against excitotoxicity. Aging Cell. 13 set. 2016. MORI, M. A. et al. Role of microRNA processing in adipose tissue in stress defense and longevity. Cell Metabolism. 5 set. 2012.
PESQUISA FAPESP 254 | 25
entrevista Regina Maria Prosperi Meyer
Estudos para uma cidade em movimento Urbanista que criou novas disciplinas na FAU-USP dedica-se a pensar a macrometrópole paulistana Márcio Ferrari |
R
retrato
Léo Ramos Chaves
egina Meyer gostava tanto de dar aulas na graduação da Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo (FAU-USP) que se empenhou em “negar a realidade” – de tal forma que a chegada da aposentadoria aos 70 anos, em 2011, foi sentida como uma brusca interrupção. “Eu estava em pleno voo”, diz. “Continuava pesquisando e buscando criar novas disciplinas.” O entusiasmo dos alunos a contagiava, e vice-versa. Hoje Regina investe sua energia em novos projetos de pesquisa e na orientação de alunos de pós-graduação. Nascida em Guaxupé (MG), a urbanista veio nos primeiros anos de vida para São Paulo, cidade que se tornou o objeto de estudo prioritário em sua carreira. Casou-se aos 22 anos e foi com o marido, o psicanalista Luiz Meyer, estudar na França e depois em Genebra, Suíça, onde, na impossibilidade de enfrentar um labiríntico processo de seleção para a faculdade de arquitetura, encaminhou-se para a psicologia. “Fui aprovada em 1968. O curso de psicologia da Universidade de Genebra estava em grande evidência internacional graças ao trabalho inovador de Jean Piaget. Tive de interromper o curso ao fim do segundo ano para voltar ao Brasil.” Ao chegar a Brasília, para onde se mudou para acompanhar o marido, que havia
26 | abril DE 2017
idade 75 anos especialidade Planejamento e urbanismo formação Graduação em arquitetura e urbanismo pela Universidade de Brasília (1974); mestrado pela University of London (1977); doutorado pela USP (1991) instituição Faculdade de Arquitetura e Urbanismo da USP produção científica 53 artigos, 22 capítulos de livros, 9 trabalhos técnicos, 41 orientações de alunos de pós-graduação
PESQUISA FAPESP 254 | 27
aceitado o convite para criar o Departamento de Psiquiatria da Faculdade de Medicina da Universidade de Brasília (UnB), deparou-se com o predomínio da tendência behaviorista, oposta a Piaget, nos cursos de psicologia locais. Desapontada, retomou seu antigo interesse pela arquitetura, dando início a uma carreira que se dirigiu para o urbanismo e o planejamento urbano. Regina Meyer, casada e mãe de dois filhos, Diogo (biólogo) e Ana Elisa (produtora na área editorial), concedeu esta entrevista em seu apartamento num edifício projetado pelo arquiteto Rino Levi nos anos 1940 e decorado com azulejos do paisagista e artista plástico Burle Marx em um bairro da região central de São Paulo. Seus estudos sobre as metrópoles, São Paulo em particular, sempre se caracterizaram por um diálogo intenso com as mudanças no terreno prático. A que se dedica atualmente? Com colegas da FAU estou dando prosseguimento a um projeto que, no meu caso, cumpre um itinerário iniciado no doutorado, quando estudei a São Paulo dos anos 1950, e que prosseguiu com a observação das mudanças que estavam ocorrendo na metrópole nos anos 1990. No começo dos anos 2010, já estávamos fazendo uma pesquisa que avançava para uma escala urbana ampliada, a da macrometrópole, um conceito que, embora não fosse novo, ganhou mais evidência nas últimas décadas que assistiram à enorme expansão territorial das cidades e metrópoles. No nosso caso, é a conjugação das metrópoles paulistas que estão situadas num grande território de 53 mil quilômetros quadrados, com uma população de 30 milhões de habitantes distribuídos em 173 municípios. Esse imenso conjunto de cidades que gravita no entorno das metrópoles cria um território de ocupação quase contínuo que se irradia em eixos a partir de São Paulo. O trabalho teve muitos desdobramentos. Paralelamente, o governo do estado de São Paulo produziu um ambicioso Plano de Ação da Macrometrópole. Ainda não há resultados práticos porque o planejamento demora a criar raízes. Mas a definição desse poderoso território onde se concentra 73% do total da população paulista, 83% do Produto Interno Bruto (PIB) estadual e quase 30% do PIB nacional, ganhou visi28 | abril DE 2017
A hegemonia regional está presente em São Paulo devido a fatores como a capacidade de organização do capital, da força de trabalho e do conhecimento
bilidade, diria até que ganhou presença nas políticas públicas. Nesse momento, o objetivo é escrever artigos cujo foco são as dinâmicas urbanas inseridas nessa escala macrometropolitana. Dar visibilidade para essa organização territorial pós-metropolitana é uma contribuição para as políticas públicas nessa escala. Com a formação da macrometrópole as funções de cada cidade mudaram? A formação macrometropolitana é um processo histórico. Trata-se de um processo de urbanização que, ao evoluir, foi criando características urbanas distintas. Nas análises da evolução urbana, à medida que se alteram as escalas se transformam também as questões com
as quais temos que lidar. No caso da macrometrópole paulista, o reconhecimento da existência do potencial desse território, em termos contemporâneos, é muito importante, e, embora estivessem sempre presentes, as políticas públicas para seu fortalecimento enquanto território de funcionamento articulado são ainda novas. São Paulo é, e acredito que continuará sendo, o núcleo dessa macrometrópole, porque possui características funcionais inerentes a um centro poderoso. Assim como Paris e Londres dominam o território no seu entorno, a hegemonia regional está presente em São Paulo graças a muitos fatores, sobretudo pela capacidade de organização do capital e, de certa forma, da força de trabalho, assim como da pesquisa e do conhecimento, em razão dos grandes centros universitários, da Bolsa de Valores, das sedes de empresas etc. Isso não significa que metrópoles do porte de Campinas e São José dos Campos, que também possuem importantes centros de pesquisa, não poderão disputar no futuro tais funções. Por enquanto, é em São Paulo que estão localizadas as instituições públicas e privadas onde as decisões são tomadas, embora a força de trabalho e a inovação produtiva estejam distribuídas nas demais metrópoles. Quais foram os marcos da trajetória que a levaram aos seus estudos atuais? Depois do doutorado, ao longo da década de 1990, queria embarcar numa pesquisa sobre as transformações urbanas que estávamos vivenciando em São Paulo. Isso implicava, obrigatoriamente, agregar outras áreas do conhecimento. Formei, com minha colega Marta Dora Grostein, o economista Ciro Biderman, recém-chegado de seu doutorado em economia urbana no MIT [Massachusetts Institute of Technology], já professor da FGV [Fundação Getulio Vargas], com muitos alunos da graduação e da pós-graduação, um grupo de trabalho que conjugou o Cebrap [Centro Brasileiro de Análise e Planejamento] e a FAU. O resultado, após seis anos de trabalho, foi publicado em 2004 no São Paulo metrópole [Imesp/ Edusp]. A ideia central da pesquisa era identificar e analisar São Paulo a partir de uma perspectiva urbana na década de 1990. Os dados e uma grande produção de cartografia analítica buscavam acompanhar um processo de mudança
que vinha amadurecendo desde os anos 1970, que conduzia a metrópole a um estágio no qual a atividade industrial começava a perder sua hegemonia. Nosso interesse central era analisar o território urbano. A pesquisa teve um impulso decisivo quando da formação do Centro de Estudos da Metrópole [CEM], criado em 2000 como um dos Centros de Pesquisa, Inovação e Difusão [Cepid] financiados pela FAPESP, em conjunto com o Cebrap, a Fundação Sistema Estadual de Análise de Dados [Seade], a TV Cultura e o Sesc [hoje o CEM tem sede também na Faculdade de Filosofia, Letras e Ciências Humanas da USP]. Em 2005 o grupo da FAU se desligou do Cepid e montou o Laboratório de Urbanismo da Metrópole, o Lume. Foi uma das iniciativas mais importante da qual participei na FAU. A criação do Lume abriu caminho para outros trabalhos. No mesmo ano iniciamos uma nova pesquisa que resultou no segundo livro sobre a metrópole paulistana – A leste do centro: Territórios do urbanismo –, publicado em 2010 pela Edusp e Imprensa Oficial do Estado. Do que se tratava? Era um estudo com foco no crescimento urbano e nas transformações de um setor demarcado a partir da área central de São Paulo. A ênfase inicial foi o processo de transformação histórica de um território definido como “vetor leste do Centro” em direção aos tradicionais bairros industriais, tais como Bom Retiro, Brás, Mooca, Pari, até alcançar a periferia leste do município. A pesquisa teve um forte recorte transdisciplinar, no qual se destacaram os conteúdos da construção histórica, a avaliação ambiental, a estruturação urbana promovida pelo transporte público. Buscamos também avançar para uma pauta de diretrizes de projetos urbanos. Introduzimos nesse aspecto um novo instrumento de plano e projeto, a ZIM – Zona de Interesse Metropolitano. Foi possível avaliar o impacto da ligação do Centro, via transporte de massa, com sua periferia mais populosa, situada a 30 quilômetros de distância, por ter sido o maior destino de conjuntos habitacionais produzidos pelo poder público nos anos 1960 e 1970. Aliás, todos aqueles conjuntos foram erguidos sem considerar o deslocamento diário dos seus moradores para chegar
aos seus postos de trabalho. O estudo reforçou a ideia de que não podemos trabalhar com as cidades como se fossem “naturezas-mortas”, mas como espaços em permanente movimento. De que forma suas atividades mudaram depois que se aposentou? A aposentadoria não implica desligamento da pós-graduação. Continuo com muitas atividades na universidade. Mantive as orientações de mestrado e doutorado, a pesquisa acadêmica e as aulas nos cursos de pós-graduação, algo muito presente no meu dia a dia. Minha carreira acadêmica foi um pouco sui generis. A maior parte dos professores construiu trajetórias com enfoque mais diversificado. A minha foi marcada pela grande atividade didática, com propostas de novos cursos, trabalho em equipe e muitos orientandos com trabalhos de final de graduação. A que atribui essa peculiaridade? Não houve um projeto deliberado. Tenho a impressão, olhando em retrospecto e até mesmo de maneira bem crítica, de que eu gostava das atividades acadêmicas associadas à sala de aula. Hoje penso que poderia ter equilibrado melhor minhas atividades e me dedicado mais a frequentar congressos, por exemplo. Eu ficava muito naquele corpo a corpo cotidiano. Também não fiz uma carreira voltada para o exterior. A ênfase na publicação em revistas estrangeiras veio um pouco tardiamente para mim. Recentemente fui editora convidada de um número temático sobre São Paulo para a Revista de Urbanismo Iberoamericano (RiUrb). É uma publicação especializada em urbanismo, muito conceituada, publicada simultaneamente em Buenos Aires e Barcelona. Esse é o tipo de trabalho que só venho fazendo agora. Que tipo de disciplinas criou? Busquei criar disciplinas optativas voltadas ao urbanismo contemporâneo. Até a década de 1980 nossos cursos estavam trabalhando com os marcos do Movimento Moderno. Mas, por outro lado, tornou-se importante distinguir as questões da urbanização daquelas do urbanismo com os alunos. A urbanização entendida como um processo e o urbanismo como a forma que esse processo ganha através da realização de projetos
de todo tipo, do infraestrutural aos parâmetros construtivos, foi introduzida na FAU de forma muito sólida nos anos 1960 por meio de estudos e livros do professor Nestor Goulart Reis. Foi um trabalho valioso, que influenciou muito o ensino, tanto dentro da faculdade como fora dela. Mas, apesar desse acervo metodológico, permanecia em alguns cursos uma indistinção que eu considerava prejudicial. Procurei mostrar, por meio das disciplinas que ministrava, que o urbanismo é uma atividade indissociável do projeto e sempre propositiva. Essa foi a minha contribuição para os estudantes e jovens arquitetos que se formavam na faculdade nos anos 1990 e 2000. Por que essa ênfase? Penso que era necessário ter clareza sobre as questões pertinentes ao urbanismo e aquelas do processo de urbanização. E, para complicar, havia uma outra questão a ser enfrentada com relação ao planejamento urbano. Na FAU há um grupo de disciplinas que se ocupa exclusivamente do planejamento urbano, de professores muito atuantes e produtivos. Mas distingue-se em termos de abordagem e produção daquele que lida com o urbanismo e com a urbanização. O planejamento urbano promove uma situação processual e adequada para que o projeto urbanístico se realize. São esferas de atuação, mais do que complementares, totalmente interdependentes. É interessante lembrar que as distinções ficavam bem claras quando nos encontrávamos diante de cursos de história do urbanismo, do planejamento urbano ou da urbanização. Todo material que compõe cada uma dessas histórias é distinto, específico. E, na prática, quando estamos diante da intervenção urbana, propositiva, é importante reconhecer as dificuldades que têm origem na desarticulação entre um plano que não se concretiza devido à ausência de projetos urbanísticos ajustados ao planejado, ou projetos e planos que são elaborados sem considerar de forma correta o processo de urbanização. Hoje, por onde se pode puxar o fio da meada para solucionar os problemas da cidade? Essa é uma pergunta quase irrespondível. Solucionar os problemas da cidade e da metrópole é uma meta sempre PESQUISA FAPESP 254 | 29
presente, complexa e que só pode ser encarada de forma incremental. Não é possível indicar um caminho único, linear. O adjetivo “estratégico”, que se incorporou ao vocabulário do planejamento, dá uma ideia da necessidade de rever, permanentemente, os objetivos e, sobretudo, os instrumentos de ação. Um possível encaminhamento para entender os dilemas atuais da cidade de São Paulo está associado ao seu imenso e desgovernado crescimento territorial, à expansão sem limite e, principalmente, a um padrão de expansão periférica. Uma perspectiva esclarecedora poderá vir da própria evolução, melhor dizendo “involução”, dos transportes públicos e desse padrão de expansão urbana. Desde quando trabalhei com os temas dos anos 1950 para escrever minha tese, constatei que nos anos 1930 não escolhemos apenas um modelo de funcionamento para a cidade – escolhemos sobretudo um destino. Optando pelo caminho traçado pelo plano de construção do sistema viário proposto pelo prefeito Prestes Maia [1938-1945], caminhamos de forma inexorável para um modelo rodoviarista. Hoje já está claro que um dos grandes déficits da cidade é a insuficiência do transporte público e da circulação. Desde a chegada das vias expressas e do crescente aumento da frota de automóveis, as questões de mobilidade e de trânsito monopolizaram as propostas. O destino da cidade foi traçado quando, na década de 1930, a ideia de começarmos a construir o metrô foi rechaçada. Prestes Maia argumentava então que o metrô era uma solução correta em termos de transporte de massa, porém inadequada como proposta urbanística para São Paulo naquele momento. Na sua visão, era preciso primeiro estabelecer uma potente malha de avenidas e um sistema viário articulado para só depois introduzir uma rede de metrô. Isso foi fatal. O fato de ter cursado a graduação em Brasília, a cidade planejada por excelência, influiu em suas concepções de urbanismo? Fiz minha graduação naquela cidade que era um verdadeiro laboratório do funcionalismo urbano e modernismo arquitetônico. Na UnB parecia não haver outra opção para pensar as cidades. Eu estudava e morava em Brasília de uma maneira acrítica. Tinha um filho de 3 anos que 30 | abril DE 2017
ia para a escola sozinho enquanto eu o acompanhava olhando pela janela. Me vangloriava dessa vantagem diante de outras mães que viviam em São Paulo e levavam os filhos de carro para a escola. Considerava a vida na superquadra uma maravilha. Além disso, no começo dos anos 1970, a cidade ainda estava em construção e todos nós sentíamos como “construtores” daquele processo, mesmo vivendo em plena ditadura militar. Quando começou a ver Brasília de maneira crítica? Na medida em que vivia lá, convivia com pessoas que trabalhavam no Plano Piloto e moravam nas cidades satélites, Gama, Taguatingua, Sobradinho... As pessoas vinham diariamente de muito longe e precisavam chegar até a rodoviária, localizada no centro geométrico da cidade, para a partir dali alcançar seus lugares de trabalho nas superquadras ou em outros setores do Plano Piloto. Foi ficando claro para mim que ali existia uma questão não resolvida, um problema. Saltou aos olhos que o plano não tinha encaminhado tão bem a questão da segregação espacial-urbana. E como vê o projeto de Brasília hoje? Penso que é uma cidade que nasceu de uma teoria, que na infância já tinha completamente definida sua imagem adulta. E, ao longo de seu desenvolvimento, não estaria apta a incorporar as transformações que ocorreriam, sendo, como era, filha da mais ortodoxa teoria do funcionalismo. Não há como negar que Brasília mostrou rapidamente suas fragilidades, isto é, a vida cotidiana deixa claro que aquela não é a forma mais adequada de se projetar a cidade do futuro. O projeto fechado, elaborado com todos os condicionantes da década de 1950, deixava poucas brechas para incorporar o novo. Acho que foi a intensa experiência vivida em Brasília que me fez buscar o urbanismo como tema de estudo e trabalho. Como a pós-graduação em Londres influiu em sua visão? Cheguei em 1976 na Architectural Association School of Architecture, uma escola vanguardista, e constatei que já havia uma grande quantidade de textos críticos sobre o fim dos pontos de doutrina do funcionalismo ortodoxo. E, a duras penas, fui percebendo que preci-
sava rever posições. O que eu conhecia era um urbanismo criado para resolver os problemas da cidade industrial, construídas do zero, guiado pela organização das funções – habitar, trabalhar, recrear e circular – pensadas separadamente. Percebi que as cidades construídas a partir do zero não representavam mais os desafios das cidades contemporâneas. Não queria renegar minha formação, mas tive que me curvar às evidências. Quase como um retorno àquela fase de minha formação, início da pós-graduação, escrevi recentemente um artigo sobre o livro Los Angeles – A arquitetura de quatro ecologias (Martins Fontes), de Reyner Banham, publicado em 1971 e traduzido no Brasil há apenas quatro anos. Nesse artigo, publicado na Revista Pós, da FAU, retomo meus interesses dos anos 1970. O Banham era professor da Bartlett School of Architecture, na qual fiz a segunda parte de minha pós-graduação, depois que deixei a Architecture Association. O pensamento dele me influenciou muito naquele momento. Ao voltar, pôde aplicar os conhecimentos que trazia? Logo que cheguei tive oportunidade de dirigir o Departamento do Patrimônio Histórico [DPH] do município, ligado à Secretaria de Cultura, entre 1983 e 1985. Eu me empenhei muito para me enfronhar nas questões e nos temas da preservação do patrimônio histórico específicos de São Paulo. Depois de alguns meses de trabalho, quando participava da elaboração do Plano Diretor coordenado pelo arquiteto e secretário do Planejamento Jorge Wilheim, comecei a pensar que as questões de preservação do patrimônio, que o DPH tratava, seriam mais adequadas se pertencessem a um órgão de planejamento. O secretário da Cultura Gianfrancesco Guarnieri ficou muito irritado com meu posicionamento e fui demitida. A minha participação nas discussões e na elaboração do plano diretor da cidade, no início dos anos 1980, fez nascer um interesse pelas questões da área central de São Paulo que mais tarde retomei. Ao deixar o DPH fui para a Secretaria Estadual de Cultura, em que coordenei um projeto proposto pelo secretário Jorge da Cunha Lima, cujo nome era Luz Cultural. O foco era a criação de um bairro onde a cultura seria a atividade primordial. Havia uma
influência de projetos em andamento na Europa, nos quais se buscava criar espaços urbanos privilegiados para as atividades culturais, que, por sua vez, promoveriam processos de renovação urbana. Na Europa, a saída dos grandes mercados de alimento das regiões centrais rumo a áreas mais distantes abriu caminho para reurbanizações radicais. Hoje penso que, apesar da intuição correta da proposta, a função cultural não sustentaria as transformações urbanas desejáveis para a região. Quais mudanças presenciou na FAU? O grande abalo sofrido pela arquitetura e pelo urbanismo a partir nos 1960 e 1970 centrado no Movimento Moderno, como não poderia deixar de ser, atingiu a prática e o ensino. A renovação teórica foi intensa. Isso deveria repercutir pesadamente no conteúdo dos cursos. Mas a disposição de rever convicções e, consequentemente, o próprio método de ensino mostrou-se uma tarefa bastante difícil. Houve um certo entrincheiramento contra as novas teorias, sobretudo aquelas que punham em causa aspectos do modernismo e do funcionalismo urbano. Isso atingia bastante o planejamento urbano e o urbanismo. Um exemplo bem marcante: existia em Londres um emblemático órgão de planejamento urbano, o Conselho da Grande Londres (GLC), que concentrava todas as informações necessárias para a elaboração do planejamento e do projeto urbano. Era invejado em todo mundo pelo seu pioneirismo e eficiência. Esse centro foi fechado em 1983, depois que Margaret Thatcher [1979-1990] assumiu o cargo de primeira-ministra. A ascensão do thatcherismo, no caso londrino, e do neoliberalismo, de forma mais geral, levou o planejamento urbano e o urbanismo a um grande recuo. Até os anos 1980, em São Paulo, as secretarias municipal e estadual de Planejamento eram órgãos importantes. Mas a partir dos anos 1990 elas se tornaram muito menos decisivas. Tudo isso dificultou a aceitação de críticas pertinentes que se apresentavam naquele momento. De que forma a senhora abordou curricularmente essas mudanças? Em 1991 propus a disciplina chamada “Intervenção na cidade existente: O percurso do projeto urbano”. O objetivo
Até a década de 1980, em São Paulo, as secretarias de Planejamento eram órgãos importantes. A partir dos anos 1990, tornaram-se muito menos decisivas
era discutir os projetos, do exterior e os nacionais, buscando desenvolver a capacidade do aluno de fazer uma análise crítica de projetos urbanos contemporâneos. Fizemos um grande esforço para que o curso e os exercícios desenvolvidos em aula levassem os alunos a entender a complexidade da cidade contemporânea, a cidade existente, para dela retirar as possibilidades do projeto. Seus condicionantes, de toda ordem, é que deveriam ser os pontos de partida do projeto. Esse curso foi o principal responsável pelo meu engajamento na graduação. Nessa mesma época de crise do plane jamento no exterior o Brasil foi em di-
reção contrária, com a definição da função social da habitação pela Constituição de 1988, a aprovação do Estatuto das Cidades (2001), a criação do Ministério das Cidades, os planos diretores... Essa direção contrária, na verdade, se resume a importantes marcos legais. Alguns ainda incompletos no que é essencial. O próprio Ministério das Cidades é pouco efetivo. Apesar do peso do urbano no Brasil, não chega a exercer um papel importante no pensamento sobre as cidades e metrópoles nacionais. A sua única atuação forte foi a condução do programa Minha Casa, Minha Vida, que já gastou algo perto de R$ 300 bilhões, produzindo conjuntos habitacionais que guardam todas as características do triste padrão periférico disseminado dos anos 1960. O planejamento ficou numa posição quase irrelevante. Uma ação de planejamento, para valer, deveria ter cruzado o transporte com o valor da terra, por exemplo. Muitos projetos habitacionais desconhecem o impacto da construção de uma linha e estações do metrô. As contradições saltam aos olhos. A rede de transportes em São Paulo está se ampliando e logo haverá metrô em regiões que ainda são carentes de infraestrutura básica. É um descompasso grande, mas, por outro lado, é preciso defender a chegada do transporte de massa, que é essencial para melhorar a vida de seus moradores. A senhora sempre defendeu uma ideia que já foi polêmica, do adensamento populacional do Centro de São Paulo. A defesa do adensamento não era polêmica. Havia quase um consenso de que o Centro estava esvaziado. E isso é um desperdício, pois ali se concentra de forma muito clara uma infraestrutura capaz de abrigar muito mais gente. Houve um período em que os moradores da área central foram se deslocando para a periferia. Eu defendia a ideia, que hoje se tornou hegemônica, de que era preciso repovoar o Centro. A densidade seria uma forma de aproveitar a infraestrutura já implantada. A região central oferece a segunda maior quantidade de postos de trabalho da cidade. Hoje, os setores do município com os maiores índices de trânsito são bairros estritamente residenciais de baixíssima densidade populacional, como o Morumbi. Em contraponto, em uma área de uso misto é possível fazer praticamente tudo a pé. n PESQUISA FAPESP 254 | 31
política c&T Difusão y
Revisão A em praça pública
Wellcome Trust, fundação do Reino Unido que financia pesquisa biomédica, anunciou no dia 17 de janeiro que passará a aceitar preprints nas referências bibliográficas dos projetos que apoia. Preprints são artigos que ainda não passaram pelo crivo da revisão por pares, a forma de avaliação consagrada em revistas científicas – em vez disso, eles são disponibilizados em repositórios eletrônicos públicos e expõem seus resultados à crítica instantânea da comunidade científica. “Esperamos que, ao citar preprints, os pesquisadores sintam-se encorajados a utilizar esse modelo para divulgar resultados e descobertas mais rapidamente”, explicou, em um comunicado, Robert Kiley, diretor de serviços digitais da Wellcome Trust. No dia 24 de março, foi a vez de os Institutos Nacionais de Saúde (NIH), principal organização de fomento à pesquisa médica dos Estados Unidos, autorizarem que seus candidatos citem preprints nos projetos submetidos à agência. Revistas científicas costumam levar meses ou até mais de um ano para cumprir as etapas do processo de avaliação de um artigo e publicá-lo efetivamente. Já no caso de um preprint, o manuscrito é imediatamente disponibilizado para leitura e comentários. As iniciativas da Wellcome Trust e dos NIH fazem parte de um movimento que ganhou fôlego com o crescimento recente da publicação de preprints em áreas como as ciências da vida e as ciências sociais, reproduzindo a experiência das ciências exatas. O repositório arXiv, atualmente sediado na Universidade de Cornell, nos Estados
Bastante utilizado nas ciências exatas, modelo de publicação de preprints ganha espaço na biologia e nas ciências sociais
Bruno de Pierro
A consolidação dos repositórios ao longo do tempo 1991 O físico Paul Ginsparg, da Universidade Cornell, cria um servidor de preprints no Laboratório Nacional Los Alamos, dando origem, mais tarde, ao arXiv, hoje mantido por doações de bibliotecas e instituições filantrópicas
32 z abril DE 2017
1994
Inspirad os pelo arXiv, os econ omistas Michae Jensen l e Wayn e Marr lançam a Socia l Scienc Researc e h Netw ork (SSRN), reposit ório no qual ma is de 30 0 mil pesquis adores de ciên sociais cias divulga ram seu trabalh s os. Em 2016, foi com prado pela ed itora Els evier
1996 Em encontro promovido pelo Conselho Internacional para a Ciência (ICSU), em Paris, um painel debate se os preprints deveriam ser reconhecidos como produção científica relevante, por não passarem pelo crivo da revisão por pares
1997
Pesquisadores em economia de ma is de 80 países criam o Research Papers in Econom ics (RePEc), base de preprints mantida por volun tários. Atualmente, o rep ositório disponibiliza ma is de 1,2 milhão de art igos e registra cerca de 48 mil autor es
2005
Editorial da Nature informa que a revista aceita a submissão de manuscritos que tenham sido depositados preliminarmente em repositórios eletrônicos. Outros periódicos seguem o exemplo
Rotas distintas A publicação de um manuscrito em uma publicação tradicional e em um repositório
Revista científica (revisão por pares) Retorno Pesquisa
Manuscrito
Periódico
Revisão por pares
Editor
Rejeição
Rejeição
Atualização Leitores especializados
preprint Pesquisa
Manuscrito
Repositório de preprints Publicação
Revista científica
ilustrações daniel bueno
Periódico
Unidos, é utilizado por físicos, matemáticos e cientistas da computação há 26 anos e inspira novas iniciativas. Em fevereiro de 2016, 30 organizações científicas e instituições de apoio em todo o mundo, entre elas a Academia Chinesa de Ciência, a Fundação Bill e Melinda Gates, os NIH e a Wellcome Trust, uniram-se em um convênio e fizeram um apelo para que todos os dados coletados durante o surto do vírus zika passassem a ser disponibilizados de forma rápida e aberta. A decisão segue preceitos de uma declaração da Organização Mundial da Saúde de setembro de 2015, que incentiva a divulgação rápida de dados durante emergências em saúde, encurtando o caminho entre informações científicas, autoridades
2007 O Nature Publishing Group, que edita a Nature, lança o Nature Precedings, repositório para ciências biomédicas, ciências da Terra e química, com parceiros como a British Library e a Wellcome Trust. O projeto foi encerrado em 2012 por não ter retorno econômico
2013
São lançados dois repositórios de preprints para as ciências da vida: o bioRxiv, no Laboratório Cold Spring Harbor, nos EUA; e o PeerJ Preprint, braço da revista eletrônica PeerJ, uma organização sem fins lucrativos
Editor
Revisão por pares
e público. A medida surtiu efeito e, já em março, estudos com indícios contundentes da relação entre o zika e a microcefalia foram publicados em preprints. Um desses trabalhos foi disponibilizado pela equipe do neurocientista Stevens Rehen, da Universidade Federal do Rio de Janeiro (UFRJ) e do Instituto D’Or de Pesquisa e Ensino (Idor), no repositório PeerJ Preprints. O grupo verificou que o zika invade e mata células-tronco precursoras de células neurais (ver Pesquisa FAPESP nº 242). Esse texto preliminar foi bastante citado e teve mais de 13 mil visualizações, conta Rehen, que depois submeteu o artigo à revista Science. “O preprint não inviabiliza a publicação posterior
2014ório divulgadeo
c Relat Scien Open apoio pela m o c tive, de Initia defen esco, n e U d a d ade cia essid eriên a nec a exp ir d n expa ts reprin reas da dos p sá a r t ou ndo para toma , ia c arXiv ciên o base como
2015
Um gru po de b iólogos nos EU A funda a A S A Pb io, orga nização sem fin s lucrati vos, para pro mover o uso d preprin e ts nas c iências da vida . Uma d a s propos tas é ce ntraliza os repo r sitórios de biológic as em u m único site na interne t
Fonte berg, J. M., et al. science v. 352 (899-901). mai. 2016
2016
Usan do o exem com pa plo d o de d rtilhame n ados sobr to zika, eov a We írus ll os N IH in come Tru iciam st e para cam in panh publi centivar a a caçã o resu ltado rápida d e s em repo sitór ios
pESQUISA FAPESP 254 z 33
Pesquisadores de ciências exatas publicam mais em repositórios do que os de biológicas Fonte Nature / arXiv / PrePubMed / bioRxiv
10 Preprints por ano (milhares)
Modelo em alta
n Ciências Exatas (arXiv)
8
n Ciências da vida
6 4 2 0 1992
1996
2000
2004
2008
2012
do artigo em um periódico e permite ao autor receber críticas de seus pares, o que pode contribuir para o refinamento do manuscrito a ser encaminhado a uma revista de impacto”, explica o pesquisador. A versão publicada em abril de 2016 na Science contém modificações solicitadas pelos revisores da revista: “Sugeriram que incluíssemos dados sobre a dengue, para efeito de comparação com o vírus zika”. Resistência
A Science, como outros títulos, não publica artigos cujos resultados já tenham sido divulgados em outras revistas, a fim de garantir a originalidade de seu conteúdo. Mas admite publicar bons artigos já depositados em repositórios, como o bioRxiv, de ciências biológicas, ou o arXiv. Contudo, ainda há periódicos que não aceitam publicar artigos oriundos de preprints. É o caso, por exemplo, do Journal of Clinical Investigation, editado pela Sociedade Americana para a Investigação Clínica (Asci). Embora o número de preprints em biologia esteja crescendo (ver gráfico na página 35), o modelo enfrenta resistências, principalmente entre pesquisadores de áreas como bioquímica e microbiologia, conta a bióloga Jessica Polka, da Universidade da Califórnia em São Francisco, Estados Unidos. “A adesão de biólogos ao modelo de preprints é historicamente baixa, pois não temos o traço cultural de compartilhar manuscritos dessa maneira”, explica. Jessica dirige a ASAPbio, organização criada em 2015 para promover o uso de preprints nas ciências da vida. Recentemente a entidade avaliou o que os pesquisadores pensam sobre o modelo. Embora 92% dos 392 participantes da pesquisa estivessem cientes do que é um preprint, somente 31% disseram já ter publicado dessa forma. Mesmo assim, 78% admitiram usar preprints como fonte de informação científica. De acordo com Jessica Polka, o principal temor dos biólogos em relação aos preprints é que os artigos sejam vistos como trabalhos de qualidade inferior, que não passaram pela revisão por pares. Ela observa, porém, que 65% dos artigos de astronomia, astrofísica, física nuclear e física 34 z abril DE 2017
2016
de partículas publicados em revistas indexadas entre 1995 e 2011 tinham versões preliminares depositadas no arXiv. “Os preprints não querem competir com a publicação convencional em revistas. Trata-se de um complemento”, afirma. A iniciativa tem inspirado projetos em outros países. No Brasil, a biblioteca eletrônica SciELO (sigla para Scientific Eletronic Library On Line) anunciou em fevereiro que lançará o repositório SciELO Preprints. Segundo o comunicado da direção da biblioteca, o objetivo é dar celeridade à publicação de artigos no país. Olavo Amaral, professor do Instituto de Bioquímica Médica da UFRJ, observa que os sistemas de financiamento à pesquisa delegaram a avaliação da qualidade da ciência aos periódicos, devido à confiança na revisão por pares. “Mas a revisão por pares não é um filtro suficiente para assegurar a qualidade de um artigo”, diz. No modelo tradicional, ele afirma, a maioria das revistas conta com avaliadores voluntários e cada trabalho é geralmente analisado por no máximo três revisores. “No modelo de preprint, é possível colocar o artigo sob o olhar crítico de centenas ou milhares de pares, de maneira aberta”, explica Amaral. Ele, Stevens Rehen e Eduardo Fraga, professor do Instituto de Física da UFRJ, debateram, em 2016, o assunto em evento da Academia Brasileira de Ciências (ABC), realizado em Belo Horizonte. Amaral conta que publicou dois preprints no bioRxiv – uma revisão da literatura científica sobre biomarcadores em psiquiatria e outra sobre um modelo usado para estudar a memória em roedores. Segundo ele, a repercussão dos artigos foi rápida e positiva nas mídias sociais, com diversos tuítes citando os artigos poucas horas depois de serem publicados. Entretanto, o retorno dos leitores no repositório foi pouco expressivo em termos de críticas e comentários. “Os pesquisadores precisam ser estimulados a comentar e a propor ajustes nos preprints que leem. Não há ainda esse hábito entre os biólogos”, avalia. No caso da física de partículas, o panorama é bastante favorável: os preprints assumiram posição central em debates em torno de novas teorias. Um
dos exemplos mais recentes é o do di-fóton 750 GeV, um sinal fraco que apareceu em dezembro de 2015 nos dados do Grande Colisor de Hádrons (LHC, em inglês). A notícia de uma possível nova partícula resultou na produção de muitos trabalhos teóricos, publicados especialmente no arXiv, tentando caracterizar e explicar a descoberta. “Os físicos estão acostumados a escrever artigos especulativos ou não conclusivos. Não há nada de errado nisso. No melhor dos cenários, descobrimos algo novo a partir da troca de ideias”, esclarece Mihailo Backovic, pesquisador do Centro de Cosmologia, Física de Partículas e Fenomenologia da Universidade Católica de Louvain, na Bélgica. Atualmente o arXiv tem registrados mais de 210 mil pesquisadores ativos e esse número cresce cerca de 10% ao ano. Por dia, há mais de 1,2 milhão de acessos no site e são submetidos de 500 a mil novos manuscritos. “É evidente que no meio disso há muitas ideias ruins e algumas até erradas. Por isso que o filtro da revisão por pares mantém sua relevância”, pondera Backovic. Os repositórios de preprints são frequentemente questionados em relação à verificação da qualidade do que publicam. Alguns deles, como o arXiv, têm investido em softwares que conseguem identificar palavras duplicadas e possíveis casos de plágio. Também exigem que os pesquisadores comprovem seu vínculo institucional. como navegar
Mas como navegar pelos repositórios em meio ao enorme volume de preprints? “Uma prática comum entre os físicos é entrar no arXiv pela manhã e checar o que foi publicado”, conta George Matsas, professor do Instituto de Física Teórica da Universidade Estadual Paulista (Unesp). Segundo ele, o repositório criou mecanismos que ajudam o pesquisador a acessar conteúdo desejado. “O arXiv é atualizado uma vez ao dia com as listas de preprints organizados por subáreas. No meu caso, sempre consulto as categorias sobre relatividade geral e física quântica, nas quais são publicados de 20 a 30 trabalhos por dia”, explica Matsas. Não é de hoje que cientistas compartilham informações antes de publicá-las. Em tempos anteriores à internet, houve preprints impressos e enviados por correio para pesquisadores interessados e bibliotecas, antes de serem formalmente revisados pelos pares. Entre 1961 e 1966, os NIH, nos Estados Unidos, promoveram a criação dos Grupos de Trocas de Informações em instituições de pesquisa e universidades, com a distribuição organizada de preprints. No Brasil, uma experiência pioneira foi a criação, em 1952, da revista Notas de Física, editada pelo Centro Brasileiro de Pesquisas Físicas (CBPF), dedicada a publicar trabalhos preliminares.
O físico Francisco Antonio Doria, que obteve um doutorado no CBPF em 1977, conta que ao longo da carreira publicou diversos preprints e considera esse modelo mais democrático do que o convencional. “Muitas vezes a revisão por pares torna-se uma barreira intransponível quando o pesquisador propõe ideias radicais ou controversas”, afirma. Nos repositórios, diz Doria, há mais espaço para polêmicas, mas nem sempre o feedback é amigável. “Certa vez publiquei no arXiv um paper sobre complexidade computacional. Minhas conclusões iam na contramão das ideias correntes e recebi muitos comentários agressivos e até xingamentos.” Para Eduardo Fraga, da UFRJ, a troca de informações é fundamental para o avanço da ciência, e pode ocorrer de diferentes formas: em reuniões de departamentos, congressos ou grupos de e-mail. “O que os repositórios eletrônicos de preprints estão conseguindo fazer é amplificar o alcance dessa prática”, observa. “Pesquisadores em regiões periféricas, longe dos grandes centros produtores de conhecimento, podem consultar repositórios como o arXiv e ficar a par do que está sendo pesquisado em determinada disciplina.” Outra área que vem explorando com mais intensidade o uso dos preprints é a das ciências humanas. No ano passado, o Center for Open Science, organização sem fins lucrativos sediada nos Estados Unidos, lançou o SocArXiv, voltado para pesquisadores em sociologia, direito, educação e artes. A instituição também cuida de outros repositórios, como o PsyArXiv, dedicado à psicologia. “Nosso desafio é convencer os pesquisadores das ciências sociais a participar”, diz a socióloga Elizabeth Popp Berman, professora
Evolução nas ciências da vida Número de artigos publicados em repositórios voltados a esse campo do conhecimento Fonte ASAPbio
1.000
Repositórios: n arXiv q-bio n Nature Precedings n F1000 Research n PeerJ Preprints
800
n bioRxiv n The Winnower n preprints.org n Wellcome Open Research
600
400
200
0 2006
2007
2008
2009
2010
2011
2012
2013
2014
2015
2016
2017
pESQUISA FAPESP 254 z 35
Produção no arXiv Número e porcentagem de trabalhos enviados ao repositório entre 1991 e 2016 em diversas áreas das ciências exatas Matemática e Física Matemática
267.469 (21,9%) Física de Altas Energias
203.315 (16,7%) Física da Matéria Condensada
196.411 (16,1%) Astrofísica
192.160 (15,8%) Ciências da Computação
105.378 (8,6%) outras áreas da física
78.068 (6,4%) Física Quântica
58.108 (4,8%) Relatividade Geral e Cosmologia Quântica
38.485 (3,2%) Teoria nuclear
32.336 (2,7%) Ciências Não Lineares
16.552 (1,4%) Estatística
13.324 (1,1%) Biologia Quantitativa
12.713 (1%) Finanças Quantitativas
4.900 (0,4%) Fonte arxiv
da Universidade de Albany, nos Estados Unidos, e membro do comitê gestor do SocArXiv. De maneira geral, diz ela, a maioria dos pesquisadores em ciências sociais não sente necessidade de publicar seus trabalhos com a mesma rapidez dos colegas das ciências naturais. “Além disso, em algumas áreas das humanidades, os pesquisadores privilegiam a publicação de livros, ainda que na sociologia a produção de artigos esteja se tornando uma prioridade”, afirma. custos
Assim como outros repositórios, o SocArXiv é mantido graças a doações, oriundas, por exemplo, do Instituto de Tecnologia de Massachusetts e da Universidade da Califórnia. Um dos aspectos positivos dos preprints é que os custos para manter repositórios são menores do que os desembolsados por editoras para manter suas revistas. O arXiv, por exemplo, disponibiliza mais de 1,2 milhão de artigos a um custo anual de cerca de US$ 827 mil – ou aproximadamente US$ 0,70 por artigo. Os repositórios não cobram taxas dos autores e o preprint é publicado em acesso aberto. Já as taxas de publicação cobradas por revistas editadas pela 36 z abril DE 2017
editora holandesa Elsevier, por exemplo, podem variar entre US$ 500 e US$ 5.000. Outras áreas das ciências humanas estão mais habituadas aos preprints. É o caso da economia, cujos pesquisadores contam com alguns repositórios já consolidados. Um deles é o do National Bureau of Economic Research (NBER), dos Estados Unidos. Outro é o projeto Research Papers in Economics (RePEc), lançado em 1997, que reúne mais de 1.800 arquivos de repositórios e bibliotecas eletrônicas de 89 países. Nas ciências sociais, há a pioneira Social Science Research Network (SSRN), em operação desde 1994. O advogado Douglas Castro, estagiário de pós-doutorado na Fundação Getulio Vargas de São Paulo (FGV-SP), que atua na área de direito ambiental, começou a utilizar a SSRN em 2014. “Publicar em revistas bem classificadas não garante que seu artigo seja amplamente disseminado”, afirma. “Recorri aos preprints para que meu trabalho tenha maior visibilidade entre pesquisadores de outras áreas e não só do direito”, diz Castro, que aproveita as sugestões que recebe de usuários do repositório para preparar a versão final dos artigos. Um preprint publicado por ele no mês passado, por exemplo, atraiu a atenção de um geólogo, que propôs uma definição melhor para o termo “escassez hídrica”. Em maio de 2016, a Elsevier adquiriu a SSRN. “O objetivo é proporcionar maior acesso à crescente base de conteúdo gerado pelos usuários e aumentar o envolvimento com um conjunto mais amplo de pesquisadores”, explica Gemma Hersh, diretora de política e comunicações da Elsevier. Embora reconheça o papel dos servidores de preprints, Gemma afirma que a publicação em periódicos ainda é a maneira mais segura de avaliar o mérito de um estudo. “O papel dos revisores e dos editores é crucial”, enfatiza ela. “Eles garantem que um preprint se torne um artigo confiável, que é aprimorado após passar pela revisão por pares.” Nem sempre, porém, isso parece necessário. Em um estudo publicado em 2016, pesquisadores da Universidade da Califórnia analisaram cerca de 12 mil preprints depositados no arXiv entre 2003 e 2015 e os compararam com suas versões publicadas em revistas científicas. A principal conclusão é de que não havia diferenças significativas nos textos das duas versões em 80% dos artigos. Na avaliação de Stevens Rehen, da UFRJ, o papel dos periódicos tende a mudar com o avanço dos preprints. Como sugestão, ele e outros entusiastas do modelo propõem que as editoras passem a atuar como curadoras de informações científicas. “Em vez de determinar o que deve ou não ser publicado, elas poderiam selecionar dos grandes repositórios de preprints aquilo que consideram mais relevante para ser publicado como artigo”, propõe. n
Pesquisa & Desenvolvimento y
Pontos fora da curva Análise de dados da Pintec indica que cooperação entre empresas e universidades é intensa apenas em setores limitados da economia Fabrício Marques
ilustrações nelson provazi
U
m artigo publicado em março no periódico norte-americano The Journal of Technology Transfer ajuda na compreensão de fatores que regulam a cooperação entre universidades e empresas no Brasil. O estudo se apoiou nas respostas de uma amostra de 17.749 empresas, que representam um universo de 128.699 companhias brasileiras, para a Pesquisa de Inovação (Pintec) de 2011 e mostrou que a disseminação de parcerias entre instituições científicas e o setor privado em pesquisa e desenvolvimento (P&D) depende da intensidade das atividades de inovação em cada segmento da economia. Em setores com mais investimento em inovação, como exemplo os de biocombustíveis, papel e celulose ou eletricidade e gás, a cooperação está vinculada à existência de atividades internas de P&D nas empresas, que servem de baliza para a interação com as universidades, à disponibilidade de financiamento público para inovação e também ao tamanho da empresa – as maiores tendem a celebrar mais colaborações. Já nos setores com menos vigor
tecnológico, onde está a maioria das empresas que respondeu à Pintec, a lógica é diferente: muitas delas, sem manter atividade própria de P&D, cooperam principalmente contratando serviços de universidades e institutos de pesquisa para suprir necessidades pontuais. “Esse tipo de parceria parece substituir nessas empresas o apoio a atividades internas de P&D. Esse achado vai contra o entendimento de que as empresas precisam ter P&D interno também para conseguir absorver os resultados de P&D externo”, afirma o economista Nicholas Vonortas, um dos autores do artigo. Professor da George Washington University (GWU), em Washington, Vonortas é titular na Universidade Estadual de Campinas (Unicamp) de uma São Paulo Excellence Chair (Spec), um programa-piloto da FAPESP que busca estabelecer colaborações entre instituições do estado de São Paulo e pesquisadores de alto nível radicados no exterior. O paper é um dos resultados da pesquisa de doutorado do sociólogo Diego Rafael de Moraes Silva, no Departamento de Política Científica e Tecnológica (DPCT) da pESQUISA FAPESP 254 z 37
Presença de poucos setores com atividades vigorosas de P&D exigiu uma estratégia peculiar na análise dos dados
Unicamp, que teve início em 2015. Diego é orientado pelo economista André Tosi Furtado, professor da Unicamp que também assina o artigo, e por Vonortas, da GWU. Atualmente, o doutorando cumpre um período sanduíche no Institute for International Science and Technology Policy da GWU. Uma primeira análise dos dados da Pintec mostrou aos autores que existiam alguns poucos setores da economia com indicadores de inovação vigorosos, em quesitos como o pessoal ocupado e investimento em P&D. “Isso criava um problema, porque a presença de alguns setores com desvios-padrões muito acima da média, os chamados outliers, atrapalha a confiabilidade da análise estatística”, explica Diego. A solução encontrada foi separar os outliers, que são segmentos intensivos em inovação, dos demais, e estudar os dois grupos em separado. Daí surgiu a conclusão de que as variáveis que determinam a cooperação obedecem a lógicas distintas em cada uma das duas categorias. Outro dado curioso da pesquisa aponta um apetite muito maior das empresas com P&D vigoroso pelo financiamento público para a inovação. “Essa evidência sugere que a política pública pode não estar modificando comportamentos preexistentes, mas atingindo setores que já estariam predispostos a inovar de qualquer maneira”, afirma André Tosi Furtado. De acordo com o professor, a ideia de que o P&D interno é um indicador valioso sobre a capacidade de inovação das empresas está consagrada. “São essas empresas que têm capacidade de fazer as perguntas certas para as universidades. Alguns setores empresariais do país se comportam dessa maneira e outros parecem caminhar nessa direção, como os segmentos de cosméticos, eletrônicos, produtos ópticos e autopeças”, 38 z abril DE 2017
afirma. Furtado observa que, em um país com um sistema de inovação imaturo como o Brasil, a aposta de empresas em P&D externo é compreensível. “São empresas sem muita capacidade estruturada interna que contratam serviços de pesquisa de universidades e institutos de pesquisa. Boa parte dessa cooperação nem chega a ser propriamente P&D. Envolve, por exemplo, testes de produtos”, analisa. No Brasil, um conjunto maior de setores empresariais obtém P&D de terceiros e há indicações, na recente Pintec de 2014, de que esse comportamento está avançando em diversos setores. PONTOS DE INTERAÇÃO
Eduardo Motta Albuquerque, professor da Faculdade de Ciências Econômicas da Universidade Federal de Minas Gerais (UFMG), observa que os resultados do artigo dialogam com análises feitas por outros autores, que já mostravam um comportamento peculiar das empresas intensivas em inovação – ele próprio participou de um estudo internacional recente que apontou a existência de 29 pontos de interação entre universidades e empresas brasileiras em 20 setores da economia brasileira, enquanto nos Estados Unidos foram encontrados 47 pontos de interação em 34 setores (ver Pesquisa FAPESP nº 234). “Mas esse artigo produz uma análise estatística e econométrica muito criativa e evidencia um problema estrutural importante com a definição de outlier: a cooperação entre universidade e empresa está pouco disseminada no Brasil e seus exemplos são pontos fora da curva, tanto que precisaram ser separados na análise estatística.” A pesquisa de doutorado de Diego de Moraes Silva tem uma ambição mais ampla: avaliar o potencial da Pintec, pesquisa produzida pelo IBGE desde 2000, para gerar novos indicadores e análises
capazes de orientar políticas públicas no campo da inovação. “A Pintec é bastante apropriada para verificar a perspectiva da indústria sobre suas interações com a universidade, mas o manancial de dados é pouco explorado por pesquisadores e por autoridades. As políticas públicas em geral se baseiam em indicadores de P&D”, diz. Segundo André Furtado, o questionário de 195 perguntas que as empresas responderam para o IBGE em 2011 produz uma variedade de dados muito expressiva. “É possível fazer regressões estatísticas a partir dessas informações, que nos ajudariam a entender melhor os fenômenos da inovação no Brasil.” O acesso aos chamados microdados da Pintec é franqueado a pesquisadores, mas com algumas certas restrições. Os interessados em dados em nível de empresas precisam apresentar um projeto ao IBGE indicando as informações de que necessitam e o que pretendem fazer com elas. Como os dados são fornecidos pelas empresas com o compromisso de confidencialidade, o IBGE só os repassa se houver garantia de que os respondentes não serão identificados. Diego pretende, em breve, investigar dados detalhados, mas, para produzir esse primeiro artigo, debruçou-se sobre indicadores agregados de 55 setores empresa-
Estatísticas descritivas da Pintec são exploradas por ministérios, secretarias e entidades do setor privado, diz Alessandro Pinheiro, do IBGE
riais que estão disponíveis no relatório da Pintec de 2011 divulgado ao público. “A ideia era avaliar preliminarmente se mesmo o acesso a dados agregados não permitiria extrair conclusões interessantes”, afirma. O economista Alessandro Pinheiro, coordenador da Pintec, concorda que os resultados da pesquisa do IBGE poderiam ser mais bem explorados, mas vê dificuldades para expandir sua utilização, principalmente na academia. “Os estudos de economia da inovação estão, em geral, vinculados a centros de pesquisa em economia heterodoxa, e eles se limitam a poucas universidades, como a Unicamp e a UFRJ [Universidade
Federal do Rio de Janeiro], e um pouco na USP [Universidade de São Paulo] e na UFMG. Já a administração de empresas e a engenharia de produção têm um foco natural em estudos de caso e fazem pouco uso de métodos estatísticos e empíricos elaborados”, afirma. Na esfera das políticas públicas, Pinheiro afirma que falta capacitação no país para utilizar métodos e ferramentas capazes de manipular os microdados da Pintec. Segundo ele, não adiantaria oferecer mais salas de pesquisa na sede do IBGE para o estudo dos dados setoriais da Pintec porque a demanda, principalmente de estados e municípios, ainda é pequena. “A expertise está muito concentrada em São Paulo e no Rio, e também em Brasília, graças ao Ipea”, afirma o gerente da Pintec, referindo-se ao Instituto de Pesquisa Econômica Aplicada (Ipea), fundação vinculada ao Ministério do Planejamento e Gestão, cujos pesquisadores já produziram vários trabalhos detalhados usando os microdados da Pintec. Pinheiro ressalva, contudo, que o interesse pelos dados tende a aumentar à medida que a pesquisa se desdobra em novos temas, caso, por exemplo, da inclusão do setor de eletricidade e gás em 2011 ou de dados sobre o gênero dos pesquisadores ou sobre compras públicas a partir de 2014. “Se são pouco utilizadas em publicações científicas, por outro lado as estatísticas descritivas da Pintec já são bastante exploradas por ministérios, secretarias de ciência e tecnologia e organizações do setor privado, criando parâmetros inclusive para a Estratégia Nacional de Ciência e Tecnologia.” Para Nicholas Vonortas, o acesso a dados pormenorizados da Pintec promete produzir análises interessantes. “Estamos desenvolvendo um projeto para trabalhar com dados no nível de empresas e imagino o quanto eles serão valiosos”, afirma. n
Projeto Sistemas de inovação, estratégias e políticas (nº 13/ 50524-6); Modalidade Programa São Paulo Excellence Chair (Spec); Pesquisador responsável Nicholas Spyridon Vonortas (George Washington University e Unicamp); Investimento R$ 1.655.029,25, para todo o projeto.
Artigo científico MORAES SILVA, D. R., FURTADO, A. T. e VONORTAS, N. S. University-industry R&D cooperation in Brazil: A sectoral approach. The Journal of Technology Transfer (2017). Publicado on-line em 3 mar.
pESQUISA FAPESP 254 z 39
Gênero y
U
m relatório divulgado pela editora holandesa Elsevier no dia 8 de março, Dia Internacional da Mulher, apresenta um inédito conjunto de dados comparativos sobre a produção científica de homens e mulheres em 27 áreas do conhecimento. O estudo analisou dados de 11 países e do conjunto da União Europeia e mostrou, de maneira geral, avanços em direção a um equilíbrio de gênero na ciência ao longo dos últimos 20 anos. No período de 1996 a 2000, apenas um dos países estudados, Portugal, tinha mais de 40% de seus pesquisadores do sexo feminino. Já entre 2001 e 2015, havia vários outros sócios nesse clube, como Estados Unidos, Reino Unido, Austrália, Canadá, França, Dinamarca e Brasil, além da União Europeia. A íntegra do relatório está disponível em bit.ly/GeneroCiencia. A proporção de homens e mulheres foi medida por meio da identificação e da contagem de autores que publicaram em revistas indexadas na base de dados Scopus, da Elsevier, que reúne mais de 62 milhões de artigos publicados em mais de 21,5 mil publicações científicas. Intitulado “Gênero no panorama global da pesquisa”, o relatório aponta o Brasil como um dos países que mais avançaram nos indicadores gerais. “No Brasil e em Portugal, a proporção de mulheres entre os autores já é próxima de 50%, enquanto o Japão, no outro extremo, segue com uma participação feminina na ciência muito baixa”, afirma a microbiologista Holly Falk-Krzesinski, vice-presidente de relações acadêmicas da Elsevier e uma
40 z abril DE 2017
Estudo compara produção científica de mulheres em vários países e destaca o Brasil entre os que avançam
das responsáveis pelo estudo, segundo o site Inside Higher Ed. Os autores brasileiros que publicaram entre 2001 e 2015 formam duas populações quase equivalentes: foram 153.967 mulheres e 158.873 homens, respectivamente, 49% e 51% do total. A proporção observada entre 1996 e 2000 era de 62% para os homens e 38% para as mulheres, ainda que os indicadores dos dois períodos não possam ser diretamente comparados porque o número de periódicos brasileiros na base Scopus no final do século passado era bem menor do que o atual. O Brasil aparece em situação relativamente equilibrada também em um subgrupo de indicadores. A presença de mulheres entre autores de artigos científicos em engenharia é um exemplo. Do total da produção brasileira nessa área entre 2011 e 2015, 48% dos documentos têm uma mulher como primeira autora ou como autora correspondente – no Reino Unido, esse índice é de 44%, nos Estados Unidos, de 43%, e no Japão, de 35%. Analisando outro indicador, a participação feminina e masculina entre inventores, o desequilíbrio no Brasil se revela menor que em outros países: há 19% de mulheres e 81% de homens, desempenho inferior apenas ao de Portugal, com 26% de mulheres. No Japão, as mulheres são 8% dos inventores e nos Estados Unidos, 14% – embora, em números absolutos, esses dois países tenham de 60 a 90 vezes mais inventores que o Brasil. O contingente de inventores equivale aos depositantes de patentes registrados na base de dados da Organização Mundial de Propriedade Intelectual (Wipo, em inglês).
A evolução do número absoluto e do percentual de autores de artigos científicos divididos por sexo em 11 países e na União Europeia* n Mulheres n homens Brasil 1996-2000 2011-2015
18.171 153.967
29.620
38% 62%
158.873
49% 51%
7.409
41% 59%
28.935
49% 51%
Portugal 1996-2000 2011-2015
5.134 27.561 austrália
1996-2000
22.632
45.665
33% 67%
2011-2015
75.600
97.908
44% 56%
canadá 1996-2000
36.539
77.569
32% 68%
2011-2015
99.055
137.259
42% 58%
união europeia 1996-2000
343.946
732.359
32% 68%
2011-2015
965.025
1.389.772
41% 59%
dinamarca 1996-2000 2011-2015
7.089 21.240
16.984
29% 71%
30.813
41% 59%
estados unidos 1996-2000
310.666
696.947
31% 69%
2011-2015
705.579
1.071.606
40% 60%
reino unido 1996-2000 2011-2015
68.912
154.175
31% 69%
166.481
253.257
40% 60%
frança 1996-2000
58.396
1 1 4 .205
34% 66%
2011-2015
121.948
185.350
40% 60%
méxico 1996-2000 2011-2015
8.072
15.792
34% 66%
34.410
55.042
38% 62%
chile 1996-2000 2011-2015
3.021 13.377
6.024
33% 67%
22.099
38% 62%
japão 1996-2000 2011-2015
49.173
273.604
15% 85%
105.384
411.394
20% 80%
* Os dados se referem a pesquisadores que publicaram papers e tiveram o nome e o sexo declarados em perfis da base Scopus ou identificados por meio de softwares Fontes Scopus, Genderize, NamSor e Wikipedia
A bióloga e cientista da informação Jacqueline Leta, professora da Universidade Federal do Rio de Janeiro (UFRJ) e estudiosa das questões de gênero na ciência, diz que há traços culturais e formas de organização da atividade científica no país que podem ajudar a explicar por que as pesquisadoras brasileiras parecem enfrentar menos obstáculos que as de outras nações. “A possibilidade de a mulher deixar as tarefas domésticas nas mãos de outras pessoas não é encontrada no exterior. Em outros países, é mais difícil para as mulheres delegar as preocupações com a casa e a família”, afirma. Algumas características da comunidade científica brasileira, cuja atividade é bastante concentrada em instituições públicas no país, também podem estar associadas a uma maior estabilidade na carreira dos pesquisadores, homens e mulheres. “Nosso sistema é mais engessado que o de outras nações, onde há mais atividade de pesquisadores na indústria, o vínculo com instituições às vezes é temporário e a mobilidade dos pesquisadores entre instituições e países é marcante.” Essa estabilidade não favorece, con tudo, uma divisão mais igualitária na ocupação de cargos na universidade, diz a pesquisadora. Há oito anos, um estudo de sua autoria analisou a situação de 1.946 docentes da UFRJ e concluiu que, com exceção das áreas de letras, artes e humanidades, o percentual de mulheres envolvidas com a atividade de pós-graduação é sempre menor do que a fração feminina do total de docentes. “A UFRJ jamais teve uma reitora. Na última sucessão, havia duas candidatas, ambas muito qualificadas, mas quem venceu foi um homem”, informa. vazamento de duto
O fenômeno da falta de mulheres em posições de prestígio é um problema em vários países. O relatório da Elsevier se refere a ele com a expressão “vazamento de duto” – uma imagem para sugerir que profissionais dos dois gêneros ingressam juntos na carreira, mas uma proporção maior de mulheres sai no meio do caminho. Em uma entrevista publicada no relatório, James Stirling, reitor do Imperial College, do Reino Unido, refere-se a esse problema: mulheres são 35% de seus alunos de graduação em programas em ciências, tecnologia, engenharias e matemática da instituição, mas, entre os docentes, apenas 15% são do sexo femipESQUISA FAPESP 254 z 41
Como se dividem, por gênero e por área, os autores de artigos científicos em duas regiões (em %)
n Mulheres n homens
brasil Medicina Ciências agrárias e biológicas Bioquímica, genética e biologia molecular Imunologia e microbiologia Química Ciências ambientais Farmacologia e toxicologia Ciências sociais Engenharias Neurociências Enfermagem Veterinária Odontologia Física e astronomia Ciência de materiais Ciência da computação Engenharia química Psicologia Ciências da saúde Matemática Artes e humanidades Energia Ciências da Terra Multidisciplinar Administração, contabilidade e negócios Economia, econometria e finanças Gestão e estatística
união europeia 17
24
5 4 4 4 3 3 3 3 3 2 2 2 2 2 2 2 1 1 1 1 1 1 0 0
7 2 1 3 2 5 4 5 3 1 2 3 1 2 2 1 1 1 1
5
7
8 3 4 5 3 3
15
22
11
12 10
9
13 4 5 4 4 5 5 3 2 1 0 3 3 3 3 2 1 2 3 1 2 1 1 1 1
3 5 4 3 4 9 2 1 1 0 6 5 7 3 1 1 5 2 2 3 1 1 1 1
Fontes Scopus, Genderize, NamSor e Wikipedia
nino. “Não há mulheres suficientes ingressando nessas disciplinas e, quando elas ingressam, não atingem os postos mais altos da carreira”, contou. Além de participar de um programa criado para reforçar o compromisso de instituições de pesquisa do Reino Unido com equilíbrio de gênero, o Imperial College se preocupa em combater o preconceito que atrapalha mulheres no recrutamento e na promoção na carreira. “É um viés inconsciente, mas que pode ser combatido com programas de treinamento.” Se há equilíbrio de gênero entre os autores brasileiros, a situação muda quando a análise se debruça sobre cada disciplina. Num fenômeno comum a outros países, as mulheres são apenas 23% dos autores em ciência da computação do Brasil, 24,8% em matemática, 28,2% em economia e 33% em física e astronomia. Já em outras áreas, elas são maioria, como em enfermagem (72,9%), imunologia e microbiologia (58%), neurociências (55,8%), medicina (55,4%). O relatório observa que os percentuais femininos eram menores de 1996 a 2000 do que de 42 z abril DE 2017
A socióloga Maria Teresa Citeli observa que há explicações específicas para a concentração feminina em algumas áreas. “Dizia-se que a grande participação das mulheres em certas áreas, como a biologia do desenvolvimento, teria a ver com características femininas, como a maternidade. O fato é que a biologia se desenvolveu na época em que as mulheres estavam saindo para o mercado de trabalho. Entrar num campo que está se iniciando é mais fácil”, afirma Teresa, que foi pesquisadora do Departamento de Política Científica e Tecnológica da Universidade Estadual de Campinas (Unicamp). colaborações
2011 a 2015. Em engenharias, a proporção de autoras brasileiras era de 16% do total no primeiro período e alcançou 29% no mais recente. “Essa rápida mudança no tempo contesta a ideia de que existem diferenças de gênero na formação da inteligência, com uma vantagem masculina aparecendo na adolescência, e sugerem que o problema é de natureza social e cultural”, sustenta o relatório.
O relatório da Elsevier apresenta outras conclusões sobre o desempenho das mulheres na ciência. Mostra que as pesquisadoras, de modo geral, publicam menos do que os homens, embora não haja evidência de que isso afete as citações e os downloads de seus artigos. No Brasil, a média observada foi de 1,2 artigo publicado por mulheres entre 2011 e 2015, ante 1,5 artigo publicado por homens. O
Proporção e número absoluto de inventores segundo o sexo, no período de 2011 a 2015 Fonte Wipo – outubro de 2016
n Mulheres n homens
portugal 585
26% 74%
6.350
19% 81%
1.163
19% 81%
2.430
18% 82%
81.727
17% 83%
634.713
14% 86%
33.812
13% 87%
12.121
13% 87%
656.334
12% 88%
64.696
12% 88%
16.673
12% 88%
412.859
8% 92%
desempenho é baixo em relação a outros competidores: na Dinamarca e na Austrália, a média foi de 2,2 artigos para mulheres e 2,8 para homens. O estudo indica, ainda, que as mulheres costumam ter menos experiências profissionais no exterior do que os homens e tendem a estabelecer menos colaborações científicas. Por fim, a produção feminina tem uma tendência ligeiramente maior de se concentrar em áreas interdisciplinares. Um aspecto notável no levantamento diz respeito a sua metodologia. Embora o primeiro nome em artigos científicos seja representado apenas pela inicial, a Scopus dispõe de um cadastro de autores com seus nomes completos. Nem sempre, contudo, havia informação disponível sobre o gênero a que cada pesquisador
41%
2.104 frança
japão 36.647
43%
51.283 méxico
austrália 2.269
44%
10.483 estados unidos
reino unido 8.496
45%
502 reino unido
união europeia 86.802
45%
5.837 chile
dinamarca 1.814
45%
7.469 austrália
canadá 4.842
46%
1.580 canadá
estados unidos 102.116
46%
97.742 dinamarca
frança 16.716
48%
6.321 união europeia
méxico 534
52%
3.846 brasil
chile 266
Fontes Scopus, Genderize, NamSor e Wikipedia – período de 2011 a 2015
portugal 1.628
brasil 1.510
Número e porcentagem de artigos no campo das engenharias em que o primeiro autor e/ou o autor correspondente são do sexo feminino
12.250
39%
japão 8.971
pertencia e foi necessário recorrer a outras fontes. Utilizaram-se os serviços do banco de dados Genderize, que oferece listas com milhares de nomes de 79 países e a proporção de homens e mulheres entre pessoas com um primeiro nome específico. Assim, calculou-se a probabilidade de que cada nome fosse feminino ou masculino. Nem todos os autores cadastrados foram considerados pelo estudo. O gênero foi atribuído a um autor apenas quando o nome aparecia pelo menos cinco vezes no Genderize e a chance de que ele fosse de homem ou de mulher superasse 85%. Outra fonte, o software NamSor, usa dados sociolinguísticos para ajudar na identificação de um nome a partir do país do pesquisador – um autor chamado Andrea costuma
35%
ser homem na Itália e mulher em outros países, por exemplo. “A maioria dos trabalhos publicados anteriormente referia-se a pequenas amostras ou a estudos de caso justamente pela dificuldade de obter dados comparáveis de vários países, mas a Elsevier arrumou um modo de superar essa barreira”, diz Jacqueline Leta. Na avaliação de Teresa Citeli, seria necessário conhecer melhor essa metodologia para poder incorporá-la com propriedade aos estudos sobre ciência e gênero. “Trata-se de uma abordagem inovadora que traz conclusões eloquentes e favoráveis sobre o aumento da presença das mulheres na ciência. Esse resultado também tem implicações políticas, pois pode levar mais mulheres a se aproximar da ciência.” n Fabrício Marques pESQUISA FAPESP 254 z 43
financiamento y
Perguntas arriscadas Instituto privado vai investir até R$ 18 milhões por ano em pesquisas de caráter inovador no país
U
1
44 z abril DE 2017
Serrapilheira é a camada de folhas que recobre o solo de florestas e bosques
ma instituição privada dedicada a apoiar pesquisas no Brasil em ciências da vida, ciências físicas, engenharias e matemática foi lançada em março no Rio de Janeiro pelo documentarista João Moreira Salles e sua mulher, a linguista Branca Moreira Salles. O Instituto Serrapilheira, alusão à camada de folhas que fertiliza o solo de florestas, contará com um orçamento anual entre R$ 16 milhões e R$ 18 milhões, proveniente da aplicação financeira de um fundo patrimonial de R$ 350 milhões doados pelo casal de mecenas. Este fundo, segundo eles, poderá receber novos aportes no futuro, a depender do sucesso da iniciativa. A instituição terá dois focos principais. O primeiro, que utilizará a maior parte dos recursos, é apoiar projetos científicos em temas de fronteira, liderados preferencialmente por jovens pesquisadores, pelo prazo de quatro anos. “Queremos que os pesquisadores façam perguntas arriscadas e corajosas em seus campos do conhecimento”, diz o geneticista Hugo Aguilaniu, 41 anos, do Laboratório de Genética do Envelhecimento da Escola Normal Superior de Lyon, na França, escolhido para diretor-presidente do instituto após um processo de seleção que avaliou 138 currículos de cientistas e gestores científicos. O segundo foco da instituição, que só deve ganhar impulso em 2018, é patro-
cinar iniciativas de divulgação científica atreladas ou não aos projetos contemplados. “Queremos atingir os jovens, incentivá-los, mostrar a eles que a ciência é uma coisa legal, uma carreira bacana. Dizer a eles que as humanidades, as artes e o esporte são possibilidades, mas a ciência também é”, explica. Uma chamada de projetos de pesquisa deve ser lançada no terceiro trimestre deste ano. A ideia, segundo Aguilaniu, é selecionar um número de propostas que pode passar de uma centena e financiá-las durante um ano, num esquema de seedmoney, destinando em torno de R$ 100 mil a cada contemplado. Terminado esse período, os líderes serão convocados a fazer uma defesa oral de seus trabalhos e apenas as ideias mais promissoras, possivelmente uma dezena delas, continuarão a ser apoiadas, agora com quantias que podem chegar a até R$ 1 milhão, dependendo da necessidade. “O que vamos analisar após o primeiro ano não é o número de publicações científicas ou o impacto imediato”, diz o diretor-presidente. “Prestaremos atenção na maneira como o pesquisador principal investiu em sua ideia, adaptando conceitos quando necessário, mas nunca fugindo de sua pergunta. Um bom pesquisador vai tentar encontrar novas técnicas e outras pessoas no mundo para colaborar. Essa capacidade, que caracteriza um pensamento realmente produtivo na ciência, será valorizada.”
2
Os projetos serão analisados por um conselho científico composto por 12 pesquisadores, cada um de uma área do conhecimento, de instituições do Brasil e do exterior. Alguns nomes já foram anunciados, como os do matemático francês Étienne Ghys, da Escola Normal Superior de Lyon, do engenheiro Paulo Monteiro, da Universidade da Califórnia, em Berkeley, do físico Luiz Davidovich, presidente da Academia Brasileira de Ciências, do químico Osvaldo Luiz Alves, professor da Universidade Estadual de Campinas (Unicamp), e da geneticista Mayana Zatz, da Universidade de São Paulo (USP).
fotos 1 Danny Steaven / wikimedia commons 2 Claudio Andrade
originalidade
Segundo o cientista de materiais Edgar Dutra Zanotto, presidente do conselho científico, o processo de seleção e avaliação dos projetos será rigoroso. “Os projetos deverão ser submetidos em inglês para enviarmos a revisores do exterior com o intuito de minimizar conflitos de interesse. Não queremos que os pareceristas apenas recomendem ou não a aprovação dos projetos, mas que classifiquem as propostas de acordo com seu risco, originalidade e relevância, para que possamos investir nos de maior potencial”, afirma. Ele ressalta que os pesquisadores contemplados terão grande flexibilidade para trabalhar. “Os líderes receberão seus grants e poderão utili-
Edgar Zanotto, presidente do conselho científico do instituto, Hugo Aguilaniu, diretor-presidente, e o mecenas João Moreira Salles
zar os recursos sem precisar cumprir as exigências burocráticas necessárias em projetos submetidos a agências de fomento públicas. Vão poder, por exemplo, contratar ou substituir bolsistas sem pedir autorização e apenas prestarão contas no final”, afirma Zanotto, que é professor da Universidade Federal de São Carlos (UFSCar) e responsável pelo Centro de Pesquisa, Educação e Inovação em Vidros, um dos Centros de Pesquisa Inovação e Difusão (Cepid) financiados pela FAPESP. A direção do Instituto Serrapilheira não pretende limitar sua atuação aos projetos apresentados na chamada. Hugo Aguilaniu e sua equipe preparam-se para viajar pelo país para conhecer grupos e instituições de pesquisa, com a meta de identificar iniciativas científicas de impacto. “Vamos procurar projetos de pesquisadores que talvez não se candidatem por imaginar que não terão chances ou por não conhecer o instituto,
mas que tenham grande potencial”, afirma o geneticista, que é casado com uma brasileira e colabora há vários anos com grupos de pesquisa do país em estudos sobre envelhecimento. Comuns em países desenvolvidos, instituições privadas de apoio à ciência são ainda raras no Brasil (ver Pesquisa FAPESP nº 219) – entre os exemplos existentes, destaca-se a Fundação Maria Cecilia Souto Vidigal (FMCSV), que apoia pesquisas sobre desenvolvimento infantil. João Moreira Salles começou a planejar a criação do instituto em 2014, depois de observar que a ciência não ocupa um papel central na cultura do Brasil. “Dificilmente um brasileiro saberá dizer o nome de um cientista em atividade. Na literatura, no cinema ou nas telenovelas, há personagens com várias profissões, mas não se encontra um físico, um matemático, um químico. Eles só aparecem em páginas especializadas”, explica o documentarista, dono de uma fortuna estimada em US$ 2,8 bilhões pela revista Forbes – ele é um dos filhos do embaixador Walther Moreira Salles, fundador do Unibanco, que se uniu ao Banco Itaú em 2008. “Há uma sobrevalorização no país das humanidades e das ciências sociais. Elas são importantes, mas há um desequilíbrio”, avalia. “Eu dava aulas sobre documentário para uma turma de jovens talentosos na PUC [Pontifícia Universidade Católica] do Rio, que eram atraídos pelo charme do cinema. Havia 30 bacharéis em cinema graduados por ano num país que não tem indústria de cinema, mas no departamento de matemática da mesma universidade tinha poucos formados.” As humanidades e as ciências sociais estão fora do escopo do Serrapilheira, mas são de certa forma contempladas por uma outra iniciativa da família, o Instituto Moreira Salles (IMS). O Instituto Serrapilheira ocupará a partir de julho uma sede no bairro do Leblon, com uma estrutura de cinco executivos. n Fabrício Marques pESQUISA FAPESP 254 z 45
ciência Entrevista Daniel Kleppner y
A força contínua da física atômica Experimentos do físico norte-americano fundamentaram grandes descobertas sobre o comportamento dos átomos e avanços tecnológicos como o GPS
Igor Zolnerkevic
I
nicialmente na Universidade Harvard, de 1959 a 1966, e desde então no Instituto de Tecnologia de Massachusetts (MIT), o norte-americano Daniel Kleppner esteve à frente ou participou de experimentos que implantaram três técnicas de trabalho hoje amplamente utilizadas na física. A primeira são os relógios atômicos de maser (amplificação de micro-ondas por emissão estimulada de radiação, na sigla em inglês) de hidrogênio, dos quais resultou o Sistema de Posicionamento Global (GPS), hoje usado em carros e telefones celulares. A segunda é a eletrodinâmica quântica em cavidades, que permitiu estudar propriedades quânticas como o fenômeno do emaranhamento, em que qualquer ação sobre uma partícula pode interferir em seu par, ainda que distante. A terceira é o confinamento 46 z abril DE 2017
e o resfriamento de átomos para produzir os condensados de Bose-Einstein, um estado da matéria obtido a quase zero absoluto (-273º Celsius), previsto pelo físico indiano Satyendra Bose (1894-1974) e por Albert Einstein (1879-1955) e demonstrado experimentalmente em 1995. Premiado em janeiro deste ano pela American Physical Society (APS) com a APS Medal for Exceptional Achievement in Research, Kleppner cresceu em Nova York. Filho de um imigrante austríaco, ele gostava de construir rádios de galena e pequenos aviões quando criança. Depois de se formar em engenharia, em 1953, estudou dois anos na Universidade de Cambridge, na Inglaterra, antes de ir para Harvard. Ali, Kleppner e seu orientador de doutorado, Norman Ramsey, Prêmio Nobel de Física de 1989, desenvolveram o maser de hidrogênio, 100 mil vezes mais
Kleppner: “Do ponto de vista do equilíbrio psicológico, faz bem dar aula e pesquisar”
Léo ramos chaves
preciso que os relógios atômicos até então utilizados na medição do tempo. Em 1989, Kleppner estava em um restaurante de São Carlos (SP) com colegas brasileiros quando anotou as ideias para seu artigo de estreia como colunista da Physics Today, revista da APS. No texto, intitulado “Uma paixão por precisão”, ele descreve o prazer pela busca de novos métodos para medir as propriedades dos átomos que descobriu com Ramsey. Ele escreveu para a Physics Today até 2013. Desde 1985, ele esteve várias vezes no Instituto de Física de São Carlos da Universidade de São Paulo (IFSC-USP), com o qual mantém colaboração. Aos 84 anos, casado com Beatrice, professora de ensi-
no médio, três filhos e quatro netos, ele voltou ao Brasil em fevereiro deste ano, reviu os antigos colegas e ministrou a aula magna “Três sementes do florescimento das ciências quânticas”, em que tratou, em retrospectiva, de sua participação na pesquisa dos relógios atômicos; na produção, em laboratório, dos chamados átomos de Rydberg, com elétrons com tanta energia que se afastam do núcleo a distâncias até 10 mil vezes maiores que o normal; e nos condensados de Bose-Einstein (ver Pesquisa FAPESP no 101). “Os alunos estavam muito entusiasmados, como os grupos de pesquisa que visitei no Instituto de Física”, ele comentou. Lá estão, agora como professores, dois físicos que ele orientou:
Jarbas Castro Neto e Vanderlei Bagnato. Nesta entrevista, concedida duas semanas depois de sua apresentação, Kleppner retomou as circunstâncias e as dificuldades de cada um desses trabalhos. Como o senhor começou sua carreira na física atômica? Tive um grande professor de física no ensino médio e, na faculdade, professores maravilhosos. Na Universidade de Cambridge, onde estive dois anos como estudante de graduação, meu tutor, Kenneth Smith, indicou um artigo com uma proposta de um tipo de relógio que poderia ser acurado o suficiente para testar as previsões de Einstein sobre o efeito da pESQUISA FAPESP 254 z 47
gravidade sobre o tempo. A ideia de que a gravidade poderia interferir na operação de um relógio e na própria passagem do tempo me pareceu perturbadora. Não fiz nada de imediato, mas a ideia ficou na minha mente. Depois fui para a Universidade Harvard e entrei no grupo de Norman Ramsey (1915-2011). Foi ele que inventou a técnica que tornou os relógios atômicos úteis na prática.
Os relógios atômicos são o coração do GPS. É um belo exemplo de como a pesquisa básica proporciona recompensas
O que Ramsey fez? Ele imaginava um tipo de relógio que funcionasse com base não no feixe de césio, que era o padrão inicialmente, mas no que se tornou conhecido depois como maser de hidrogênio. Um relógio de feixe atômico, como era usado, tem um feixe de átomos, que responde a uma radiação com frequência única. A resposta dos átomos é usada para controlar a frequência de um oscilador eletrônico. No maser, os átomos de um feixe de moléculas são filtrados ao entrar em uma cavidade, onde, depois de um tempo, todos começam a emitir radiação, cujas oscilações poderiam ser medidas. Entrei no grupo de Ramsey justamente quando estavam pensando em como fazer isso, que na época parecia impossível. Norman acreditava que seria possível aumentar em mil vezes a precisão dos relógios atômicos colocando os átomos em uma cavidade de ressonância. Em meu doutorado construí e testei um aparelho que se mostrou promissor, e depois, com um estudante de graduação, construí o maser, que começou a operar no ano seguinte. No final dos anos 1950, Ramsey e eu começamos a desenvolver um maser que iria para o espaço. A Era Espacial havia começado e a Nasa [agência espacial norte-americana] achava muito atraente a ideia de testar a teoria de Einstein com um satélite. Mas começamos a ficar apreensivos.
Por quê? Nossos objetivos em Harvard e os da Nasa não eram exatamente os mesmos. A Nasa insistia em que os astronautas tivessem um papel ativo no experimento, mas, quando um relógio começa a operar, o melhor a fazer é deixá-lo em paz. Eu estava também preocupado com outro problema. E se chegássemos a um resultado diferente do proposto pela teo ria de Einstein? Poderíamos repetir o experimento, mas levaria muitos anos e haveria um grande questionamento sobre o trabalho de Einstein. Desistimos, mas um dos pesquisadores do grupo, que trabalhava com uma empresa interessada em fazer do relógio um produto comercial, gostou da ideia e continuou trabalhando com a Marinha dos Estados Unidos. Fizeram um experimento muito melhor do que o que havíamos planejado. Em vez de colocar o relógio em um 1
satélite, eles o colocaram em um foguete que alcançou uma altura aproximada do diâmetro da Terra no espaço e voltou. O experimento confirmou a teoria de Einstein, gerou avanços na tecnologia dos masers de hidrogênio e contribuiu para ajustar as técnicas de comparação dos relógios no espaço com os da Terra. Um desdobramento desse trabalho foi o Sistema de Posicionamento Global, que funciona comparando relógios do espaço com os da superfície. Veja: a ideia de verificar a relatividade geral de Einstein levou ao GPS. Não desenvolvemos o GPS, mas os relógios atômicos são o coração dele. Para mim, é um belo exemplo de como a pesquisa básica proporciona recompensas de maneiras inesperadas. Como os relógios atômicos evoluíram? Desde a década de 1990, quando foram criados, a precisão deles aumentou 100 mil vezes. Até 10 anos atrás, todos os relógios atômicos funcionavam apenas na frequência das micro-ondas, de 109 ciclos por segundo. Uma nova tecnologia usando frequências ópticas, cujos ciclos são 10 mil ou 100 mil vezes mais rápidos, funcionou muito bem. Mas e agora, o que vamos fazer com esses relógios tão mais precisos? O efeito gravitacional sobre o tempo não é mais algo interessante de observar. Alguém poderia virar o jogo do avesso e usar os relógios para medir a gravidade. É só uma especulação, mas medir a variação da gravidade na Terra com essa precisão poderia dar uma visão imediata das transformações das massas rochosas e dos oceanos. Isso poderia ser importante, por causa das mudanças climáticas. Seu laboratório foi um dos primeiros a criar os átomos de Rydberg [com elétrons afastados do núcleo a distâncias até 10 mil vezes maiores que o normal]. Como foi? 2
Kleppner ao lado do então presidente dos Estados Unidos, George W. Bush, na cerimônia de entrega da Medalha Nacional de Ciência, em 2007, e com seu mentor, Norman Ramsey (ao lado, no centro), e seu ex-aluno William Philips (à dir.), ambos Prêmios Nobel de Física 48 z abril DE 2017
No início dos anos 1980, tivemos sucesso inicialmente, mas descobrimos que em altas densidades o hidrogênio atômico se transformava em hidrogênio molecular [formando pares] e desaparecia. Finalmente, em 1998, Greytak e eu conseguimos fazer o condensado com hidrogênio, embora hoje saibamos que esse átomo não é o melhor para fazer isso. A criação desses gases quânticos com a técnica do resfriamento feita atualmente por laser abriu um novo mundo para a física.
3
Fotos 1 Ryan K Morris / Bloomberg News 2 Arquivo Pessoal 3 SkywalkerPL
Maser de hidrogênio a bordo dos satélites do Galileo, o sistema de navegação global da União Europeia, mede o tempo com precisão de bilionésimos de segundo
Outros grupos conseguiram praticamente ao mesmo tempo. Essa ideia ficou indo e vindo na minha mente durante anos. Em Harvard, um físico muito criativo, profundo e agradável, Edward Purcell (1912-1997), um dos inventores da ressonância magnética nuclear, me contou sobre uma descoberta em radioastronomia. Alguns pesquisadores haviam visto sinais de átomos de hidrogênio que acabavam de ser formados em uma estrela próxima. Nessa estrela, prótons e elétrons se uniam e formavam um átomo de hidrogênio, que é apenas um próton ligado a um elétron. Mas os elétrons haviam se ligado a uma distância muito grande e desciam de uma órbita para outra até chegarem a um estado de menor energia. Pensei em como aquilo era bonito e comecei a examinar as propriedades extraordinárias desses átomos. Seus estados são caracterizados pelo que é chamado o número quântico principal, n. Normalmente, n é um número pequeno, 5, 4 ou 3. Aquilo era n=100. Então os astrônomos conseguiram ver um sinal emitido quando o elétron foi de n=100 para n=99. As condições para ver esses estados seriam uma densidade muito baixa, o que requer um volume muito grande, como no espaço. No início dos anos 1970, vimos que poderíamos produzir esses átomos em laboratório usando lasers [por serem grandes e fáceis de detectar, os átomos de Rydberg poderiam ser manipulados e estudados mais facilmente que os co-
muns]. Funcionou na primeira tentativa! Foi meu único experimento que funcionou na primeira tentativa. O senhor foi também um dos primeiros a produzir a condensação de Bose-Einstein em laboratório. Um artigo na Physical Review Letters de 1976 resumia o que sabíamos sobre a física dos átomos de hidrogênio e terminava com a observação muito interessante. Os autores, William Stwalley, da Universidade de Connecticut, e Lewis Nosanow, da Divisão de Pesquisa de Materiais, um dos centros mantidos pela National Science Foundation (NSF), diziam que, se hidrogênio atômico pudesse ser arranjado em um estado particular, poderia ser resfriado até o zero absoluto, mas nunca se transformaria em um sólido ou líquido. O hidrogênio é muito mais leve que o hélio e tem tanta energia que não se torna líquido mesmo no zero absoluto. Mas, se resfriado o suficiente, esse gás de hidrogênio poderia sofrer uma mudança, uma condensação de Bose-Einstein. Li o artigo, mas deixei de lado porque colocar hidrogênio nessas temperaturas e densidade parecia absurdo. Contei isso a meu colega do MIT Thomas Greytak, que sabia muito sobre hélio líquido e me explicou o que era condensação de Bose-Einstein, sobre a qual eu nunca tinha ouvido falar. Por fim percebemos que aquele era um mundo novo a baixas temperaturas e talvez os experimentos funcionassem.
Além de pesquisa, o senhor sempre teve grande interesse em dar aulas. Ensino e pesquisa caminham juntos. Há uma vantagem psicológica. Porque, às vezes, os experimentos dão errado e ficamos muito aborrecidos. Sempre há um consolo ao pensar: “Rá, mas eu ainda sou um professor!”. E, é claro, às vezes, uma aula dá errado, nos sentimos deprimidos, mas podemos dizer: “Mas eu faço pesquisa!”. Do ponto de vista do equilíbrio psicológico faz bem ter esses dois aspectos. E, quando explicamos algo para os estudantes, estamos explicando para nós também. Ensinar deve ser um processo criativo, para encontrar novas maneiras de entender as coisas, o que também é parte do trabalho de pesquisa científica. O senhor ainda trabalha em laboratório? Não, mas ainda tenho meu escritório no MIT. Vou lá vários dias da semana. Gosto de estar lá. O MIT tem um ambiente maravilhoso, meus amigos estão lá, há palestras excelentes. Mas não faço mais pesquisa. Em um dos meus ensaios para a seção Reference Frame, publicado em 1998 na Physics Today com o título “Nibbling the bullet” [Roendo a bala], escrevi que as pessoas deveriam se aposentar. Você não precisa se aposentar nos Estados Unidos, mas penso que os pesquisadores devem fazer isso, entre outros motivos, para dar espaço aos mais jovens. Escrevi o ensaio com 65 anos, sugerindo que 70 anos seria uma idade apropriada para aposentar. Então percebi que havia feito um compromisso público! Foi o que fiz. O que não notei na hora foi como esses últimos cinco anos passariam tão rápido... Apesar de aposentado, ainda estou ativo no MIT. Se eu desejasse participar de pesquisas e houvesse espaço, eu seria capaz de fazer isso, mas os laboratórios foram ocupados por docentes mais jovens. Foi uma boa vida a que tive. n pESQUISA FAPESP 254 z 49
FÍSICA y
O comportamento dos apagões Modelos matemáticos ajudam a entender como sucessões de falhas causam blecautes em redes elétricas Igor Zolnerkevic
A avenida 23 de Maio, em São Paulo, durante o blecaute que atingiu 10 estados brasileiros em 11 de março de 1999
Ormuzd Alves / Folhapress
A
infância da física Yang Yang foi marcada por apagões. Ela cresceu em Pequim no final dos anos 1990, quando a capital da China sofria com blecautes frequentes. “As usinas não conseguiam suprir a alta demanda por energia elétrica no verão”, conta a pesquisadora chinesa. No ano passado, Yang completou seu doutorado em física teórica sob a orientação do brasileiro Adilson Motter, na Universidade Northwestern, em Evanston, Illinois, nos Estados Unidos. Ela desenvolveu modelos matemáticos que podem ajudar a diminuir o risco de blecautes no sistema elétrico de grandes países como China, Estados Unidos e Brasil. A partir desses modelos, Yang, Motter e um de seus colegas na Northwestern, o matemático japonês Takashi Nishikawa, identificaram um algoritmo (sequência de procedimentos) que torna possível reconhecer os trechos de uma rede elétrica com maior probabilidade de falhar em série e gerar um efeito em cascata capaz de deixar estados ou até um país no escuro. Esse algoritmo foi descrito em um artigo publicado em janeiro na revista Physical Review Letters. Por meio de simulações em computador, os pesquisadores testaram o algoritmo considerando a rede de distribuição elétrica do Texas, uma das maiores dos Estados Unidos. Além de reproduzir com sucesso o histórico de apagões ocorridos entre 2010 e 2013, eles estimaram o risco de a rede texana sofrer blecautes de diferentes proporções. “São previsões que os engenheiros poderão testar e usar para orientar intervenções destinadas a evitar apagões na rede”, diz Motter. O algoritmo foi desenvolvido como parte de um projeto de pesquisa maior, coordenado por Motter e Nishikawa e financiado com US$ 3,2 milhões pelo Departamento de Energia dos Estados Unidos. Nele, os físicos colaboram com engenheiros eletricistas e outros pro-
fissionais de instituições de pesquisa e companhias de energia para criar sistemas de controle que atendam a nova realidade do setor elétrico norte-americano. “A rede brasileira é centralizada, com poucas e grandes usinas hidrelétricas”, explica Motter. “Já a dos Estados Unidos funciona com milhares de usinas espalhadas pelo país, a maioria termelétrica e nuclear, e está incorporando cada vez mais fontes de energia renovável, principalmente a solar e a eólica.” Segundo o físico, o problema com essas duas fontes alternativas é que elas produzem energia de modo intermitente, uma vez que os painéis solares não geram eletricidade à noite ou quando o Sol está encoberto e as turbinas eólicas não funcionam na ausência de vento. Essa intermitência, afirma Motter, aumenta a probabilidade de as falhas na rede elétrica serem amplificadas e provocarem blecautes. Por mais bem equipada e planejada que seja, nenhuma rede de geração e distribuição de energia elétrica está livre do risco de um grande apagão. O perigo é maior no verão, quando o calor aumenta a demanda por energia para alimentar aparelhos de ar-condicionado. Ao mesmo tempo, os extremos climáticos típicos da estação, como secas e tempestades, aumentam a probabilidade de ocorrência de incêndios e queda de raios, que podem desligar geradores de eletricidade e desconectar as linhas de transmissão. Mais do que inconvenientes, os apagões causam sérios prejuízos econômicos. Estima-se que os Estados Unidos percam dezenas de bilhões de dólares por ano com a interrupção de atividades industriais e de serviços em decorrência de blecautes. O Brasil enfrenta o mesmo problema. Um levantamento do Centro Brasileiro de Infraestrutura (CBIE) concluiu que, entre 2011 e 2014, houve 181 apagões em diversas regiões do país. “Grandes apagões são raros, mas pequenos blecautes acontecem o tempo pESQUISA FAPESP 254 z 51
Imagens de satélite mostram, em branco, a iluminação de cidades do Nordeste norte-americano em 13 de agosto de 2003 (acima) e no blecaute do dia 14
todo”, conta Motter, que se graduou em física na Universidade Estadual de Campinas (Unicamp). Desde de 2006 ele trabalha na Northwestern como especialista na dinâmica de redes complexas, área da matemática que estuda o funcionamento de sistemas formados por muitos componentes interligados, como as redes de neurônios no cérebro ou as redes formadas por usinas, linhas de transmissão e de distribuição de energia. Em sistemas tão complexos, a falha de um componente induz outros a falharem em seguida. “Quando uma linha de transmissão é interrompida, as linhas paralelas podem sofrer sobrecarga e desligar automaticamente para evitar estragos permanentes no sistema”, diz Motter. Algumas dessas cascatas de falhas causam blecautes em pequenas partes da rede, enquanto outras ganham grandes proporções. “Tentamos entender como essas cascatas se propagam e o que determina o tamanho delas”, conta o físico. Nos Estados Unidos, o maior e mais recente apagão em escala nacional aconteceu em 14 de agosto de 2003 e afetou grandes porções do Nordeste e do Meio-Oeste norte-americano, além da província de Ontário, no Canadá. Começou com a falha inicial de três linhas de transmissão no estado de Ohio e, em menos de uma hora, 255 usinas foram desligadas. No início, as unidades deixaram de funcionar pouco a pouco, mas, nos dois 52 z abril DE 2017
O apagão de 2003 nos Estados Unidos começou em três linhas de transmissão e desligou 255 usinas minutos finais dessa hora, a maior parte apagou quase simultaneamente. Um dos maiores apagões do Brasil, o de 10 de novembro de 2009, começou com uma falha em uma subestação em Itaberá, interior de São Paulo. O problema desencadeou uma cascata que levou ao desligamento da hidrelétrica de Itaipu e afetou estados inteiros do Sudeste e do Centro-Oeste, além do Paraguai. “Houve um efeito de amplificação”, diz Motter. “A desconexão de Itaipu, que produzia 20% da energia elétrica do país, induziu outras partes da rede, indiretamente ligadas à usina, a também se desconectarem, e o blecaute afetou cerca de 40% da demanda no território nacional.” Espinha dorsal
Estimar a probabilidade de grandes apagões como esses voltarem a acontecer é difícil porque são eventos relativamente raros. Os dados históricos de uma rede elétrica não são suficientes para que fí-
2
sicos possam aplicar análises estatísticas a eventos extremos. No estudo da rede elétrica do Texas, Motter e seus colegas tentaram contornar o problema criando em computador um modelo de rede o mais realista possível. Cada simulação começava reproduzindo uma situação real de suprimento e demanda de energia, bem como da capacidade de transmissão que as linhas da rede texana experimentaram nos horários de pico entre 2010 e 2013. A partir dessas situações reais, os pesquisadores simulavam blecautes imaginários ao provocar ao acaso a pane de alguns elementos da rede virtual. Depois eles registravam o tamanho da área afetada pela cascata de falhas induzida pelas panes. Os dados de 120 mil blecautes virtuais revelaram algo surpreendente. Os físicos notaram que, muitas vezes, a falha de um elemento da rede pode poupar os elementos vizinhos e induzir falha em outros mais distantes. Grupos de dezenas de elementos sem ligação direta entre si tendiam a falhar em conjunto em um grande blecaute. Os pesquisadores perceberam ainda que a dimensão dos apagões dependia mais das conexões entre os elementos de um grupo e do tamanho desse grupo do que do tamanho e das ligações da rede elétrica como um todo. “Vários fatores poderiam afetar o tamanho das cascatas de falhas”, conta Motter. “Nosso trabalho identificou dois determinantes.” Um é a probabilidade de cada elemento da rede falhar sozinho. O outro é o risco de dois ou mais elementos falharem juntos em uma mesma cascata. Identificar esses dois fatores permitiu aos pesquisadores criar um modelo mais simples para prever blecautes na
imagens 1 e 2 noaa 3 Takashi nishikawa / universidade northwestern
1
3
Mapa da rede elétrica dos EUA permite identificar os pontos mais conectados
rede texana do que o obtido a partir da simulação realista usada inicialmente. “Esses subgrupos de elementos mais vulneráveis formam a espinha dorsal das cascatas”, comenta o engenheiro Elbert Macau, do Instituto Nacional de Pesquisas Espaciais (Inpe), em São José dos Campos, São Paulo. Ele coordena um projeto de pesquisa em redes complexas financiado pela FAPESP e publicou recentemente um estudo sobre o problema dos apagões. “O grupo de Motter chegou a um método muito criativo de simplificar os cálculos necessários para estimar a probabilidade de ocorrerem as cascatas de falhas possíveis em uma rede complexa”, afirma Macau. “Sem essa simplificação, seria impraticável calcular isso para uma rede elétrica nacional.” Enquanto a equipe de Motter modelou como uma cascata de falhas se propaga pela rede elétrica, Macau e seus colegas tentaram entender melhor uma das principais causas dessas falhas: a falta de sincronia entre a demanda e a oferta de energia. Em novembro de 2016, o grupo do Inpe, com pesquisadores do Instituto Tecnológico de Aeronáutica e da Universidade Federal da Fronteira Sul, publicou um artigo na revista Chaos no qual introduz um modelo matemático que enfoca essa questão. Com esse modelo, os pesquisadores conseguem determinar as condições de equilíbrio estável em que um sistema de distribuição elétrica pode
funcionar de forma a manter a sincronia entre a geração de energia e a demanda dos consumidores mesmo diante de perturbações, reduzindo, assim, o risco de apagões. O modelo foi aplicado ao sistema brasileiro de distribuição de eletricidade para determinar sua tolerância a perturbações específicas. Outro trabalho que contou com a participação de brasileiros foi um passo além e propôs formas de reestabelecer rapidamente a sincronia em uma rede elétrica. Dois meses antes, em outro artigo na mesma revista, o estudante de doutorado chinês Chengwei Wang e os físicos brasileiros Celso Grebogi e Murilo Baptista, todos da Universidade de Aberdeen, no Reino Unido, mostraram que a aplicação de perturbações elétricas, calculadas a partir de informação parcial do consumo e da geração de energia, pode evitar o surgimento das grandes assincronias que levam aos apagões. “Criamos um sistema confiável, no qual há um permanente equilíbrio entre geração e demanda”, diz Grebogi. “O controle proposto possibilita a construção de redes elétricas inteligentes, as smart grids.” O engenheiro eletricista Antônio Padilha Feltrin, da Universidade Estadual Paulista (Unesp), em Ilha Solteira, considera o modelo proposto por Motter para identificar os grupos de elementos de rede que tendem a falhar em conjunto uma novidade interessante, mas faz uma ressalva.
“Obter as informações iniciais para calcular as probabilidades é algo muito complicado para o setor elétrico”, diz. Feltrin explica que a rede está constantemente sendo alterada por meio de melhorias e manutenções, o que pode modificar drasticamente a probabilidade de um elemento da rede falhar de um momento para outro. Ele lembra, por exemplo, que após o blecaute de 1999 no Brasil, um novo sistema de comunicação foi implantado entre as principais usinas do país. “A rede elétrica mudou de modo que uma falha como a que aconteceu naquele ano não pode mais acontecer da mesma forma”, afirma. Ainda assim, para Feltrin, o modelo do grupo de Motter tem potencial de ajudar a prevenir apagões se a rede dispuser de um sistema de informações ágil e eficiente que permita conhecer suas condições de operação em tempo real, característica principal da nova geração de redes elétricas que estão sendo criadas nos Estados Unidos, as redes inteligentes. n
Artigos científicos YANG, Y., NISHIKAWA, T. e MOTTER, A. E. Vulnerability and co-susceptibility determine the size of network cascades. Physical Review Letters. 27 jan. 2017. GRZYBOWSKI, J. M. V., MACAU, E. E. N. e YONEYAMA, T. On synchronization in power-grids modelled as networks of second-order Kuramoto oscillators. Chaos. nov. 2016. WANG, C., GREBOGI, C. e BAPTISTA, M. S. Control and prediction for blackouts caused by frequency collapse in smart grids. Chaos. set. 2016.
pESQUISA FAPESP 254 z 53
ASTRONOMIA y
Duros e sem vida Mesmo parecidos com a Terra, alguns exoplanetas rochosos teriam crostas rígidas demais para serem habitáveis
A
ilustração destas páginas mostra como um artista imaginou o exoplaneta Kepler-186f em abril de 2014. Naquela época, astrônomos confirmaram que esse planeta distante 500 anos-luz do Sistema Solar tinha massa e tamanho próximos aos da Terra. Observações feitas pelo telescópio espacial Kepler também sugeriram que a distância entre o tal planeta e sua estrela, a anã vermelha Kepler-186, permitiria a existência de água em estado líquido. Por essa razão, os pesquisadores anunciaram o Kepler-186f como o primeiro exoplane54 z abril DE 2017
ta rochoso descoberto na zona habitável de sua estrela. Inspirada na descoberta, a arte mostra a superfície do Kepler-186f parecida com a da Terra, com continentes e oceanos, uma paisagem propícia ao desenvolvimento de formas de vida semelhantes às de nosso planeta. Novas observações da estrela Kepler-186, porém, sugerem que a superfície do Kepler-186f pode ser muito diferente, bem menos favorável à existência de vida – ao menos, à vida como se conhece. Em parceria com uma equipe internacional de pesquisadores, a as-
trônoma Kátia Cunha, do Observatório Nacional, no Rio de Janeiro, e seu aluno de doutorado Diogo Souto realizaram a primeira análise detalhada da composição química da estrela Kepler-186. O estudo foi publicado em fevereiro deste ano na revista Astrophysical Journal e apresenta também a análise química de outra anã vermelha, a Kepler-138, orbitada pelo menor exoplaneta rochoso já descoberto, do tamanho de Marte. Essa foi a primeira vez que astrônomos conseguiram medir a abundância química de anãs vermelhas com precisão similar
NASA /JPL-Caltech /T. Pyle
Concepção artística do exoplaneta Kepler-186f, o primeiro com tamanho próximo ao da Terra a ser descoberto
à que se consegue ao observar estrelas semelhantes ao Sol. A análise da luz emitida por uma estrela, o chamado espectro da estrela, permite em geral conhecer a abundância dos elementos químicos que a compõem. Souto explica, porém, que as temperaturas na atmosfera das anãs vermelhas são baixas o suficiente para permitir a formação de moléculas de água, óxido de titânio e de óxido de vanádio. Quando essas estrelas são observadas na faixa da luz visível, o óxido de titânio mascara a presença de vários elementos quími-
cos. Souto demonstrou, no entanto, que, no infravermelho, é possível identificar e medir a abundância de 13 elementos químicos em anãs vermelhas. Souto e Cunha usaram dados obtidos com o Apogee, espectrógrafo de alta precisão instalado em um telescópio no estado do Novo México, nos Estados Unidos, para estimar a concentração de diferentes elementos químicos nas duas estrelas e concluíram que o Kepler-186f contém mais silício do que o Sol. Esse excesso de silício faria com que os exoplanetas ao redor da anã vermelha fossem feitos
de rochas tão duras que impediriam a formação de placas tectônicas na crosta. Sem placas tectônicas, não haveria processos de reciclagem de gases, líquidos e rochas que, na Terra, ao longo de bilhões de anos, determinaram a composição química da atmosfera, dos continentes e dos oceanos. Sem oceanos ou continentes constantemente alterados pelo movimento de placas tectônicas, o Kepler-186f teria uma superfície relativamente imutável, possivelmente deserta. Já a outra anã vermelha, a Kepler-138, apresentou uma concentração de silício pESQUISA FAPESP 254 z 55
próxima à solar. Seu pequeno exoplaneta rochoso, portanto, teria uma composição favorável à formação de placas tectônicas. Mas ele está próximo demais da estrela para ter água líquida na superfície. “Estudos como esse são de grande importância para a astronomia de exoplanetas”, diz Souto. “Uma missão futura da Nasa, a Tess, deve observar preferencialmente as estrelas de baixa massa, as mais abundantes na galáxia, e permitir o estudo detalhado da composição química delas, algo importante para conhecer as propriedades de seus exoplanetas.” Ferro, Oxigênio e oceanos
As conclusões de Souto, Cunha e seus colaboradores sobre a superfície do Kepler-186f resultam da aplicação de um modelo matemático desenvolvido em 2016 pelos geofísicos Cayman Unterborn, da Universidade Estadual do Arizona, e Wendy Panero, da Universidade Estadual de Ohio, ambas nos Estados Unidos. O modelo permite estimar, a partir de observações astronômicas da composição química de uma estrela, como seria a composição mineral dos planetas rochosos formados ao redor dela. “A composição da estrela serve de referência para as possíveis composições de seus planetas”, diz Unterborn. Unterborn e Panero basearam o modelo naquilo que os astrônomos e os geofísicos sabem sobre a composição do Sol e a formação do Sistema Solar. Os planetas se formaram a partir de um disco de gás e poeira, feito do mesmo material primordial que deu origem ao Sol. Uma série de colisões ocorridas durante centenas de milhões de anos entre o material do disco levou esses grãos de poeira a se aglutinarem em corpos cada vez maiores até produzirem os planetas rochosos. É esse processo de formação planetária que o modelo dos geofísicos norte-americanos simula de maneira simplificada para calcular a composição mineral dos exoplanetas a partir da constituição química de suas estrelas. Uma das principais conclusões do modelo é que a abundância do elemento químico oxigênio no disco protoplanetário pode restringir o tamanho dos núcleos dos planetas. Um planeta rochoso como a Terra possui um núcleo de ferro metálico, que é envolto por um manto espesso e, este, por sua vez, coberto por uma fina crosta que forma a superfície 56 z abril DE 2017
Representação artística da anã vermelha Kepler-138 e seu exoplaneta rochoso, menor do que Marte
Se parte da crosta for mais densa do que o material do manto, o planeta pode desenvolver uma dinâmica de placas
terrestre. “No manto, o oxigênio reage com o ferro e cria óxidos leves demais para afundarem até o centro do planeta”, explica Unterborn. “Em vez disso, esses óxidos permanecem no manto e influenciam a composição dos minerais.” A quantidade de oxigênio também controla a presença de água no manto e a chance de o planeta ter oceanos. Enquanto o núcleo é feito quase exclusivamente de ferro, o manto e a crosta são compostos de minerais contendo vários elementos químicos, sendo o principal o silício. “Ao estimarmos a composição química da porção do planeta exterior ao núcleo, rica em silício, conseguimos modelar o processo que
aquece as rochas do manto e forma a crosta”, explica Unterborn. “Se parte da crosta for composta de material mais denso do que o do manto abaixo dela, então o planeta pode desenvolver uma dinâmica de placas tectônicas.” Para testar esse modelo com observações astronômicas, Unterborn e Panero trabalham desde meados do ano passado com Johanna Teske, do Instituto Carnegie, Estados Unidos, e outros astrônomos que utilizam o espectrógrafo Apogee, montado no telescópio da Fundação Sloan no Observatório Apache Point, no Novo México. O Apogee já analisou as linhas espectrais na faixa de frequências do infravermelho de aproximadamente 200 mil estrelas da Via Láctea. O objetivo principal é usar a composição química das estrelas para entender a história da formação da galáxia (ver Pesquisa FAPESP nº 232). Algumas das estrelas observadas pelo Apogee também foram alvo do telescópio espacial Kepler, projetado para buscar sinais da presença de exoplanetas em variações na intensidade do brilho das estrelas, e são agora investigadas por Johanna e seus colaboradores. Eles estão aplicando o modelo de Unterborn e Panero para deduzir as propriedades dos exoplanetas rochosos identificados pelo Kepler ao redor dessas estrelas.
A química dos planetas Concentração do elemento químico silício altera a rigidez da crosta As imagens abaixo mostram a possível composição mineral dos planetas formados ao redor das estrelas Kepler-102 e Kepler-407. A primeira tem concentração de silício similar à do Sol. A segunda, mais alta. Os planetas da Kepler-102 são ricos em olivinas e podem ter tectônica de placas, como a Terra; os da Kepler-407 têm mais granada e diópsido e, provavelmente, uma crosta rígida
Kepler 102 Olivina Wadsleyita Granada e ringwoodita Bridgmanita Granada
imagem Danielle Futselaar / SETI Institute ilustraçãO Robin Dienel / Carnegie DTM
O silício e os continentes
No encontro da Sociedade Astronômica Americana realizado em janeiro deste ano no Texas, a equipe apresentou os primeiros resultados da avaliação da composição química dos planetas que orbitam duas estrelas semelhantes ao Sol, uma anã amarela. Os pesquisadores usaram a diferença entre a química da Kepler-102 e a da Kepler-407 para exemplificar como a abundância de silício de uma estrela é um indicador forte dos minerais encontrados em maior quantidade nos planetas rochosos que a orbitam. No caso da Kepler-102, cuja concentração de silício é semelhante à do Sol, os pesquisadores preveem que seus exoplanetas rochosos devem ter manto e crosta ricos em minerais do grupo das olivinas, igualmente abundantes no manto e na crosta terrestres. Já no caso da Kepler-407, com concentração de silício muito superior à solar, o seu exoplaneta com dimensões semelhantes às da Terra, o Kepler-407b, deve ter crosta
Kepler 407 Diópsido Diópsido de alta pressão Núcleo de ferro líquido Bridgmanita Granada
rica em diópsido e manto com elevada abundância de granada, minerais mais duros e densos do que as olivinas, os mais abundantes na Terra. Essa combinação, segundo Unterborn, impediria a formação de placas tectônicas. Por ter minerais mais densos, o Kepler-407b pode apresentar uma massa maior do que a terrestre, embora seu raio seja semelhante ao da Terra. Futuras observações do planeta, a serem feitas com uma nova geração de telescópios mais potentes, podem confirmar ou refutar essa previsão. “Por enquanto, as incertezas nas medidas ainda são um pouco grandes”, diz Unterborn. Como mostra o trabalho de Souto, Cunha e colaboradores, o modelo de Unterborn e Panero também pode ser usado para estimar a composição de exoplanetas em outros tipos de estrelas, e não apenas nas anãs amarelas como o Sol. De todas, as mais importantes são as anãs vermelhas, que representam 70% das estrelas da Via Láctea – as anãs amarelas somam de 7% a 8% das estrelas da galáxia. Por serem pequenas, com menos da metade do tamanho do Sol, as anãs vermelhas facilitam a detecção dos exoplanetas que passam em sua frente. Como essas estrelas são menores, os planetas, ao atravessarem o caminho delas, causam uma redução maior e mais facilmente detectável na luz que chega à Terra. Este ano, astrônomos que trabalham com os telescópios espaciais Spitzer e Hubble, da Nasa, e o telescópio terrestre Trappist, do Observatório Europeu do Sul, descobriram um número recorde de sete exoplanetas ao redor de uma anã vermelha, a Trappist-1. Esses planetas têm massa e tamanho semelhantes aos da Terra e três se encontram na zona habitável da estrela. “A Trappist-1 está no hemisfério Sul e só conseguiremos observá-la quando o instrumento Apogee-2 estiver instalado no Observatório Las Campanas, no Chile”, conta Souto. “Fizemos um pedido para observá-la antes de novembro e esperamos ter algum resultado sobre a sua composição química até o fim do ano.” n Igor Zolnerkevic
Artigo científico
Fonte sloan digital sky survey
SOUTO, D. et al. Chemical abundances of M-dwarfs from the Apogee survey. I. The exoplanet hosting stars Kepler-138 and Kepler-186. The Astrophysical Journal, v. 835 (2). 1º fev. 2017.
pESQUISA FAPESP 254 z 57
citologia y
Placa para cultura 3D em frente a estruturas mostradas em monitor do microscópio
Os jardins suspensos das células Cultura em ambiente tridimensional permite observar estruturas desconhecidas e ampliar compreensão sobre o desenvolvimento cerebral
Diego Freire
S
e as células do seu nariz possuem a mesma informação genética das dos seus dedos, por que você não sente o cheiro destas páginas no simples ato de folheá-las? Foi com questionamentos similares, sobre como células com o mesmo material genético assumem formas e executam funções tão diferentes, que a bioquímica irano-americana Mina J. Bissell, do Laboratório Nacional Lawrence Berkeley, nos Estados Unidos, resolveu “pensar fora da célula” há mais de três décadas. Em vez de estudar os genes para desvendar os mistérios do câncer, concentrou-se na matriz extracelular, formada por elementos fluidos e fibrosos que fornecem as condições para o crescimento e a diferenciação das células. Após uma série de descobertas que validaram e ampliaram a empreitada, Bissell e sua equipe obtiveram imagens inéditas que confirmam
58 z abril DE 2017
a existência de filamentos de proteína que conectam diretamente o núcleo da célula e o ambiente extracelular. “Ver isso pela primeira vez é animador”, disse por telefone à Pesquisa FAPESP. A razão da animação é que a descoberta de uma conexão direta do núcleo com o microambiente da célula pode levar a novos entendimentos sobre as influências do meio externo no comportamento celular. A caracterização dessas estruturas foi apresentada em janeiro na revista Journal of Cell Science. Localizado na porção mais interna das células e, acreditava-se, isolado fisicamente do mundo externo, o núcleo guarda os genes e se comunica com o organismo por vias químicas – moléculas atravessam as barreiras das membranas e chegam ao material nuclear ou ativam cadeias de reações químicas que influenciam seu funcionamento.
Epudand aeceat alitaturiae doluptas inverrum erferit atest, quia parchil lestrum quias aliqui occullabo poratur si
“Enquanto estamos aqui conversando, nossos 70 trilhões de células estão em um constante diálogo com o que as cerca – a matriz extracelular –, trocando sinais entre o núcleo e o microambiente”, contou Bissell, referindo-se ao que envolve a célula no organismo vivo. Já se sabia que essa conversa entre núcleo e matriz se dá por meio de interações entre moléculas, que podem reprogramar a célula ou mudar seu comportamento. A novidade está na conexão física. Os pesquisadores – entre eles, o brasileiro Alexandre Bruni-Cardoso, do Instituto de Química da Universidade de São Paulo (IQ-USP) – conseguiram ver esses filamentos porque combinaram diferentes técnicas de microscopia de luz e eletrônica e mais de 15 mil imagens de diferentes pontos de células mamárias, registrando em detalhes o núcleo celular permeado por túneis. Dentro deles, fila-
foto será feita pelo léo na semana que vem
mentos de proteínas se estendem até a membrana da célula, ancorada na matriz extracelular. “Esses cabos do citoesqueleto conectam a parte externa da célula ao núcleo”, diz Bruni-Cardoso, que em 2014 encerrou um estágio de pós-douto rado no laboratório de Bissell. Para caracterizar em detalhes os filamentos, eles também lançaram mão de uma técnica ainda pouco explorada, mas que permite investigar as relações da célula com o meio que a cerca: a cultura tridimensional (3D) de células.
léo ramos chaves
CONEXÃo direta
Em uma placa de Petri, o recipiente achatado utilizado para culturas de microrganismos e de células, o cientista pode não conseguir avançar muito no cultivo das células além de sua proliferação. Isso porque, nessa estrutura bidimensional, elas formam uma camada
plana como a própria placa – e significativamente diferente do que ocorre no organismo. “A vida é em 3D e também assim é a biologia. Para reproduzir a arquitetura das células, cuja importância fica ainda mais evidente diante da descoberta de que há ligações físicas entre a informação genética no núcleo celular e o microambiente, é preciso mais”, defende Bruni-Cardoso. Essa conexão de proteínas que formam filamentos e ligam a parte de fora da célula à de dentro já havia sido proposta por Bissell na década de 1980, quando ela cunhou o termo “reciprocidade dinâmica”: a célula é influenciada por sinais externos e, por sua vez, afeta o meio à sua volta. Uma das pioneiras no cultivo 3D de células, ela defendia que a forma que o tecido adquire (sua arquitetura) também é fonte de informação e um componente do microambiente.
Na pesquisa em colaboração com Bissell, Bruni-Cardoso trabalhou com células da glândula mamária humana em cultivo 3D. Em vez de dispostas sobre uma placa, elas crescem dentro de um gel rico em laminina, uma molécula de adesão celular presente no microambiente do organismo vivo. Por estarem suspensas e envoltas por estruturas que mimetizam o microambiente celular, as células são capazes de se dividir, organizando-se em uma estrutura que se assemelha muito aos ácinos, unidades funcionais das glândulas mamárias responsáveis pela produção do leite durante a lactação. É observando o que ocorre dentro desse gel, ocupado por células organizadas à semelhança do tecido vivo, que os pesquisadores pretendem compreender o papel dos filamentos nas interações entre o núcleo celular e o microambiente. pESQUISA FAPESP 254 z 59
A cultura 3D deve muito aos trabalhos que antecederam a descoberta dos filamentos no Laboratório Nacional Lawrence Berkeley. Em meados dos anos 1980, Mina Bissell fez com que células mamárias em cultura se diferenciassem e produzissem leite. “Olhamos para o funcionamento da glândula mamária e toda a harmonia que há entre a forma e a função e pensamos: ‘Que estrutura linda! Como as células se organizam dessa forma para produzir o leite e fazer com que jorre até os mamilos, de onde o bebê irá sugá-lo?’”, lembrou. Os pesquisadores, então, documentaram com um microscópio eletrônico a glândula mamária de uma fêmea de camundongo no início da gravidez. Estava tudo lá: durante a lactação, o leite é produzido pelas células dos alvéolos e se acumula nas cavidades dessas estruturas e dentro dos ductos galactóforos – toda uma arquitetura dedicada à produção e distribuição dessa secreção nutritiva. Bissell e sua equipe tentaram cultivar as células da glândula mamária em placas de Petri. Depositadas sobre a superfície plana, elas são incapazes de assumir a morfologia observada in vivo e, mesmo recebendo os hormônios que induzem a
produção do leite, em três dias perdem a função. A pesquisadora experimentou, então, cultivar as células em um material viscoso que impedia seu contato com a superfície. Para conseguir isso, acrescentou à cultura aquilo que observara nas fotografias e que, até aquele momento, se acreditava ser apenas um suporte da estrutura celular: a matriz. “Em aproximadamente quatro dias, pudemos repetir o bordão de uma propaganda governamental então famosa nos Estados Unidos: ‘Yes, we have milk’ [sim, temos leite].” dimensões in vitro
Ponto para a tridimensionalidade do ambiente em que as células foram cultivadas. “Olhando para a histologia da glândula mamária se vê claramente que há muita coisa do lado de fora e que a matriz extracelular compreende boa parte do órgão”, diz Bruni-Cardoso. Numa cultura bidimensional, praticamente 50% da superfície da célula está em contato com o plástico ou vidro da placa de Petri e a outra metade com o meio de cultura –o líquido com os nutrientes e todos os elementos de que ela precisa para proliferar e ficar viva. “Já no modelo 3D, a maior parte da superfície de uma célu-
O passo a passo da jardinagem celular
Cultura bidimensional
Células são destacadas com ajuda da enzima tripsina
Fonte Alexande bruni-cardoso
Cultura tridimensional
O cultivo começa em uma placa
Postas em meio de cultura líquido, as células afundam até
de Petri, onde as células se
que o material viscoso aquecido se converta em gel; suspensas,
replicam indiferenciadas
diferenciam-se e formam estruturas tridimensionais
60 z abril DE 2017
infográfico ana paula campos ilustraçãO pedro hamdan
A cultura 3D em laboratório permite avançar no entendimento das relações da célula com o meio que a cerca
la está em contato com outras células e com a matriz”, explica o pesquisador. Foi a busca por modelos que simulem de forma mais próxima a situação in vivo que levou ao desenvolvimento de organoides obtidos a partir de células reprogramadas de pacientes com diferentes distúrbios cerebrais. As pesquisas com os chamados minicérebros criados em laboratório, também suspensos em uma matriz rica em laminina, estimularam uma série de avanços na compreensão de diferentes aspectos do funcionamento do cérebro humano – entre eles, a recente descrição minuciosa da composição química e da distribuição de micronutrientes e minerais durante o desenvolvimento fetal. O trabalho, publicado em fevereiro na revista PeerJ, foi realizado no Instituto D’Or de Pesquisa e Ensino (Idor) em colaboração com os institutos de Ciências Biomédicas e de Física da Universidade Federal do Rio de Janeiro (UFRJ) e com o Laboratório Nacional de Luz Síncrotron (LNLS), em Campinas. Antes, os minicérebros ganharam destaque por terem contribuído à compreensão da relação entre a infecção pelo vírus zika e a microcefalia (ver Pesquisa FAPESP nº 252). Cientistas do Idor e da UFRJ infectaram essas estruturas com o vírus e atestaram que ele foi capaz de infectar e matar células-tronco neurais, provocando alterações drásticas no desenvolvimento dos organoides cerebrais e comprovando a relação direta entre a infecção e a malformação. Até o cultivo dos minicérebros, a investigação de nutrientes cerebrais era feita em tecido cerebral humano post-mortem. Com a cultura 3D dos orga-
Estrutura mamária in vitro vista por microscopia de fluorescência
fotos 1 alexandre bruni-cardoso / usp 2 ana zen / usp, em microscópio de super-resolução leica tcs sp8 sted3x
1
noides cerebrais mimetizando diferentes estágios da formação do cérebro, foi possível compreender a dinâmica dos nutrientes durante o desenvolvimento neurológico. Os resultados mostram que a concentração e a distribuição de micronutrientes estão diretamente relacionadas ao estágio de desenvolvimento. Os autores as descreveram em dois momentos distintos: um inicial, de intensa proliferação celular, durante os primeiros 30 dias, e um segundo, quando as células começam a se tornar neurônios e se organizam em camadas (45º dia). “Trata-se de um exemplo de organização tridimensional que só é observado no tecido humano e em nenhum outro tipo de cultura que não seja o organoide”, diz Stevens Rehen, pesquisador do Instituto de Ciências Biomédicas da UFRJ e do Idor. A combinação desse modelo de cultura com a radiação síncrotron, que permite descrever micronutrientes até os átomos que os compõem, possibilitou compreender em profundidade importantes aspectos do desenvolvimento e caracterizar melhor o processo de formação desses organoides cerebrais, já que eles possuem conexões que obedecem a anatomia natural. Os nutrientes observados pelos pesquisadores são essenciais para a formação adequada do cérebro. A falta de alguns deles durante o desenvolvimento pré-natal está relacionada a déficits de memória e distúrbios psiquiátricos, como a esquizofrenia. De acordo com Rehen, o objetivo agora é utilizar os mi-
nicérebros para compreender sua dinâmica em casos de distúrbios cujas alterações de nutrientes já foram descritas. Para Mina Bissell, trata-se de um mundo novo a ser desbravado. “Sequenciamos o genoma humano, sabemos muito sobre os genes, sua linguagem e seu alfabeto, mas ainda conhecemos muito pouco ou quase nada da forma – a não ser que forma e função interagem de maneira dinâmica e recíproca. Uma não prescinde da outra e nós, cientistas, não podemos considerar uma sem a outra.” Ela cita um poema do irlandês William Butler Yeats (1865-1939) para ilustrar o raciocínio que a levou a estabelecer o método importante para compreensão da vida em sua unidade mais elementar. “Ó corpo embalado à musica / Ó vislumbre cativante/ Como separar da dança o dançante?”, diz o poema. “Enquanto um dançarino dança, ele é o dançarino e a própria dança; no instante em que ele para, não temos nenhum dos dois. Assim acontece com a forma e a função. Assim é a vida desde sua parte mais básica.” n
Artigos científicos JORGENS, D. M. et al. Deep nuclear invaginations are linked to cytoskeletal filaments – integrated bioimaging
Filamentos (verde) atravessam a célula e conectam o núcleo (azul) à matriz extracelular
of epithelial cells in 3D culture. Journal of Cell Science. v. 130, n. 1, p. 177-89. 1º jan. 2017. SARTORE, R. C. et al. Trace elements during primordial plexiform network formation in human cerebral organoids. PeerJ. 8 fev. 2017.
2
pESQUISA FAPESP 254 z 61
zoologia y
Espinhos repletos de veneno Glândula situada na extremidade das cerdas produz secreção tóxica da lagarta-de-fogo Rodrigo de Oliveira Andrade
É Lonomia obliqua, responsável por 500 casos de intoxicação por ano no Brasil 62 z abril DE 2017
no ápice das cerdas que recobrem o dorso das lagartas-de-fogo que se encontra a glândula responsável pela produção de seu veneno, um coquetel de toxinas que em contato com a pele humana pode causar sérios problemas de saúde e, em casos extremos, matar. A identificação da célula produtora de veneno da taturana Lonomia obliqua resulta do trabalho de pesquisadores do Instituto Butantan, em São Paulo. Sob a coordenação da bióloga Diva Denelle Spadacci-Morena, do Laboratório de Fisiopatologia, eles analisaram as cerdas da lagarta com o auxílio de um microscópio eletrônico de varredura, capaz de ampliar a imagem dezenas de milhares de vezes, e identificaram a existência de uma célula responsável pela produção da peçonha. Há algum tempo se sabe que outras lagartas, como as taturanas do gênero Automeris, possuem uma glândula de veneno em seus pelos. Mas havia dúvida sobre o que se passava com as lagartas-de-fogo, que
fotos eduardo cesar
Extraídas com uma tesoura, as cerdas da taturana são depois maceradas e liberam o extrato usado na produção do soro antilonômico no Instituto Butantan
já foram qualificadas popularmente de das árvores. É nessas situações que ocorassassinas por causa dos acidentes fa- rem os acidentes mais graves. Pequenas quantidades do veneno protais. Antes da equipe do Butantan, outros pesquisadores também investigaram as vocam, já nos primeiros minutos, queicerdas da Lonomia. Como não encontra- maduras na pele, inchaço local e um leve ram a glândula, inferiram que o veneno mal-estar. Em grandes quantidades, no devia ser produzido no interior do corpo entanto, a peçonha pode desencadear da taturana — para eles, as cerdas fun- depois de alguns dias distúrbios hemorcionariam apenas como tubos que trans- rágicos e até insuficiência renal. “Nesses casos, se não for tratado, o indivíduo coportam a secreção para fora. Além de identificar a célula produtora meça a sangrar pelo nariz e pela gengide toxina, os pesquisadores do Butantan va e a perder sangue pela urina”, expliconstataram que o veneno, depois de ca o entomólogo Roberto Moraes, um produzido, fica armazenado na extre- dos autores do estudo da Toxicon. Uma midade dos pelos. “Um leve esbarrão é proteína específica do veneno, a Lopap, o suficiente para romper a ponta e liberar o líquido”, diz Diva, primeira autora do artigo que descreveu o achado em setembro de 2016 na revista Toxicon. Curiosamente, não são todas as cerdas que produzem a peçonha, um líquido de cor alaranjada. Alguns dos pelos liberam hemolinfa, um fluido esverdeado responsável pelo transporte de nutrientes pelo corpo da lagarta. Comum nas propriedades rurais do Sul do Brasil, essas taturanas podem alcançar 6 centímetros de comprimento. Elas são os exemplares imaturos (larva) de uma mariposa marrom, cujas asas, quando abertas, lembram uma folha seca. As lagartas nascem de ovos depositados em troncos e folhas das árvores e passam por seis estágios de desenvolvimento até se transformarem na mariposa adulta. Como larva, vivem em grupos de mais de 80 indivíduos, que, apesar das cerdas verdes, costumam ser confundidos com a casca Grupos de lagartas causam os acidentes mais graves
altera a coagulação sanguínea e facilita a ocorrência de hemorragias. Relatos de acidentes com a Lonomia começaram a surgir em fins dos anos 1980, sobretudo no norte do Rio Grande do Sul. À época, cerca de 300 pessoas se feriram somente em Passo Fundo, onde a lagarta é mais comum. Ao todo, por ano, são registrados no Brasil cerca de 500 acidentes. Por causa da gravidade dos casos, pesquisadores do Laboratório de Imunoquímica do Instituto Butantan, sob coordenação do imunologista Wilmar Dias da Silva, iniciaram, em 1994, a produção de um soro neutralizador do veneno. A médica Fan Hui Wen, responsável pelo Laboratório de Artrópodes do Butantan, coordena atualmente a produção desse antídoto, elaborado a partir de um extrato das cerdas da lagarta, que, depois de purificado, é injetado em cavalos. Todos os anos o Butantan recebe de agricultores cerca de 3 mil lagartas, quantidade que permite produzir 10 mil ampolas do soro, o suficiente para atender os acidentes que ocorrem no país. n
Projeto Identificação e caracterização das toxinas com atividade hemolítica da lagarta Lonomia obliqua e da glândula produtora das toxinas: Estudo bioquímico e morfológico (nº 01/07643-7); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Ida Sigueko Sano Martins (Instituto Butantan); Investimento R$ 127.423,13.
Artigo científico SPADACCI-MORENA, D. D. et al. The urticating apparatus in the caterpillar of Lonomia obliqua (Lepidoptera: Saturniidae). Toxicon. 1º set. 2016.
pESQUISA FAPESP 254 z 63
Paleontologia y
Bichos do Paraná
1
Fósseis de mamíferos e ave indicam a existência de uma antiga fauna desconhecida que viveu na região de Curitiba há 40 milhões de anos
D
epois da extinção dos dinossauros há 66 milhões de anos, as formas de vida animal terrestre tomaram um caminho singular em algumas partes do globo. Na América do Sul, que tinha se separado da África e ainda não estava conectada à América do Norte, surgiu uma ordem de mamíferos com placenta, a dos Xenarthra, hoje quase toda extinta, com exceção dos atuais tatus, preguiças e tamanduás. Também aqui apareceram as primeiras “aves do terror”, nome popular de carnívoros gigantes, igualmente desaparecidos da Terra, que eram incapazes de voar e pertenciam à família Phorusrhacidae. Exemplares dessa antiga fauna sul-americana que viveram entre 42 e 39 milhões de anos atrás – intervalo de tempo que, até agora, não tinha registros
2
64 z abril DE 2017
fósseis de vertebrados no Brasil – foram descobertos em um novo sítio paleontológico no Paraná. De um afloramento rochoso da formação geológica Guabirotuba, na divisa de Curitiba com o município vizinho de Araucária, uma equipe coordenada por pesquisadores da Universidade Federal do Paraná (UFPR) e da Universidade Estadual do Oeste do Paraná (Unioeste) encontrou dentes e fragmentos ósseos de 10 tipos distintos de mamíferos placentários: sete com carapaça, ancestrais dos extintos gliptodontes e dos atuais tatus, e três com casco, tecnicamente denominados ungulados. Entre os marsupiais, mamíferos com um envoltório em forma de bolsa para carregar filhotes, foram achados vestígios de três gêneros extintos, inclusive dos sparassodontes,
Reconstituição de dois mamíferos extintos, semelhantes aos encontrados no sítio paranaense, o marsupial sparassodonte (alto) e o astrapotério (à esq.)
predadores carnívoros que tinham grandes dentes caninos e atingiram o tamanho de um leopardo. A maior parte da fauna de Guabirotuba é igual ou se assemelha aos mamíferos fósseis encontrados na província de Chubut, na Patagônia argentina, que viveram em um momento geológico conhecido como Barrancano, entre 42 e 39 milhões de anos atrás. Mas uma nova espécie até então desconhecida de tatu primitivo, o Proeocoleophorus carlinii, foi descrita no artigo científico que apresentou os achados do sítio paranaense, publicado neste ano no Journal of Mammalian Evolution. Os pesquisadores recuperaram uma grande quantidade de placas fossilizadas que compunham a carapaça do animal. “Começamos a estudar o novo sítio pelos mamíferos, pois alguns desses fósseis ocorrem apenas no intervalo Barrancano e funcionam como evidência para datação geológica”, explica o paleontólogo Fernando Sedor, coordenador científico do Museu de Ciências Naturais da UFPR e principal autor do estudo. Esse é o caso dos vestígios do tatu primitivo do gênero Utaetus e do sparassodonte do gênero Nemolestes, ambos agora encontrados na capital paranaense. “Nos próximos trabalhos, devemos descrever ao menos duas novas espécies extintas de marsupiais”, diz o paleontólogo Eliseu Vieira Dias, professor da
fotos 1 Jose Manuel Canete / Wikimedia Commons 2 Rextron / Wikimedia Commons 3 Régine Debatty / Wikimedia Commons 4 Fernando Sedor
Marcos Pivetta
4
Fósseis de diferentes animais resgatados em Curitiba, como a mandíbula de um ungulado, o casco de uma tartaruga e o dente de um astrapotério
Unioeste, de Cascavel. Além dos mamíferos, o sítio de Curitiba ainda apresenta fósseis de peixes, anfíbios, tartarugas, crocodilomorfos, moluscos, uma “ave do terror” e rastros e marcas deixados nas rochas por invertebrados. Os primeiros fósseis da formação Guabirotuba foram achados em 2010 pelos geólogos Antonio Liccardo, da Universidade Estadual de Ponta Grossa (UEPG), e Luiz Carlos Weinschütz, da Universidade do Contestado (UnC), de Santa Catarina, que ali encontraram um dente de crocodilomorfo. Posteriormente, Sedor e Dias iniciaram pesquisas sistemáticas na localidade, que levaram ao resgate de um conjunto mais amplo de fósseis. Novo tatu primitivo
3
Um fóssil de “ave do terror”, parecido com o Paraphysornis brasiliensis, cujo modelo (à esq.) está em um museu na Áustria, foi achado na formação Guabirotuba
No Brasil, além de Guabirotuba, existem apenas quatro formações geológicas conhecidas com fósseis de vertebrados do Paleógeno, período geológico entre 66 e 23 milhões de anos atrás: Maria Farinha, em Pernambuco, com material de idade entre 66 e 56 milhões de anos atrás; Itaboraí, no Rio de Janeiro (56 e 48 milhões de anos); Entre-Córregos, em Minas Gerais (35 e 30 milhões de anos); e Tremembé, na bacia de Taubaté, em São Paulo (28 e 16 milhões de anos). Mas só foram encontrados vestígios de mamíferos do Paleógeno em Itaboraí e em Tremembé. Em termos cronológicos, os fósseis de Curitiba apresentam, portanto, uma idade intermediária em relação às faunas extintas encontradas nessas duas formações. “Os mamíferos de Guabirotuba são um pouco mais novos do que os de Itaboraí e um pouco mais velhos do que os de Tremembé”, comenta Sedor. “Eles são de extrema importância para entender a evolução de algumas linhagens de mamíferos na América do Sul.” A nova espécie de mamífero xenartro descoberta no Paraná recebeu o no-
me de Proeocoleophorus carlinii porque aparenta ser uma forma mais antiga e anterior do Eocoleophorus, um gênero extinto de tatu primitivo encontrado originalmente na região de Taubaté. Sedor e Dias esperam identificar outros casos semelhantes ao comparar os fósseis das formações Itaboraí, Tremembé e Guabirotuba, situadas em bacias do Sudeste que se originaram em razão do chamado Rift Continental do Sudeste do Brasil. Essa ruptura deu origem a diversas falhas que resultaram em um conjunto de vales com mais ou menos 100 quilômetros (km) de largura e que se estende por cerca de mil km, desde o litoral do Paraná até o Rio de Janeiro, passando por Curitiba e São Paulo. Os estudos comparativos de vertebrados não vão se limitar aos mamíferos. Em parceria com os colegas do Paraná, o paleontólogo Herculano Alvarenga, fundador e diretor do Museu de História Natural de Taubaté, deverá analisar os vestígios do exemplar de “ave do terror” achado na capital paranaense. “Eles realmente acharam um Phorusrhacidae”, explica Alvarenga, especialista em aves fósseis. “Ele é menor que o nosso Paraphysornis brasiliensis, mas pode ser o primeiro representante de ‘ave do terror’ que viveu durante o Eoceno [época geológica entre 55 e 36 milhões de anos atrás].” O paleontólogo de Taubaté descobriu um esqueleto quase completo do Paraphysornis brasiliensis e descreveu a espécie, um predador de 2 metros de altura que aterrorizava o Vale do Paraíba com seu bico em forma de gancho há 23 milhões de anos. n
Artigo científico SEDOR. F. A. et al. A new South American paleogene land mammal fauna, Guabirotuba formation (Southern Brazil). Journal of Mammalian Evolution. v. 24, n. 1, p. 39-55. mar. 2017.
pESQUISA FAPESP 254 z 65
tecnologia AGRICULTURA y
Controle biológico
contra o greening Empresas investem em pequenas vespas produzidas em laboratório para combater inseto que leva doença aos laranjais Domingos Zaparolli
66 z abril DE 2017
C
fotos 1 Henrique Santos /fundecitrus 2 fundecitrus
1
itricultores paulistas estão obtendo sucesso com o uso de uma tecnologia de controle biológico desenvolvida na Escola Superior de Agricultura Luiz de Queiroz da Universidade de São Paulo (Esalq-USP) para combater o greening, a mais devastadora doença dos pomares de citros hoje. Também conhecida por HLB em razão de seu nome original em chinês, Huanglongbing (ramo amarelo), deixa as folhas amareladas e os frutos deformados e verdes. A solução é eliminar a árvore doente com a raiz. Apenas em São Paulo, a praga já obrigou a erradicação de quase 50 milhões de laranjeiras, abrangendo uma área de 100 mil hectares (ha), um quarto dos pomares paulistas, desde 2004. O greening é resultado da ação das bactérias Candidatus Liberibacter asiaticus e Candidatus Liberibacter americanus transmitidas às plantas de citros por um pequeno inseto, o psilídeo Diaphorina citri. Os pesquisadores liderados pelo engenheiro-agrônomo José Roberto Postali Parra, professor do Departamento de Entomologia e Acarologia da Esalq-USP, desenvolveram uma forma de criar em laboratório a vespinha Tamarixia radiata, um inimigo natural do psilídeo. As vespas parasitam os psilídeos ainda jovens – quando estão na fase de ninfa e não voam – ao colocar ovos no corpo do inseto. Quando as vespas saem do ovo, destroem o inseto. Mas há um problema: os mesmos inseticidas utilizados pelos produtores contra os psilídeos também são fatais aos inimigos naturais. O grupo da Esalq observou que as áreas ao redor das plantações comerciais poderiam receber populações de vespas. Essas, por sua vez, parasitariam os psilídeos antes que eles chegassem aos pomares e contaminassem as árvores. Dessa forma, os pesquisadores demonstraram a capacidade da T. radiata em eliminar mais de 80% da população do vetor no entorno da lavoura. O experimento foi realizado em 2014 em Itapetininga (SP), num raio de 3 quilômetros na adjacência de uma plantação de laranjas da Citrosuco, uma das grandes produtoras mundiais de suco. A estimativa foi realizada usando armadilhas amarelas adesivas – os psilídeos são atraídos pela cor e acabam presos em cartões abertos e revestidos por cola. A armadilha também indica a chegada dos insetos nas plantações. Quanto menos psilídeos presos no cartão, maior é a eficiência das vespinhas. “Nossas prioridades agora são medir o
impacto que essa redução do vetor tem na disseminação da doença e quantas liberações do parasitoide são necessárias para ampliar a eficiência no combate ao psilídeo”, diz Parra. A soltura de Tamarixia radiata no entorno dos pomares pulverizados é um importante aliado no controle da doença em áreas abandonadas, sítios e residências com árvores cítricas no quintal ou com as plantas ornamentais Murraya spp., conhecidas como falsa-murta, comum em áreas públicas e cemitérios, que também são focos de psilídeos. “A liberação das vespinhas nessas áreas se mostrou eficiente, diminuindo a incidência da doença em pomares comerciais”, explica Parra. O controle biológico de pragas é objeto de estudos desde os anos 1950 no Brasil. Nos anos 1960, surgiu nos Estados Unidos e Europa o conceito de Manejo Integrado de Pragas como alternativa à aplicação de defensivos agrícolas para controlar pragas presentes no campo, inclusive bactérias e vírus. Atualmente, no Brasil, algumas empresas produzem insetos para combater outros insetos nas plantações. Um exemplo são as vespas Trichogramma, que combatem várias espécies de mariposas nas culturas de algodão, cana, soja, tomate e repolho (ver Pesquisa FAPESP nº 195). 2
Plantação sem greening (ao lado), e laranjas malformadas em árvore com a presença da doença (acima) pESQUISA FAPESP 254 z 67
Há registros da presença do psilídeo nos laranjais paulistas desde os anos 1940, mas a primeira manifestação da doença só ocorreu em 2004. Matão e Araraquara, duas grandes regiões produtoras no interior paulista, foram o epicentro da infestação que devastou pomares tradicionais. Imediatamente a equipe de entomologia da Esalq passou a estudar a possibilidade de introduzir nos laranjais um parasitoide natural do psilídeo. Encontraram informações sobre a eficácia obtida no controle da praga nas ilhas ultramarinas francesas, no oceano Índico por meio da T. radiata. Ao mesmo tempo, uma aluna de Parra, Mariuxi Gomes Torres, do Equador, estudante de doutorado em entomologia, detectou exemplares da pequena vespa no Brasil. A equipe da Esalq precisou estudar o ciclo de reprodução da T. radiata e do psilídeo, além de desenvolver a tecnologia de produção do inseto em laboratório. Essas tarefas foram concluídas em 2011 com o apoio financeiro da Fapesp e do Fundecitrus.
1
2
O
68 z abril DE 2017
dir essas práticas, com ênfase nas vespinhas, entre os produtores independentes que abastecem suas unidades de processamento de laranjas e até mesmo concorrentes. “Não são ações isoladas que vão vencer o greening, é preciso um engajamento de todos”, comenta Leão, da Citrosuco. Segundo Juliano Ayres, gerente-geral do Fundecitrus, a ideia agora é que os citricultores invistam na produção própria de vespas. Uma biofábrica requer várias salas para desenvolver as diferentes etapas da criação, com temperatura controlada. O custo de uma pequena biofábrica, produzindo cerca de 100 mil vespas por mês, pode variar de R$ 40 mil a R$ 200 mil, dependendo se a instituição interessada possuir uma estrutura física para a criação. Segundo Parra, em geral, duas ou três pessoas são suficientes para produzir as vespas. A criação pode ser conduzida por pessoas com nível médio de escolaridade, desde que recebam orientação e sejam continuamente assessoradas por entomologistas. A multinacional Louis Dreyfus Company (LDC), com sede na Holanda e presente no Brasil desde 1942, utiliza as vespas do Fundecitrus. Jorge Costa, diretor de operações da Plataforma Sucos, relata que é realizada periodicamente a
A pequena vespa Tamarixia radiata (no alto) e a liberação no pomar (acima)
fotos 1 e 2 fundecitrus 3 Henrique santos / fundecitrus
sucesso com a T. radiata levou a Citrosuco a construir quatro biofábricas – laboratórios para a produção dos insetos. A primeira foi erguida em 2014, em Itapetininga. Na sequência vieram as unidades em Boa Esperança do Sul, Onda Verde e São Manoel, todas no interior paulista. Ao todo, a companhia já liberou na natureza 3,9 milhões de vespas, obtendo uma redução significativa na captura de psilídeos nas bordaduras – os 300 metros iniciais – de seus pomares comerciais, as áreas mais vulneráveis. “É uma maneira eficiente e sustentável de enfrentar a doença”, afirma Helton Leão, gerente-geral do departamento agrícola da Citrosuco. A empresa projeta construir mais três biofábricas até 2018, levando a uma capacidade de produção total de cerca de 600 mil vespas por mês, que serão destinadas às 26 fazendas de laranjas da companhia. Em 2015, o Fundo de Defesa da Citricultura (Fundecitrus), entidade mantida pelos produtores, investiu R$ 400 mil para construir uma biofábrica de T. radiata em Araraquara (SP), com o apoio da Bayer CropScience, divisão de pesquisa em agricultura da Bayer, empresa química alemã. O laboratório tem capacidade para produzir 100 mil vespas por mês. Cada inseto elimina até 500 ninfas de psilídeos. Em dezembro do ano passado, o Fundecitrus superou a marca de 1 milhão de unidades produzidas. Elas são distribuídas gratuitamente aos citricultores, que as liberam em uma área que soma 2.420 ha. A estimativa de Parra é de que há 12 mil hectares no entorno de pomares comerciais que deveriam ser alvo do controle biológico, com liberações contínuas de vespas. Citrosuco e Fundecitrus têm se empenhado em disseminar as técnicas de combate ao greening. A empresa tem organizado workshops para difun-
Recentemente um dos psilídeos vetores da bactéria (Trioza erytreae) foi detectado em plantas cítricas de países do Mediterrâneo, pondo em alerta produtores italianos e ibéricos. Por enquanto, a Austrália é a única região sem sinais de infecção e sem os insetos vetores. Além das laranjeiras, pés de limão e tangerinas são as principais vítimas da praga. Segundo o engenheiro-agrônomo Antônio Juliano Ayres, gerente-geral do Fundecitrus, a produção de uma planta infectada com a doença definha, sendo reduzida para 25% de seu potencial. A qualidade da fruta também é comprometida ao ficar mais ácida e com sabor amargo. A erradicação é necessária porque a bactéria é levada por meio do fluxo da seiva para toda a planta, alojando-se inclusive nas raízes, o que torna a poda inútil. As brotações que surgem após a poda servem como fonte para novas infecções.
3
Toressecatem qui conectet undit hit qui omniaturit pa que comni abo. Nequia quid experia aut eum harchicius
liberação de vespas nas fazendas gerenciadas pela companhia e em áreas vizinhas como complemento de uma estratégia de manejo integrado de controle do HLB. Recomendadas pela própria Fundecitrus, as ações envolvem outras atividades, como o monitoramento da presença do vetor e o plantio de mudas vindas de viveiros protegidos contra os psilídeos. “Esse conjunto de manejo tem mantido a infestação por HLB em baixa incidência nos pomares que gerenciamos, mantendo os níveis de produtividade das fazendas”, diz Costa.
O
citricultor Janderson Bortolan, proprietário de duas fazendas no interior paulista, em Guaraci e Cajobi, que somam 40 mil plantas, também é um usuário das vespas do Fundecitrus. Bortolan faz um trabalho intenso de controle químico da praga, com uma pulverização total do pomar numa semana e outra específica na bordadura das propriedades na outra semana. Com isso, mantém um índice de infecção inferior a 0,5% das árvores. Desde 2015, já realizou cinco liberações no entorno de sua propriedade, sempre três dias depois de uma pulverização química. A disseminação do greening é global. A doença afeta pomares da Ásia, África e das Américas.
Psilídeo adulto e indivíduos jovens desse inseto, chamados de ninfas
N
a Flórida, o principal estado produtor de laranja dos Estados Unidos, o greening foi identificado em 2005. Até então, a produção anual do estado variava em torno de 220 milhões de caixas – cada caixa contém 40,8 quilos da fruta. A safra de 2016 resultou em 67 milhões de caixas, a menor colheita em 70 anos, como consequência da doença. “Os produtores norte-americanos relutaram em erradicar as plantas infectadas e o greening se alastrou. Agora, reverter a queda da produção tornou-se muito difícil”, explica o gerente do Fundecitrus. Ayres avalia que os produtores brasileiros, que já enfrentaram outras ameaças aos pomares, como o cancro e a clorose variegada dos citros (CVC), estavam mais abertos a adotar estratégias radicais, que preveem até a eliminação das árvores frutíferas contaminadas. Mesmo assim, a extensão dos prejuízos é grande. O Fundecitrus estima que hoje 16,9% das laranjeiras do parque citrícola de São Paulo e Triângulo Mineiro registram algum grau de incidência de HLB. “Em 2016 a produção de laranjas do país foi de 244 milhões de caixas. Poderia ter sido 5% maior sem a doença”, comenta. O Brasil é o maior produtor mundial de laranja e São Paulo responde por 80% da produção nacional. O suco da fruta é o terceiro produto mais exportado do estado. Em 2016 as vendas no exterior geraram uma receita de US$ 1,78 bilhão. n
Projetos 1. Estratégias biotecnológicas para o controle do HLB mediante transgenia (nº 15/07011-3); Modalidade Projeto Temático; Pesquisador responsável Leandro Antônio Peña Garcia (Fundecitrus); Investimento R$ 1.169.211,09. 2. Bioecologia e estabelecimento de estratégias de controle de Diaphorina citri Kuwayama (Hemiptera: lividea) vetor da bactéria causadora do greening nos citros (nº 04/14215-0); Modalidade Projeto Temático; Pesquisador responsável José Roberto Parra (USP); Investimento R$ 701.840,94.
pESQUISA FAPESP 254 z 69
pecuária y
Os genes do gado O conhecimento da genética de bovinos deve auxiliar criadores a selecionar animais da raça nelore com carne mais macia
P
esquisas em melhoramento genético baseadas na identificação e na manipulação de genes e proteínas estão em andamento no Brasil para melhorar a qualidade do gado de corte. O objetivo é desenvolver bovinos com maior eficiência alimentar – capacidade de transformar o que comem em carne e gordura –, ganho de peso mais rápido, resistência a doenças e parasitas e produção de carne mais macia. Inicialmente feita com base no “olhômetro”, ou seja, em características externas dos animais, a informação codificada nos genes passou a ajudar na seleção dos indivíduos com as qualidades
70 z abril DE 2017
desejadas. A maioria dos trabalhos é com a raça nelore, da subespécie conhecida como zebu (Bos taurus indicus), originária da Índia e que representa cerca de 80% do rebanho nacional de bovinos. Uma análise de variações estruturais e funcionais do genoma do nelore e de sua relação com características de produção, como a qualidade da carne e a eficiência alimentar da raça, é desenvolvida pela veterinária Luciana Correia de Almeida Regitano, pesquisadora de genética animal da Embrapa Pecuária Sudeste, uma das unidades da Empresa Brasileira de Pesquisa Agropecuária (Embrapa), localizada em São Carlos (SP). “O objetivo é
compreender os mecanismos moleculares que contribuem para a variação genética que afeta o fenótipo [conjunto de características observáveis de um indivíduo] do animal.” A partir desse conhecimento será possível selecionar animais que possuem as variantes favoráveis ou mesmo induzir mutações no genoma do animal, melhorando as características de uma raça. Uma das pesquisas do grupo de Luciana diz respeito ao gene KCNJ11. Em camundongos, a falta de expressão desse gene causa baixo aproveitamento dos alimentos e fraqueza muscular. “Ao investigar a atuação dele em bovinos, en-
embrapa
Evanildo da Silveira
Rebanho da raça nelore na fazenda da Embrapa, em São Carlos: sequenciamento completo dos genes e proteínas para verificar diferenças individuais
contramos uma relação com a maciez da carne”, explica. “Os animais com menor expressão desse gene possuíam carne mais macia, mas também apresentavam menores índices de ingestão de capim seco, ganho de peso diário e taxa de crescimento. Esses resultados mostram como interferir na expressão de um único gene poderia trazer tanto resultados positivos quanto negativos do ponto de vista do produtor.” No Brasil, essas pesquisas ganham importância especial porque o rebanho nacional é o segundo do mundo, com 215,2 milhões de cabeças em números de 2015, atrás da Índia, com 330 milhões
de animais, em 2014. As raças zebuínas, que predominam no Brasil, são adaptadas ao clima tropical porque são mais resistentes a doenças e à pastagem mais fraca. A boa carne, macia e tenra, está relacionada a maior presença da gordura, o que ocorre na subespécie Bos taurus taurus, de origem europeia. A comparação entre a carne das raças angus, a raça europeia mais criada no Brasil, principalmente no sul do país, e nelore é uma das formas para entender o que as faz diferente, além da presença de mais gordura na europeia. Esse foi o objetivo do estudo de doutorado do veterinário Rafael Torres de Souza Ro-
drigues na Universidade Federal de Lavras, em Minas Gerais. “Queremos saber por que a carne do gado europeu é mais macia e tem mais gordura intramuscular do que a do zebuíno.” O pesquisador, agora pós-doutorando na Universidade do Vale do São Francisco (Univasf ), em Petrolina (PE), fez a comparação entre os proteomas [conjuntos de proteínas] dos músculos dessas duas raças logo após o abate. “Como as proteínas constituem a maior parte do tecido muscular e a atividade delas é responsável pelo amaciamento da carne após o abate, a diferença na abundância de proteínas específicas entre as duas raças pode explicar por pESQUISA FAPESP 254 z 71
Chip de DNA
Estudos de biologia molecular que envolvem genômica e proteômica em bovinos são realizados em vários países, como Estados Unidos, França, Itália e Austrália. Um marco dos estudos genéticos sobre bovinos foi a conclusão do sequenciamento do genoma completo do boi, em 2009, que envolveu pesquisadores de 25 países, incluindo o Brasil, e o posterior desenvolvimento de metodologias para análise e compreensão de seu funcionamento. Uma das tecnologias que surgiram é a que usa marcadores mole72 z abril DE 2017
1
O chip de DNA bovino é uma lâmina com sensores para uso na determinação de parentesco em um grupo de animais e na identificação de defeitos genéticos
culares, os chamados polimorfismos de nucleotídeo único (SNPs, em inglês). São variações na sequência de DNA que permitem diferenciar os indivíduos de uma espécie – ou raça, no caso – e podem estar associados a determinadas características, como maciez, por exemplo. O primeiro chip nacional de SNPs para bovinos foi idealizado pelo grupo do veterinário José Fernando Garcia, professor da Faculdade de Medicina Veterinária da Universidade Estadual Paulista (Unesp), campus de Araçatuba. “Trata-se de um teste que congrega as condições necessárias para determinar com certeza, e de forma que possa ser repetido, uma grande quantidade de marcadores específicos de DNA associados com informações que desejamos averiguar num animal”, explica. De acordo com ele, como os primeiros SNP chips desenvolvidos no mundo foram feitos com base nos genomas de animais de raças taurinas, havia alguma dificuldade no uso deles para os trabalhos de melhoramento nas raças zebuínas, comuns no Brasil. Em parceria com empresas de melhoramento genético e análises genômi-
cas, como a Illumina, norte-americana, que detém tecnologia para esse tipo de chip, Garcia desenvolveu, com apoio da FAPESP, um SNP chip contendo 30 mil marcadores para aplicações em raças zebuínas, que está no mercado há alguns anos. Os chips são analisados pela empresa Deoxi Biotecnologia, de Araçatuba, que foi adquirida no ano passado pela Neogen, dos Estados Unidos. Nesses dispositivos, uma gota de sangue, pelo, ou amostra de carne de um bovino é suficiente para gerar a quantidade de DNA necessária para ser colocada sobre o chip – uma lâmina com sensores nanotecnológicos –, que é submetido a processo laboratorial. O preço de cada teste varia de R$ 100 a R$ 180, dependendo do número de SNPs. “Essa tecnologia pode também ser usada para a determinação da relação de parentesco em grupos de animais”, afirma Garcia. Ela também pode ser empregada para seleção genômica, controle da endogamia, detecção de defeitos genéticos e certificação de produtos. O teste pode ainda ser usado em projetos de pesquisa para a descoberta de genes candidatos a explicar fenótipos de interesse, como maciez da carne, produção de leite, resistência a doenças, entre outros. O maior conhecimento sobre o DNA e os SNPs tem levado ao desenvolvimento da chamada “edição genômica”, realizada com técnicas biotecnológicas que incluem uma ferramenta relativamente nova, o Conjunto de Repetições Palindrômicas Regularmente Espaçadas (Crispr-Cas9), que permite a introdução de mutações dirigidas no genoma de um ser vivo. “Com essa técnica, se um touro com características de produção excepcionais fosse identificado como portador de uma doença hereditária, seria possível produzir um clone desse animal sem o problema, com a correção da sequência do gene ligada à enfermidade”, explica Luciana, da Embrapa. As técnicas de edição genômica também tornam possível que mutações benéficas no gene de um indivíduo sejam induzidas no DNA de outro. Um exemplo dessa aplicação vem dos Estados Unidos, onde foram produzidos dois bezerros mochos (sem chifres) da raça holandesa pela indução de mutação no gene que controla o desenvolvimento de chifres. O grupo de Luciana descreveu também diferenças no perfil genético em
fotos 1 eduardo cesar 2 Fagner Almeida / associação brasileira de angus
que a de uma é mais macia que a da outra”, explica Rodrigues. Ele encontrou evidências de que a diferença de maciez da carne está relacionada aos mesmos mecanismos que regem a apoptose – a morte celular programada. Esse mecanismo é desencadeado pelo estresse celular causado por fatores como falta de oxigênio e glicose e queda do pH, que ocorrem após a morte do animal. “Nos últimos anos, esse processo bioquímico tem sido considerado o responsável por coordenar o amaciamento da carne após o abate”, diz. Atualmente, a diferença na maciez da carne entre zebuínos e taurinos é atribuída, principalmente, ao fato de zebuínos terem maior atividade de uma proteína chamada de calpastatina. “Essa proteína é inibidora da atividade das calpaínas, que são as principais enzimas responsáveis pelo amaciamento da carne após o abate.” Em seu trabalho, Rodrigues estabeleceu uma relação entre esses dois mecanismos: sua hipótese é que a maior atividade dessa proteína em zebuínos ocorre pelo fato de as células musculares desses animais serem mais resistentes à apoptose. “O mais interessante é que as principais enzimas que realizam a apoptose, as caspases, têm sido relacionadas com a degradação da calpastatina.” Se a hipótese for comprovada, diz Rodrigues, será possível pensar no desenvolvimento de técnicas e procedimentos que estimulem na raça nelore o processo de apoptose no músculo logo após o abate, diminuindo o efeito negativo da calpastatina sobre a qualidade da carne de zebuínos. “Isso poderia ser feito com a seleção de animais com maior expressão de genes que codifiquem proteínas e estimulem a apoptose ou com tratamento que acelere esse processo biológico.”
animais com melhor e pior desempenho para 10 características de produção, apontando genes e vias metabólicas que têm potencial para controlar as diferenças entre os indivíduos, além das variações de número de cópias de regiões do genoma (CNV) que afetam a maciez da carne. Em projeto anterior, 800 novilhos foram acompanhados da concepção até o abate (ver Pesquisa FAPESP n° 179), e seu DNA analisado para mais de 700 mil marcadores do tipo SNP, resultando na identificação de regiões do genoma que influenciam na manifestação desses 10 atributos. Para o estudo mais recente, a pesquisadora utiliza um rebanho da própria Embrapa com 200 animais nelore extraídos do grupo anterior de novilhos. Todos passaram pelo sequenciamento completo dos genes e proteínas que estão “funcionando” no músculo no momento do abate. “Nossos estudos já identificaram vários genes que podem ser alvos para edição do genoma”, conta Luciana. A Embrapa Pecuária Sudeste realiza esses estudos em parceria com a Embrapa Informática, de Campinas, Universidade de São Paulo (USP), as universidades norte-americanas de Iowa e do Missouri, além do Commonwealth Scientific and Industrial Research Organisation (CSIRO), da Austrália. Luciana afirma que também é possível vislumbrar outras aplicações, como utilização de nutrientes ou fármacos que ativem ou inibam os processos genéticos. n
2
Bovino da raça angus, de origem europeia: análise dos genes e proteínas para descobrir por que a maciez da carne é maior em relação aos animais da raça nelore
Projetos 1. Bases moleculares da qualidade da carne em bovinos da raça nelore (nº 12/23638-8); Modalidade Projeto Temático; Pesquisadora responsável Luciana Correia de Almeida Regitano (Embrapa); Investimento R$ 2.688.295,06. 2. Estudos de associação genômica das características reprodutivas de touros zebuínos (Bos indicus) utilizando SNP chip de alta densidade (nº 10/52030-2); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável José Fernando Garcia (Unesp); Investimento R$ 338.482,64.
Artigos científicos Rodrigues, R. T. S, et al. Differences in beef quality between angus (Bos taurus taurus) and nellore (Bos taurus indicus) cattle through a proteomic and phosphoproteomic approach. PLoS ONE. v. 12, n. 1. jan. 2017. Silva, V. H., et.al. Genome-wide detection of CNVs and their association with meat tenderness in nelore cattle. PLoS ONE. v. 11, n. 6. jun. 2016. Tizioto, P. C. et.al. Gene expression differences in longissimus muscle of nelore steers genetically divergent for residual feed intake. Scientific Reports. Publicado on-line em 22 dez. 2016. Zhou, Y. et.al. Genome-wide CNV analysis reveals variants associated with growth traits in Bos indicus. BMC Genomics. v. 17, p. 419. jun. 2016.
pESQUISA FAPESP 254 z 73
pesquisa empresarial
Softwares em transformação A Dextra evoluiu acompanhando o mercado e hoje busca a internacionalização
Marcos de Oliveira
A
daptação rápida às novas tendências tecnológicas da computação e um trabalho cooperativo intenso são as principais características da Dextra, empresa de desenvolvimento de softwares sob medida para o mundo empresarial. Recentemente, a empresa se internacionalizou, abrindo uma filial nos Estados Unidos, onde oferece softwares de gerenciamento, de vendas pela internet e aplicativos para celulares. A própria história dessa empresa de Campinas (SP) mostra sua capacidade de adaptação. Criada em 1995, por um cientista e um engenheiro da com-
putação, ambos formados na Universidade Estadual de Campinas (Unicamp), a Dextra começou como uma consultoria em tecnologia da informação (TI) quando a internet ainda engatinhava. Nos últimos três anos cresceu a uma taxa de 10% ao ano e em 2015 atingiu o faturamento de R$ 20 milhões. “Conheci o Eduardo Coppo no laboratório do professor Rogério Drummond, no Instituto de Computação da Unicamp, quando fui trabalhar lá no desenvolvimento de softwares. Antes, eu havia trabalhado na empresa Digirede”, conta o cientista da computação Bill Coutinho, diretor de tecnologia da Dextra. “Coppo e eu montamos a empresa para trabalhar com redes computacionais, gerenciar estruturas de internet, que começavam a se expandir. Em 2000, decidimos mudar e partimos para a consultoria sobre o uso de
A empresa usa o sistema de trabalho Agile, que ajuda a desenvolver software mais rápido e com maior interação entre os profissionais
empresa Dextra
Local Campinas (SP)
Nº de funcionários 150
Principais produtos Softwares e aplicativos
fotos eduardo cesar
sob demanda
internet e websites.” Nessa época eles estavam instalados na incubadora de empresas da Companhia de Desenvolvimento do Polo de Alta Tecnologia de Campinas (Ciatec). Desde 2009, a Dextra está no Complexo Pólis de Tecnologia, ao lado de empresas tecnológicas como a Fundação CPqD, CI&T e Padtec. Antes, em 2002, já com o terceiro sócio, Luis Dosso, também formado em engenharia da computação na Unicamp, a empresa mudou o foco novamente. “Percebemos que havia um mercado promissor para desenvolvimento de software”, conta Coutinho. Eles começaram a trabalhar com programas opensource, ou código aberto. “Decidimos ser desenvolvedores de software sob medida, o que nos obriga a procurar antecipar qual será a próxima tendência. Fazemos software para seguradoras, bancos, empresas de serviços, indústrias, entre outros.” Um dos últimos sistemas desenvolvidos pela empresa foi um algoritmo para uma loja virtual da Globosat, que faz recomendações para o cliente baseadas no perfil do consumidor. O diferencial em relação a outros sistemas de lojas virtuais, segundo Everton Gago, um dos desenvolvedores do sistema, é o suporte que a Dextra fornece, por meio de sistemas computacionais, na orientação para a Globosat em como trabalhar com os resultados de perfis de usuários do site para oferecer outros produtos, por exemplo.
“Trabalhamos há oito anos para a Globosat e também desenvolvemos outros aplicativos, como um para crianças escolherem filmes do canal infantil Gloob”, conta Coutinho. Além de grandes empresas como Sul América, Nextel e Confidence Câmbio, hoje do grupo Travelex, a Dextra desenvolveu o sistema Livelo, formado por uma joint venture entre o Banco do Brasil e Bradesco, de contagem de pontos para troca por produtos conforme a compra em cartões de crédito. Metodologia ágil
Na linha do tempo da Dextra, a mudança seguinte ocorreu em 2007 com uma inovação na metodologia de trabalho. “Tradicionalmente, desenvolvimento de softwares é um processo fabril, quase uma linha de montagem com a fase de especificação, requisitos, modelagem e finalização. As equipes são separadas e a comunicação entre elas é por documentos. Pode até funcionar bem, mas a entrega do trabalho para o cliente é lenta. Desde 2007, adotamos o método Agile, criado nos Estados Unidos, em 2001, por um grupo de desenvolvedores independentes [a Agile Alliance], que prevê formas rápidas de produção de softwares e prevalece a interação entre os profissionais em todas as fases do desenvolvimento”, conta Coutinho. “Adaptamos esse método para a cultura brasileira.” Nele, é mostrado para o pESQUISA FAPESP 254 z 75
cliente, em até duas semanas, um esboço do programa ou aplicativo. A exemplo de outras empresas em que impera o ambiente descontraído, como no Google, a Dextra tem salas especiais, com almofadas e paredes coloridas ou que servem de lousa, ou ainda mesas altas, próximas ao café, onde reuniões podem ser feitas em pé, de forma rápida, e também com um painel para escrever. “É um ambiente no qual aprender faz parte do trabalho”, diz Coutinho. “Temos momentos conjuntos como o ‘café com código’, quando alguém que está estudando um assunto ligado à confecção de um software explica para outros profissionais da empresa como encontrou aquilo, como o usou e eventualmente a influência que pode ter no desenvolvimento de outros programas.”
Outro encontro é no chamado Dojo, palavra japonesa que indica o local de treino. Alguns desenvolvedores se espalham por uma das salas de reunião, onde um deles fica com um teclado em frente a um telão para aprender uma nova linguagem de computação. Cada um fica 10 minutos com o teclado. Com isso trocam-se experiências e o momento torna-se um modo de adaptar uma nova linguagem computacional ao estilo e à realidade da empresa. “Isso é importante porque estamos sempre nos atualizando.” Embora a Dextra tenha os sócios e muitos dos funcionários formados na Unicamp, a empresa não tem parceria na área de pesquisa com a universidade. “Temos parceria na área de empreendedorismo: sou conselheiro de
equipe de desenvolvimento Confira alguns profissionais da equipe da Dextra e conheça as instituições responsáveis por sua formação Bill Coutinho, diretor de tecnologia
Universidade Estadual de Campinas (Unicamp): graduação
Everton Gago, engenheiro de software sênior
Universidade Estadual de Campinas (Unicamp): graduação, mestrado e doutorado
Oliver Häger, desenvolvedor de produto
Universidade Ostfalia de Ciências Aplicadas (Alemanha): graduação e mestrado
Allan Rodrigues da Silva, desenvolvedor de produto
Universidade de São Paulo (USP): graduação Universidade Federal de São Carlos (UFSCar): mestrado
76 z abril DE 2017
startups da Inova [Agência de Inovação] da Unicamp e dou mentoria para novos empresários”, explica Coutinho. Everton Gago, desenvolvedor de software pleno da empresa, formado em ciência da computação, também tem ligação com a Unicamp. Ele faz o doutorado na Faculdade de Engenharia Elétrica e de Computação (Feec) da universidade. Gago entrou na Dextra no início de seu curso de pós-graduação em 2012. “Eu queria ter experiência em empresa e meu orientador concordou.” Gago trabalha com técnicas computacionais que facilitam o reconhecimento de padrões. “Um dos projetos que desenvolvemos para um cliente foi a previsão de preços de petróleo de acordo com o histórico desse produto”, explica. Com esse sistema, o cliente pode relacionar, por exemplo, o aumento do petróleo na Europa e a alta de um derivado, o butanol, no Brasil ou nos Estados Unidos. “Também fizemos, em 2014, um canal no site das faculdades Anhanguera, do grupo Kroton, para conectar alunos e seus currículos com as empresas parceiras.” Usando sistemas de inteligência artificial, o programa indica automaticamente os candidatos mais aptos à vaga, diferenciando, por exemplo, um programador sênior com inglês incompleto de um programador pleno com inglês fluente.
fotos eduardo cesar
O ambiente é descontraído, com vários lugares para reuniões e lousas espalhadas pela empresa
Gago (ao lado) trabalha com sistemas de inteligência artificial; Häger (à dir.) está sempre conectado em sites de software livre
desenvolvedores do mundo apresentam softwares com códigos abertos. “Fazemos pesquisa nesses sites e se algo tem valor trazemos para dentro da Dextra”, diz Häger. Atualmente ele trabalha no grupo que está produzindo um software para gerenciamento de pacientes em uma clínica de saúde nos Estados Unidos, cujo nome não pode ser revelado. atendimento remoto
“Vamos a eventos nos Estados Unidos a cada dois meses, onde conseguimos clientes e mostramos nosso trabalho”, explica Coutinho. Nos Estados Unidos, a empresa, desde 2015, chama-se Dexence e já é responsável por 10% do faturamento bruto da empresa. “Fazemos todo o trabalho em Campinas, inclusive reuniões virtuais, e o atendimento é remoto.” A Dextra faz um serviço semelhante ao que é comum na Índia em relação aos Estados Unidos, em que a prestação de serviço é quase sempre a distância. “Mas temos um diferencial, que é o fuso horário não ultrapassar quatro horas. Conseguimos tirar as dúvidas mais rápido. É uma vantagem competitiva importante”, explica Coutinho. Entre os clientes da empresa está a WaterBit, de irrigação de precisão, que opera com sensores espa-
O diretor de tecnologia Bill Coutinho: incentivo à internacionalização da Dextra
lhados pelo campo, que se comunicam por rádio e levam os dados para sistemas de computação em nuvem. “Desenvolvemos uma plataforma que coleta dados dos sensores, como umidade do ar, do solo, e informações meteorológicas, que são processados e interpretados para o cliente final, por exemplo, se é hora de irrigar ou não.” A internacionalização da empresa conta com o apoio da Associação para Promoção da Excelência do Software Brasileiro (Softex), ligada ao Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), que promove a indústria brasileira de software e a sua competitividade no exterior. “O mercado de desenvolvimento de softwares e serviços brasileiros no exterior é de R$ 2,1 bilhões, sendo 50% nos Estados Unidos, e o crescimento é de 10% ao ano nos últimos cinco anos”, diz Guilherme Amorim, diretor do Softex. “A Dextra é uma das mais ativas entre as 285 empresas que aderiram ao programa e está entre as 10 melhores. Ela tem flexibilidade e massa crítica para entregar um produto que o cliente norte-americano quer”, comenta. Com um quarto sócio desde 2010, o engenheiro da computação também formado na Unicamp José Fernando Guedes, a empresa cresce num ritmo de 10% ao ano em relação a faturamento. Mas no número de funcionários o aumento é maior, subiu de 115 em 2015 para 150 no final de 2016. Sobre o futuro, Bill Coutinho diz que a empresa quer investir em tecnologias para sistemas de inteligência artificial, além de Internet das Coisas, redes neurais e aprendizado de máquina. n pESQUISA FAPESP 254 z 77
Versão atualizada em 30/08/2017
As equipes da Dextra trabalham em um produto com normalmente oito pessoas entre desenvolvedores, analistas e um gerente de produto. “Todas as manhãs temos 15 minutos de reunião para sabermos o que foi feito no dia anterior e planejamos o que deve acontecer naquele dia. É uma forma de tentar antecipar riscos e problemas”, diz Gago. Reunião similar acontece toda semana durante uma hora com pessoas de vários grupos para saber o que os outros grupos estão fazendo e identificar dificuldades. O desenvolvedor Oliver Häger atua principalmente em uma face importante da empresa, que é o visual dos softwares. “Tenho que saber das tendências mais avançadas e pesquisar o que melhor se adapta ao negócio do cliente”, diz Häger, alemão formado em ciência da computação na Universidade Ostfalia de Ciências Aplicadas. Depois de um intercâmbio em computação gráfica na Universidade Vale do Rio dos Sinos (Unisinos), em São Leopoldo, no Rio Grande do Sul, e mestrado na mesma universidade alemã, voltou ao Brasil, mais precisamente para Valinhos (SP), onde sua mulher passou a dar aulas em uma escola alemã bilíngue. Ele está na Dextra desde 2013, permanentemente conectado aos sites em que
humanidades GEOGRAFIA URBANA y
A vida entre muros Condomínios fechados e shopping centers acentuam a separação socioespacial em cidades médias Texto
78 z abril DE 2017
Carlos Fioravanti
Fotos
Léo Ramos Chaves, de Presidente Prudente, SP
Conjunto do programa Minha Casa Minha Vida para moradores de faixa intermediária de renda próximo ao centro de Presidente Prudente
P
residente Prudente – município com 230 mil habitantes a 558 quilômetros da capital paulista – parece estar se desagregando, à medida que os grupos de moradores com ganhos econômicos mais altos e os com renda mais baixa se fecham em seus espaços. Outras cidades de porte médio de São Paulo – com 100 mil a 600 mil habitantes, que exercem um papel de polo regional, com influência sobre dezenas de municípios próximos – vivem o mesmo fenômeno, de acordo com estudos realizados nos últimos anos por uma equipe de pesquisadores da Universidade Estadual Paulista (Unesp). Quem sai do centro de Prudente rumo ao norte observa terrenos ocupados por propriedades rurais, como se a cidade estivesse terminando. Mas não. Mais adiante emergem dezenas de fileiras de casas geminadas. É um dos conjuntos habitacionais para moradores de baixa renda do programa Minha Casa Minha Vida, com 2.600 casas e cerca de 8 mil pessoas,
inaugurado em 2015. Lançado em 2009, o Minha Casa, como é conhecido, tornou-se o maior programa habitacional do país dos últimos 30 anos, com quase R$ 300 bilhões investidos e 10,5 milhões de pessoas beneficiadas até outubro de 2016. Vistas de perto, as casas exibem diferenças: programas complementares de crédito para a compra de materiais de construção permitem a construção de muros altos e portões que as fecham inteiramente, enquanto outras permanecem abertas. Anúncios de mercados, bares e salões de beleza ocupam as fachadas das casas, mesmo sem permissão legal para abrigarem atividades comerciais. Na paisagem sem árvores destaca-se a torre amarela da escola, cercada por muros e cerca elétrica. Ao sul, a 9 quilômetros dali, estendem-se os condomínios de luxo, cercados por muros com 4 metros de altura encimados pelos fios das cercas elétricas. “Nas entrevistas que fizemos, os moradores diziam que a maior preocupação era a segurança, mas reconheceram que buscam a distinção social por meio do
pESQUISA FAPESP 254 z 79
Cidades cindidas Áreas de moradia de centros urbanos de porte médio expõem a divisão entre a população de baixa renda e a de alta RENDA
n Famílias com renda de 1/2
EMPREENDIMENTOS Minha Casa Minha Vida – faixa 1 Minha Casa Minha Vida – faixa 2 Condomínio fechado Hipermercados e supermercados Shopping centers
Área central
COMÉRCIO E SERVIÇOS Alta concentração Média concentração Parque do povo Fontes IBGE, Unesp
São Paulo Presidente Prudente População total (2010): 207.610 SP
Criação do município: 1921 PIB per capita (2014): R$ 31.183 Preço do metro quadrado (m2) da terra urbana (2010): de R$ 15 a R$ 793
PR
S. J. do Rio Preto
Região de influência: 57 municípios
População total (2010): 408.258
Londrina
Criação do município: 1894
População total (2010): 506.701 Criação do município: 1934 PIB per capita (2014): de R$ 29.135 m2 da terra urbana (2010): de R$ 40 a R$ 1.055 Região de influência: 89 municípios
PIB per capita (2014): R$ 36.048 m2 da terra urbana (2010): de R$ 95 a R$ 749 Região de influência: 146 municípios
Marília População total (2010): 216.745 Criação do município: 1926
Ribeirão Preto
PIB per capita (2014): R$ 30.572
População total (2010): 604.682
m2 da terra urbana (2010): de R$ 52 a R$ 2.130 Região de influência: 43 municípios
Criação do município: 1889
São Carlos
PIB per capita (2014): R$ 42.682
População total (2010): 221.950 Criação do município: 1880 PIB per capita (2014): R$ 40.994 m2 da terra urbana (2010): de R$ 126 a R$ 843 Região de influência: 7 municípios 80 z abril DE 2017
m2 da terra urbana (2010): R$ 111 a R$ 851 Região de influência: 71 municípios
lugar onde moram, comenta o geógrafo Arthur Whitacker, professor da Faculdade de Ciências e Tecnologia (FCT) da Unesp em Presidente Prudente. Não se veem casas nem pessoas nas ruas, apenas os longos muros. Muros altos com arames farpados fecham também os blocos de prédios dos moradores da categoria intermediária de renda do programa Minha Casa Minha Vida, mais próximos ao centro da cidade. Os condomínios contribuem para o alargamento da área urbana. Em um artigo publicado neste ano na revista Mercator, da Universidade Federal do Ceará (UFC), o geógrafo francês Hervé Théry, professor visitante da Universidade de São Paulo (USP), observou que o Minha Casa induziu a formação de bairros que se tornaram os maiores em cidades como Ponta Porã (MS) e Sobral (CE). “Os condomínios fechados de faixas de renda distintas estão se configurando como se fossem várias cidades em uma só, já que seus moradores raramente se encontram”, sintetiza a geógrafa Maria Encarnação Sposito, professora da Unesp, coordenadora de uma equipe multidisciplinar que tem pesquisado as transformações das cidades médias. Ela explica que a separação socioespacial – examinada pelo geógrafo Milton Santos (1926-2001) na década de 1980, com base em seus estudos sobre metrópoles – agora se intensifica,
infográfico ana paula campos mapa vitor camacho
Área urbana de Presidente Prudente
a 3 salários mínimos n Famílias com renda acima de 20 salários mínimos
Escola (torre amarela) e vista geral de casas da população de baixa renda, ao norte de Presidente Prudente
em decorrência da escassez de espaços de convivência entre as diferentes classes sociais, como as ruas dos centros das cidades, hoje ocupadas predominantemente pelas pessoas de menor renda. Para mostrar o alcance desse fenômeno, Maria Encarnação abre os mapas das seis cidades estudadas por seu grupo desde 2012: Presidente Prudente, Ribeirão Preto, São José do Rio Preto, Marília e São Carlos, em São Paulo, e Londrina, no Paraná, examinadas por causa de sua proximidade histórica e econômica, já que as seis resultaram da cafeicultura, principalmente no início do século XX. Os mapas elaborados com base no Censo de 2010 e em levantamentos de campo evidenciam a concentração dos condomínios populares e as áreas mais densamente povoadas ao norte e as áreas mais ricas ao sul em cinco cidades: Prudente, Ribeirão Preto, Rio Preto, Marília e Londrina. Em São Carlos ocorre o inverso, os ricos estão ao norte e os pobres ao sul, e a divisão não é tão clara, “mas já se desenha uma setorização, com a construção de novos condomínios de luxo”, diz a geógrafa. Reforçando essa conclusão, três arquitetos – Bárbara Siqueira, professora da Universidade do
Extremo Sul Catarinense, Sandra Silva e Ricardo Silva, professores da Universidade Federal de São Carlos (UFSCar) – examinaram a ocupação urbana em São Carlos e São José do Rio Preto de 1970 a 2010 e concluíram que os condomínios fechados reforçam “os processos de fragmentação social e espacial das bordas urbanas, seja pela produção de grandes espaços murados, seja pelo espraiamento horizontal e descontínuo das cidades”, de acordo com um artigo de 2016 publicado na Revista Políticas Públicas & Cidades. Insegurança urbana
Os estudos do grupo da Unesp indicaram uma forte atuação das empresas imobiliárias na definição das áreas a serem ocupadas pelos novos loteamentos. Os moradores, por sua vez, sentem-se protegidos da violência urbana nos condomínios fechados e felizes por terem a possibilidade de comprar a casa própria. “Os moradores de todos os grupos sociais que entrevistamos relataram uma sensação de insegurança difusa, como se a violência urbana estivesse por toda parte e não em áreas ou momentos específicos”, diz a historiadora Eda Góes, professora da Unesp que coordenou as
Residências com muros e portões (à esq.) e comércio (à dir.): preocupação com a segurança é comum a todas as classes
pESQUISA FAPESP 254 z 81
entrevistas. “E a ideia de insegurança urbana sustenta o ideal de morar em condomínios fechados.” Segundo ela, a crescente separação socioespacial representa “uma negação da cidade como espaço comum coletivo, a essência do urbano”. Maria Encarnação, Eda e os outros pesquisadores do grupo identificam as prováveis consequências da segregação socioespacial: a valorização dos espaços privados e a desvalorização dos espaços públicos, como o centro da cidade e as praças; o esvaziamento das ruas, que se tornam espaços de circulação e não de encontros; o crescimento de estereótipos sociais sobre os grupos mais ricos e os mais pobres; e o fortalecimento de novos mecanismos de produção do espaço urbano. Antes, lembra a coordenadora da equipe, a formação de uma área comercial ou residencial era o resultado da iniciativa conjunta de pequenos empresários, do poder público e dos moradores. “Hoje quem produz o espaço urbano e rege a expansão das cidades são essencialmente as empresas imobiliárias, que, com o aval do poder público, definem onde construir os condomínios e os shoppings centers, que rapidamente estabelecem novos centros comerciais”, afirma Maria Encarnação. O economista Everaldo Melazzo, professor da Unesp que analisou a atuação das empresas imobiliárias, acrescenta: “As imobiliárias escolhem as áreas a serem ocupadas e o público que as ocupará de acordo com os preços dos terrenos”. Melazzo alerta sobre os limites desse mecanismo de expansão e ocupação das cidades, que não é mais questionado: “Somente o capital privado não consegue organizar e dar vida social para as cidades. Políticas públicas são fundamentais para organizar e qualificar a produção do espaço urbano”. Identificação ou desconforto
Em expansão no Brasil a partir da década de 1960, os shopping centers reforçam a separação social ao criar espaços privados de lazer e consumo 82 z abril DE 2017
voltados a públicos específicos. Em um artigo publicado na revista portuguesa Finisterra, Eda Góes argumentou que os shoppings deixam os visitantes mais ou menos à vontade, desse modo, selecionando-os, por meio de propagandas que podem gerar identificação ou desconforto, da quantidade e da prontidão dos vigias e das câmeras de segurança. Eda encontrou 50 câmeras no Prudenshopping e 16 no Parque Shopping, criado em 1989, próximo ao centro da cidade para atingir um público de menor poder aquisitivo. Segundo ela, o sistema de vigilância expressa uma prática de controle social que é até mesmo desejada pelos frequentadores, destacando “uma suposta eficiência do mercado para dar resposta a problemas que o Estado não se tem mostrado capaz, como é o caso da insegurança”. De modo geral, os shopping centers transformaram rapidamente o centro das cidades, ao atrair as lojas interessadas em públicos mais en-
Vista externa de um dos condomínios de luxo (acima) e casas de famílias de alta renda (abaixo), ambos ao sul de Presidente Prudente
Moradores e clientes de comércio varejista ocupam o calçadão do centro da cidade: alternativa aos shopping centers
dinheirados, ou induzir a adequação dos estabelecimentos de rua a uma clientela de menor poder de compra. “O comércio varejista procura seus próprios nichos de mercado”, conta o geógrafo e professor da Unesp Eliseu Sposito, que estudou as consequências da chegada de grandes redes de lojas de eletrodomésticos nas cidades médias. Ele observou também as mudanças no comércio varejista de Chapecó, em Santa Catarina, uma das 18 cidades estudadas pelos 43 pesquisadores da Rede de Cidades Médias (ReCiMe), formada por 17 universidades do Brasil, duas do Chile e uma da Argentina. Os trabalhos do Grupo de Pesquisa Produção do Espaço e Redefinições Regionais (GAsPERR) da Unesp e de outros da ReCiMe ajudam a entender os processos e ritmos de transformação próprios das cidades médias. Formado por 18 pesquisadores e mais de 50 estudantes, o grupo da Unesp que estuda as cidades médias entrevistou, entre 2012 e 2016, moradores dos seis municípios para entender as mudanças nos hábitos de consumo e o impacto da chegada das grandes redes de varejo, que criam novos centros comerciais. Em consequência da ação de novas empresas varejistas, “os centros das cidades médias perdem prestígio social e estão cada vez mais populares, mas não morreram”, diz Whitacker. Com várias lojas tocando músicas ao mesmo tempo, as ruas centrais permitem
uma expressividade e uma espontaneidade raramente consentidas em shoppings. “As passeatas e os protestos da população ocorrem aqui”, diz Melazzo, caminhando rumo ao camelódromo, autodenominado shopping popular. Às seis da tarde, porém, as lojas fecham e as ruas silenciam. Os cinemas de rua, entre eles o Cine Presidente, acabaram na década de 1990. “O centro da cidade é apenas o centro comercial, não mais o centro da vida social dos moradores”, conclui o geógrafo Nécio Turra Neto, professor da Unesp que estudou as transformações do lazer noturno na cidade, constituído pelos bares, boates e danceterias, hoje concentrados nas avenidas próximas ao Prudenshopping. n
Projeto Lógicas econômicas e práticas espaciais contemporâneas: Cidades médias e consumo (nº 11/20155-3); Modalidade Projeto Temático; Pesquisadora responsável Maria Encarnação Beltrão Sposito (Unesp); Investimento R$ 3.646.985,87.
Artigos científicos GÓES, E. Shopping center: Consumo, simulação e controle social. Finisterra. v. 51, n. 102, p. 65-80. 2016. SIQUEIRA, B. V. et al. Novas configurações em periferias de cidades médias paulistas: A proliferação dos empreendimentos habitacionais com controle de acesso. Revista Políticas Públicas & Cidades. v. 4, n. 1, p. 69-92. 2016. THÉRY, H. Novas paisagens urbanas do programa Minha Casa Minha Vida. Mercator. v. 16, e16002, p. 1-14. 2017.
pESQUISA FAPESP 254 z 83
ARTES VISUAIS y
A onipresença da imagem Estudos mostram como a fotografia moldou a forma de ver o mundo Maurício Puls
Propaganda massiva: o fotógrafo à semelhança do caçador, de 1900 (acima), slogan da Kodak, de 1920 (no alto), e o incentivo ao turismo, de 1958 (à dir.)
fotos Livro: Picture Ahead - A Kodak e a construção do turista-fotógrafo
A publicidade incitava todos a rodar o mundo carregando uma câmera, como nesses anúncios de 1919 (acima) e de 1960 (à esq.)
P
resentes nos documentos pessoais, nas publicações impressas e nas redes sociais, as fotos se tornaram imprescindíveis ao funcionamento da sociedade moderna. No livro Picture ahead – A Kodak e a construção do turista-fotógrafo, a fotógrafa e professora de artes visuais Lívia Aquino, coordenadora da Pós-graduação em Fotografia da Fundação Armando Álvares Penteado (FAAP), de São Paulo, mostra que essa onipresença da imagem emergiu após um longo processo de popularização das câmeras, no qual a Kodak, fabricante norte-americana de máquinas fotográficas, desempenhou um papel decisivo.
Inventada na primeira metade do século XIX, a fotografia revolucionou a memória coletiva: graças às máquinas, surgiu a possibilidade de criar um suporte objetivo para as recordações. Os fotógrafos de estúdio se multiplicaram e começaram a abastecer as residências das famílias prósperas com retratos em poses solenes. “A fotografia aos poucos se inseriu na vida cotidiana, construindo narrativas visuais, como os álbuns de família”, observa a historiadora Solange Ferraz de Lima, diretora do Museu Paulista da Universidade de São Paulo (MP-USP). “Ao registrar os ritos familiares (batizados, casamentos e formaturas) e os momen-
tos de ruptura (nascimentos, funerais e separações), tais narrativas reforçavam as identidades pessoais e os laços comunitários e davam aos indivíduos a consciência das mudanças trazidas pelo tempo.” A difusão da fotografia entrou em nova fase a partir de 1888, quando o norte-americano George Eastman lançou um aparelho mais barato e de fácil manuseio: a câmera Kodak. Com ela, as pessoas podiam produzir suas próprias imagens sem recorrer a profissionais. Nessa mesma época, as viagens turísticas – anteriormente um privilégio de poucos – estavam se tornando acessíveis às demais classes sociais devido ao surgimento de novos meios de transporte (navios a vapESQUISA FAPESP 254 z 85
1
Foto de Guilherme Gaensly da avenida Paulista (1902) mostra uma cidade racionalmente arranjada
por, trens, automóveis) e da concessão de férias remuneradas aos assalariados. O fundador da Kodak percebeu que existia aí um grande mercado para as câmeras portáteis e investiu pesadamente em campanhas publicitárias para convencer o público de que férias não fotografadas eram férias desperdiçadas. Graças à fotografia, cada família podia agora ostentar seu status de turista. Lívia Aquino mostra como a fotografia e o turismo se entrelaçaram como objetos de desejo. “A fotografia e o turismo nos disciplinaram”, opina a pesquisadora, cujo livro é resultado de sua tese de doutorado realizado na Unicamp. Para ela, planejar a viagem, fotografá-la à exaustão, levar as fotos ao laboratório, montar os álbuns ou os slides, reunir parentes e amigos para exibir as imagens eram práticas que compunham um ritual familiar. “São normas que não soam como normas”, diz, “porque as pessoas as aceitam de forma voluntária, movidas por seus anseios de reconhecimento social”. Converter-se num fotógrafo amador trazia benefícios para a autoimagem. Os anúncios da Kodak apresentavam o fotógrafo como um homem destemido, 86 z abril DE 2017
um “caçador” de imagens. “George Eastman era um caçador de animais selvagens, tinha muitos troféus. Dizia que a fotografia substituía a caça. Isso está na base da fotografia amadora. Seu primeiro slogan foi: ‘Você aperta o gatilho, e a gente faz o resto’.” As campanhas da Kodak dividiam o mundo entre as pessoas que viam e as que apenas eram vistas, como dizia o slogan “Metade do mundo agora sabe como vive a outra metade”. Ter uma câmera era um sinal de distinção social. A identificação do fotógrafo como um caçador teve impacto no imaginário popular e esse profissional se converteu no protagonista de numerosas obras de ficção. Algumas delas foram estudadas por Gabriela Coppola em sua tese “Através do fotógrafo: Intercorrências do ser, agir e olhar em narrativas de personagens fotógrafos”, defendida em 2015 na Unicamp. À Pesquisa FAPESP, Gabriela disse que a fascinação suscitada pelo fotógrafo provém de seu poder de conservar “o tempo e a memória das pessoas e dos fatos”. Há também o outro lado: ele pode retratar uma pessoa da maneira como ela mais deseja, embora seja capaz igualmente de arruinar a sua imagem.
Nas narrativas sobre os fotógrafos, os personagens (como os protagonistas dos filmes Blow up, de Michelangelo Antonioni, Palermo shooting, de Wim Wenders, e O homem aranha, de Sam Raimi), são ocidentais de pele clara, talvez porque “a própria história da fotografia é composta em sua maioria por homens com essas características”, afirma Gabriela. No Brasil o quadro é o mesmo: das 11 telenovelas da Rede Globo listadas, esses papéis eram desempenhados, na sua grande maioria, por homens brancos. Fotos em museus
No Brasil da Primeira República (18891930), as câmeras ainda eram aparelhos relativamente caros, conta a historiadora Zita Possamai, professora da Universidade Federal do Rio Grande do Sul (UFRGS). Autora da tese de doutorado “Cidade fotografada: Memória e esquecimento nos álbuns fotográficos de Porto Alegre, décadas de 1920 e 1930”, defendida na UFRGS em 2005, ela assinala que “a câmera fotográfica era um objeto de valor entre os pertences dos lares e, certamente, estava restrita às camadas mais abastadas da população”.
fotos 1 acervo bndigital 2 Unsplash.com
2
lizar exposições de fotos em 1932 e criou um departamento de fotografia em 1940. Segundo Helouise, na década de 1960 a fotografia foi incorporada pela O presente arte contemporânea, seja nos saturado de desdobramentos da pop art, que fez da reprodutibilidade imagens digitais a base da sua poética, seja nas diferentes práticas da arte conestá assentado ceitual, que colocaram em xeem práticas que a autonomia da obra de arte. “No Brasil, o reconhecimenanteriores, to da fotografia pelo circuito artístico começa com o surgilembra mento dos museus modernos no final da década de 1940 e a historiadora criação da Bienal de São Paulo no início dos anos 1950.” Com a internet e os telefoCâmera do telefone celular: lazer compartilhado nas redes nes celulares, os retratos das horas de lazer e as coleções de Essa ostentação se tornou mais sutil à fotográficos são articulados por sobre- slides ganharam o mundo. “É impormedida que as câmeras fotográficas fo- posições, e efeitos de contraste de luzes tante entender”, diz Solange, “que esse ram se massificando. “No século XIX as e escalas evidenciam as características presente saturado de imagens digitais poses rígidas e com lugares bem deter- da arquitetura moderna dos edifícios da compartilhadas nas redes sociais tem minados não eram resultado só de condi- região central de São Paulo”, analisam uma história, está assentado em práticas ções técnicas, mas pretendiam explicitar Solange e Vania no livro. Em resumo: “A anteriores”. A Kodak desapareceu, mas claramente os lugares sociais ocupados verticalização, os transeuntes urbanos o dispositivo que engendrou práticas por cada personagem. Posteriormente, em movimento e a cidade em permanen- sociais ligadas à fotografia sobreviveu. as fotos ‘espontâneas’ que entraram em te construção são temas por excelência “O dispositivo sobreviveu, passou para voga no século XX tendiam a dissimular dos álbuns dos anos 1950, que dialoga- outros meios”, ressalta Lívia. “Quando esses sinais de distinção, sem, contudo, vam com o repertório formal da fotogra- abrimos nossa timeline no Facebook, ela eliminá-los”, explica Solange. Os retra- fia moderna em contraste com a cidade lembra o que temos de recordar como tos perderam a aura solene, inspirada racionalmente arranjada que os álbuns uma projeção de slides.” n nos quadros dos pintores acadêmicos da década de 1910 dão a conhecer”. do século XIX, e adquiriram uma entoO novo olhar trazido pela fotografia, nação mais natural. contudo, demorou a ser absorvido pelas Projeto A democratização da imagem não afe- instituições ligadas à arte. “A fotografia O imaginário do turista: Relações entre fotografia e memória (nº 10/07961-8); Modalidade Bolsa de Doutorado; tou somente os retratos: o mundo passou entrou nos museus de arte já em meados Pesquisadora responsável Iara Lis Franco Schiavinatto a ser visto de modo menos simétrico e um do século XIX, mas unicamente como (Unicamp); Beneficiária Lívia Afonso de Aquino; Investanto caótico. No livro Fotografia e cidade uma ferramenta de reprodução e difusão timento R$ 127.003,87. (Mercado das Letras, 1997), Solange e a das obras de arte”, esclarece a historiaArtigos científicos também historiadora do MP-USP Vania dora de arte Helouise Costa, do Museu COSTA, H. e LIMA, S. F. Da fotografia como arte à arte Carneiro de Carvalho analisaram os ál- de Arte Contemporânea da USP. como fotografia: A experiência do Museu de Arte Conbuns de fotografias em dois momentos: temporânea da USP na década de 1970. Anais do Museu No fim do século XIX, os fotógrafos Paulista. v. 16, n. 2. jul/dez. 2008. nas duas primeiras décadas do século XX apontavam as qualidades do novo meio, POSSAMAI, Z. R. Narrativas fotográficas sobre a cidade. e nas comemorações do IV Centenário. mas não conseguiam sensibilizar as insRevista Brasileira de História. v. 27, n. 53. jan/jun. 2007. Solange diz que, na Primeira República, tituições, que viam no caráter mecânico CARVALHO, V. C. at al. Fotografia no museu: O projeto de curadoria da coleção Militão Augusto de Azevedo. as clássicas fotos do suíço Guilherme das fotos e na sua reprodutibilidade atriAnais do Museu Paulista. On-line. 1997. Gaensly valorizavam “a ordenação retilí- butos incompatíveis com a arte. Isso lenea e a uniformidade dos lotes por meio vou os modernistas a tentar dar uma aura Livros de tomadas diagonais que promovem estética às fotos limitando sua tiragem AQUINO, L. Picture ahead: A Kodak e a construção do turista-fotógrafo. Autopublicado com o apoio do uma articulação dos planos fotográfi- e destacando “a ideia de originalidade e Prêmio Funarte Marc Ferrez de Fotografia, 2016, 264 cos por meio da contiguidade espacial”, autoria”, conta Helouise. p. Disponível também para ser baixado gratuitamente representada por árvores alinhadas, peem www.dobrasvisuais.com.br/2016/12/picture-aheadFoi preciso esperar décadas para que -versao-digital/ lo meio-fio ou pelos trilhos dos bondes. a fotografia entrasse nos museus. O LIMA, S. F. e CARVALHO, V. C. Fotografia e cidade: Da Já nas imagens da década de 1950, a ci- primeiro foi o Museu de Arte Moderna razão urbana à lógica do consumo. Álbuns de São Paulo dade surge mais fragmentada: “Os planos (MoMA) de Nova York: começou a rea(1887-1954). Campinas: Mercado das Letras, 1997, 272 p. pESQUISA FAPESP 254 z 87
LITERATURA y
Jornalismo e ficção em João Antônio
88 z abril DE 2017
Sua atuação na imprensa começou quase ao mesmo tempo. Desde meados dos anos 1960 foi repórter de publicações como o Jornal do Brasil e as revistas Claudia, Realidade e Manchete. Em Realidade, publicou em 1968 aquele que é considerado seu primeiro conto-reportagem: “Um dia no cais”, incluído no livro Malhação do Judas carioca (1975) com o título reduzido para Cais. O conceito de conto-reportagem, explica Bastoni, foi formulado pela equipe da revista para caracterizar os textos de João Antônio. Uma fase até aqui menos estudada de sua atuação na imprensa é aquela em que, além de manter o posto de cronista em O Globo, Jornal do Brasil e Tribuna da Imprensa, também atuou na imprensa alternativa em títulos como O Pasquim, Versus e Movimento. Bastoni usou como fontes o arquivo pessoal do escritor, hoje no Centro de Documentação e Apoio à Pesquisa da Faculdade de Ciências e Letras da Universidade Estadual Paulista (Unesp), campus de Assis, o Arquivo Ana Lagôa da UFSCar e publicações regionais de Campina Grande, Curitiba, Porto Alegre, entre outras cidades. A fase em que as fronteiras entre ficção e jornalismo ficam mais porosas coincide, para o escritor Bruno Zeni, com a maturidade literária da obra de João Antônio. Um dos aspectos que embasam essa ideia está presente no livro recém-lançado Sinuca de malandro – Ficção e autobiografia em João Antônio (Edusp), derivado da tese de doutorado apresentada em 2012 na Faculdade de
O contista jogando sinuca em bar, em 1975: ambiente semelhante aos que seus personagens frequentavam
agência estado
O
bscurecido nos últimos anos de sua vida, tanto por uma atitude de recolhimento quanto pelo interesse menor por seus livros nos meios culturais, o escritor paulistano João Antônio (1937-1996) vem sendo redescoberto em estudos acadêmicos. Alguns dos mais recentes se detêm na fase de quase ostracismo do autor, em que ele se dedicou mais ao trabalho na imprensa do que à ficção. Para a pesquisa de pós-doutorado “Corpo a corpo com o Brasil: Os dilemas da identidade nacional em João Antônio”, realizada no Centro de Educação e Ciências Humanas da Universidade Federal de São Carlos (UFScar), o pesquisador Júlio Cezar Bastoni da Silva fez um amplo levantamento da produção jornalística do escritor. Bastoni estudou com maior profundidade aspectos do projeto literário do autor pesquisados parcialmente antes, relativos à presença do trabalho jornalístico como elemento inspirador da ficção, não só no aspecto temático, mas também na busca de uma dicção que aproximasse sua escrita da fala dos personagens. Como literato, João Antônio Ferreira Filho, que teve uma infância pobre no bairro onde nasceu, Presidente Altino, em Osasco (então ainda não desmembrado da cidade de São Paulo), conheceu o sucesso aos 26 anos com o livro de estreia, a reunião de contos Malagueta, Perus e Bacanaço (1963), e manteve o prestígio com Leão de chácara (1975), situação que perdurou até meados dos anos 1980.
Projeto de retratar com autenticidade personagens das classes baixas se beneficiou da atividade do escritor na imprensa Márcio Ferrari
pESQUISA FAPESP 254 z 89
Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP). Zeni procurou a figura paterna em toda a produção do escritor, depois de perceber que “as relações dos protagonistas com seus pais são sempre problemáticas”. Além dos contos e crônicas do autor, Zeni também se debruçou sobre as cartas guardadas no acervo da Unesp e na pesquisa do escritor Rodrigo Lacerda “João Antônio: Uma biografia literária: Os anos de formação”, com a qual obteve o doutorado na FFLCH em 2004 e que inclui entrevistas com familiares do contista paulistano e alguns de seus interlocutores mais frequentes.
1
Z
eni considera que a figura do pai, quando aparece claramente nos contos, corresponde a protagonistas tão decididos quanto violentos. Quando os textos tematizam a ausência paterna, ao contrário, o tom é de melancolia e os personagens não sabem bem para onde ir – marca da fase tardia do escritor. Zeni interpreta essa mudança como a perda da necessidade de competir com o pai. “Foi muito bom para a literatura dele passar de uma chave ficcional para outra que não tem paralelo nem em sua própria obra nem na tradição da literatura brasileira.” Para o pesquisador, não se trata mais de conto-reportagem, porque “a informação jornalística desaparece, dando lugar a uma combinação de relato pessoal, reflexão, ensaio histórico, crônica de época e perfis de personagens desimportantes”. “O próprio João Antônio não se dava conta de ter criado uma forma nova que ainda precisa ser estudada em profundidade”, acrescenta. Levando em consideração a produção jornalística e retomando a leitura da ficção do contista, Bastoni detectou a presença, em toda sua obra, da busca de uma expressão autêntica – até mesmo de uma “substância” literária – que representasse a identidade brasileira. “De seu primeiro livro até Dama do encantado e Sete vezes rua, ambos do ano de sua morte, João Antônio pensou a identidade nacional ligada à representação das camadas populares brasileiras, que ele chamava de ‘povo’ ou ‘povão’”, afirma. O pesquisador identifica a existência de uma “integração entre a produção artística nacional e o interesse intelectual pelas classes subalternas como uma constante do romantismo à arte política 90 z abril DE 2017
Lima Barreto foi uma espécie de “pai literário” do contista paulistano
O escritor pensou a identidade nacional ligada à representação das camadas populares, afirma Bastoni
da década de 1960”. A obra do contista daria continuidade à procura por esse substrato literário, mas também significaria “um salto à frente na cultura nacional-popular da década de 1960”, representada por dramaturgos como Gianfrancesco Guarnieri (1934-2006) e Oduvaldo Vianna Filho (1936-1974), o poeta Ferreira Gullar (1930-2016) e o romancista Antonio Callado (1917-1997). Em boa parte da obra desses escritores encontram-se personagens poli-
ticamente conscientes e engajados em uma perspectiva revolucionária. Já a obra de João Antônio não compartilha o compromisso com a militância. No lugar de trabalhadores organizados, seus personagens são malandros, jogadores de sinuca, bicheiros, pequenos criminosos, mendigos, prostitutas, moleques de rua. João Antônio também não se inclui na abordagem do elemento popular que marcou a produção literária brasileira seguinte. “Ele é uma espécie de transição entre a cultura nacional-popular, própria dos tempos das políticas nacionalistas de Getúlio Vargas ou João Goulart, e a voga da violência urbana que veio a seguir”, diz o pesquisador, referindo-se à literatura de Rubem Fonseca. “Nas novas narrativas surge um Brasil do impasse, marcado pela não resolução do problema da desigualdade.” Para Bastoni, a obra do contista exemplifica uma das transformações da literatura brasileira em fins do século XX: o momento em que a identidade nacional deixa de ser tomada como prioridade. Apesar de a análise de Bastoni colocar a literatura de João Antônio numa posição aparentemente isolada, o próprio escritor evocava a companhia de escritores como Ignácio de Loyola Brandão e Antônio Torres, citados por ele no texto “Corpo-a-corpo com a vida”, ensaio que encerra o livro Malhação do Judas carioca e é uma espécie de manifesto que o pesquisador tomou como guia para recuperar o projeto do escritor. Segundo Bastoni, o texto “evidencia a contiguidade entre seus textos de teor jornalístico e literário”. Tanto assim que João Antônio menciona os nomes dos escritores norte-americanos Truman Capote e Norman Mailer, expoentes do “novo jornalismo”, escola que usava técnicas literárias de ficção na produção de reportagem. “O que o interessava nesses autores era a relação estreita entre realidade e literatura, embora os textos de João Antônio não se assemelhem, em temática ou estrutura, aos do novo jornalismo.” A proposta do ensaio, afirma Bastoni, é que a literatura seja uma experiência compartilhada entre autor e objeto. “Em miúdos”, escreve, “quer-se evitar o fosso entre intelectual e classes subalternas”. Trata-se, segundo ele, de uma proposta estética imbuída de uma ética – o objetivo de intervir na realidade pela via da denúncia.
2
João Antônio, em 1964: combinação entre jornalismo e literatura
fotos 1 domínio público 2 Folhapress
P
ara tanto, o escritor buscou uma forma brasileira para seus textos, que se traduz na estilização da fala dos personagens marginalizados. Bastoni compara esse aspecto do estilo de João Antônio à elaboração da dicção sertaneja efetuada por João Guimarães Rosa (19081967), algo já notado anteriormente por Antonio Candido. “Não se trata apenas de uso de gíria e jargões do submundo urbano, mas de uma estilização que cria uma sintaxe particular”, diz o pesquisador. Segundo ele, a “mútua fecundação entre jornalismo e literatura” se faz notar mais claramente na produção publicada em livro depois de 1975, ano do lançamento do ensaio-manifesto. A partir daí, prevalece uma hibridez de gêneros em que “o texto oscila entre descrição e narração e destes passa à digressão”. Entretanto, Abraçado ao meu rancor, livro de 1986, traz uma mudança profunda de visão de mundo. “O senso de fracasso
torna-se muito presente na obra do contista”, diz Bastoni. O fracasso da esperança numa emancipação do povo brasileiro após o fim da ditadura militar, de uma ideia unificadora da identidade brasileira e também do próprio projeto literário do escritor. João Antônio admite, então, não reconhecer mais a cidade de São Paulo de sua juventude, nem os personagens a quem sempre se dedicou. Queixa-se do aumento da “brutalidade da exploração capitalista do Brasil” e do surgimento de poderosas facções criminosas que em nada lembram o pequeno traficante que retratou em seus relatos ficcionais. Embora por outro viés – o da recriação das experiências de vida do escritor, incluindo a repercussão de seus escritos –, Rodrigo Lacerda vê a obra de João Antônio dividida em três momentos. No primeiro, em que a linguagem se apresenta mais seca e enxuta, a população urbana proletária constitui o seu uni-
verso temático. Numa segunda fase, ele recebe a influência do regionalismo à la Guimarães Rosa, que lhe dá a forma para recriar a linguagem de seus personagens, com dicção “mais abundante”, “criando uma musicalidade que não havia antes”. A última etapa seria marcada pela combinação entre jornalismo e literatura. Para Lacerda, o contista chegou a “uma equação literária que era também financeira” quando percebeu que não era possível viver de literatura. “Ele então preferiu fundir literatura e jornalismo, porque assim podia publicar em jornal textos escritos do jeito que queria.” À parte a presença de um pai consanguíneo nos escritos de João Antônio, há também a de uma espécie de pai literário, o escritor Lima Barreto (1881-1922), a quem ele dedicou todos os seus livros, exceto a primeira edição de Malagueta, Perus e Bacanaço. Para Bastoni, trata-se de uma relação de continuidade “não exatamente formal, mas ética e, em certo sentido, temática”. Segundo ele, “João Antônio via Lima Barreto como um pioneiro na representação do povo brasileiro dos subúrbios, pobre e marginal, além de também ter tido papel importante na imprensa da primeira metade do século XX”. João Antônio escreveu a biografia “parajornalística” (na expressão de Bastoni) Calvário e porres do pingente Afonso Henriques de Lima Barreto, que terá este ano, pela editora 34, sua primeira reedição desde que foi lançada, em 1977. Ainda neste ano, o homenageado da Festa Literária de Paraty (Flip) será Lima Barreto, o que deverá trazer reforços à redescoberta de João Antônio. n
Projetos 1. Corpo a corpo com o Brasil: Os dilemas da identidade nacional em João Antônio (nº 14/22950-3); Modalidade Bolsa de Pós-doutorado; Acordo Capes; Pesquisadora responsável Tânia Pellegrini (UFSCar); Beneficiário Júlio Cezar Bastoni da Silva; Investimento R$ 181.994,40. 2. João Antônio: Uma biografia literária: Os anos de formação (nº 02/08326-8); Modalidade Bolsa de Doutorado direto; Pesquisador responsável Joaquim Alves de Aguiar (USP); Bolsista Rodrigo Lacerda; Investimento R$ 43.413,26.
Artigos científicos SILVA, J. C. B. Estado da ralé: Da pobreza à miséria na obra de João Antônio. Literatura e Sociedade, v. 22, p. 78-88, 2016. SILVA, J. C. B. A imprensa alternativa e o projeto literário de João Antônio. Anais do VIII encontro do Cedap – Acervos de intelectuais: Desafios e perspectivas, p. 457-79, 2016.
Livro Zeni, B. Sinuca de malandro – Ficção e autobiografia em João Antônio. São Paulo: Edusp. 2017.
pESQUISA FAPESP 254 z 91
memória
Virgínia Bicudo (de chapéu) entre membros da Sociedade Brasileira de Psicanálise de São Paulo em 1944
A face feminina A da psicanálise Mulheres contribuíram para a disseminação das ideias de Freud no Brasil na primeira metade do século XX Rodrigo de Oliveira Andrade
92 | abril DE 2017
s mulheres tiveram participação de destaque na difusão da psicanálise no Brasil, tanto em relação à prática clínica quanto na investigação científica e divulgação das ideias de Sigmund Freud (1856-1939), médico austríaco criador desse método terapêutico. Entre os nomes que contribuíram para a consolidação do movimento psicanalítico brasileiro na primeira metade do século XX destacam-se os de Adelheid Koch, Marialzira Perestrello e Virgínia Bicudo, primeira mulher a se habilitar psicanalista no país. A participação de Virgínia, em especial, foi importante para a institucionalização e disseminação do pensamento psicanalítico ainda na década de 1930, sendo uma das responsáveis pela criação da Sociedade Brasileira de Psicanálise de São Paulo (SBPSP), principal centro de formação desses profissionais àquela época. Filha de uma imigrante italiana e de um funcionário público negro, Virgínia Bicudo (1910-2003) formou-se no magistério na Escola Normal Caetano de Campos, em São Paulo,
fotos reprodução divisão de documentação e histôria da psicanâlise da sbp-sp
em 1930. Em 1931 ingressou no curso de educadores sanitários da Escola de Higiene e Saúde Pública do Instituto de Higiene de São Paulo — atual Faculdade de Saúde Pública da Universidade de São Paulo (USP). Por ser negra, desde cedo Virgínia sofreu preconceito racial, o que lhe causou traumas durante a infância. “A necessidade de entender o conflito que sentia existir dentro de si a fez despertar para a sociologia e, mais tarde, para a psicanálise”, explica a psicanalista Maria Ângela Moretzsohn, da Divisão de Documentação e Pesquisa da História da Psicanálise da SBPSP. Virgínia ingressou no curso de sociologia na Escola Livre de Sociologia e Política de São Paulo (atual Fundação Escola de Sociologia e Política de São Paulo) em 1936, aos 26 anos. Em 1945, sob orientação do sociólogo norte-americano Donald Pierson, tornou-se mestre pela mesma instituição. Sua dissertação, intitulada Estudo de atitudes raciais de pretos e mulatos em São Paulo, foi uma das primeiras sobre a questão racial no Brasil, de acordo
Vírginia durante o IV Congresso Psicanalítico Latino-Americano, no Rio, em julho de 1962
Livro com base em casos discutidos no programa homônimo na Rádio Excelsior
com a antropóloga Janaína Damaceno Gomes, da Faculdade de Educação da Baixada Fluminense da Universidade do Estado do Rio de Janeiro (Uerj). O trabalho permaneceu inédito por 65 anos e foi publicado na íntegra apenas em 2010 por ocasião do centenário de nascimento da psicanalista. Virgínia entrou em contato com as ideias de Freud por meio de Noemi Silveira, então professora de psicologia social na Escola Livre de Sociologia. Foi Noemi quem lhe sugeriu que procurasse o médico Durval Marcondes e pedisse para participar de seu grupo de estudos sobre psicanálise. “Seu interesse pela psicanálise se deu a partir das limitações da sociologia para compreender as origens do racismo no Brasil”, explica Janaína. “Utilizando a psicanálise, Virgínia analisou a questão racial sob o prisma da infância para melhor compreender os mecanismos relacionados à formação de uma sociedade racista.” Marcondes havia sido apresentado à psicanálise em 1919, em aula inaugural
do médico Francisco Franco da Rocha (1864-1933) na cátedra de psiquiatria da Faculdade de Medicina de São Paulo (hoje uma das unidades da USP), dedicando-se desde então ao estudo da especialidade. Franco da Rocha é considerado um dos primeiros a introduzir o pensamento psicanalítico em São Paulo, muito embora não tenha praticado a psicanálise, conta o psicólogo Jorge Abrão, da Faculdade de Ciências e Letras da Universidade Estadual Paulista (Unesp), campus de Assis. À época em que conheceu Virgínia, Marcondes articulava-se para promover a formação de analistas em São Paulo. Para isso, precisava trazer ao país um psicanalista didata credenciado pela Associação Psicanalítica Internacional (IPA, em inglês), fundada por Freud. Com a ajuda da instituição, Marcondes trouxe a São Paulo a psicanalista alemã de origem judaica Adelheid Koch (1896-1980), que aceitou vir para o Brasil também por conta do sentimento antissemita que crescia na Alemanha. Em 1944 o grupo obteve reconhecimento da IPA, passando a se chamar Sociedade Brasileira de Psicanálise de São Paulo. Virgínia participou intensamente das atividades promovidas pela entidade, assumindo cargos de direção, tesouraria, supervisão, entre outros. “A psicanálise sempre foi um campo favorável às mulheres, oferecendo mais igualdade de condições de formação e trabalho em comparação a outras áreas”, diz Abrão. PESQUISA FAPESP 254 | 93
94 | abril DE 2017
Marialzira Perestrello em sua formatura no curso de medicina em 1939
Ao lado do marido, também psicanalista, Danilo Perestrello, em viagem a Paris, em 1952
que muitos embarcassem para São Paulo e Buenos Aires, Argentina, então um centro de excelência na formação psicanalítica na América Latina. Entre os que foram para a capital portenha para obter treinamento na Associação Psicanalítica Argentina estava Marialzira Perestrello, primeira mulher a se habilitar psicanalista no Rio. Marialzira Perestrello (1916-2015) formou-se pela Faculdade de Medicina da Universidade do Brasil — atual Universidade Federal do Rio de Janeiro (UFRJ) —, em 1939. Abrão atualmente trabalha no resgate da trajetória pessoal e profissional de Marialzira usando entrevistas que fez com a psicanalista entre 1997 e 2012. “Marialzira entrou em contato com a psicanálise por meio do pai, o jurista Francisco Cavalcanti Pontes de Miranda, que lhe deu de presente um livro de Freud chamado Três ensaios sobre a teoria da sexualidade”, ele conta. Em 1940 a família se mudou para Bogotá, Colômbia, por conta do pai, nomeado embaixador naquele país. Ela voltou ao
Brasil em 1941. Em 1946 embarcou para a Argentina com outros profissionais aspirantes a psicanalista. A formação de Marialzira na Argentina estendeu-se até 1948. Durante esse período, começou a fazer análise com Enrique Pichon Rivière (1907-1977), importante psicanalista suíço nacionalizado argentino. Em 1947 começou a trabalhar como assistente estrangeira no Serviço de Psiquiatria de la Edad Juvenil no Hospício de Las Mercedes, em Buenos Aires. “Marialzira passou a integrar oficialmente a Associação Psicanalítica Argentina como membro associado em 1952”, afirma o psicólogo. De volta ao Rio, em 1953, a psicanalista participou da fundação da Clínica de Orientação Infantil do Instituto de Psiquiatria da Universidade do Brasil, onde trabalhou até 1955. Paralelamente, iniciou suas atividades profissionais em clínica particular. Em 1957 Marialzira participou da fundação da Sociedade Brasileira de Psiquiatria do Rio de Janeiro, instituição da qual fez parte ao longo de toda a sua vida. A intelectual carioca morreu em 2015, aos 99 anos, deixando uma vasta obra sobre psicanálise e cultura e história da psicanálise. Entre seus principais trabalhos estão o artigo “Primeiros encontros com a psicanálise: Os precursores no Brasil (1899-1937)”, sobre a atuação dos que se valeram do autodidatismo para difundir a psicanálise no Brasil nas primeiras décadas do século XX, e o livro Encontros: Psicanálise &, em que trata da aproximação da psicanálise com a arte. n
fotos acervo pessoal
Extrovertida, Virgínia expressava-se com clareza, tornando-se uma divulgadora entusiasmada das ideias psicanalíticas. Um de seus trabalhos se deu no rádio, que à época vivia sua era de ouro no Brasil. Na Rádio Excelsior, Virgínia comandou o programa Nosso mundo mental. Em formato de radionovela, os episódios tratavam de temas do cotidiano das famílias, que eram apresentadas a conceitos como inconsciente, inveja, ciúme, culpa, amor e ódio. Os casos discutidos no programa foram transformados em livro homônimo, em 1955. Virgínia também foi uma das autoras do livro Relações raciais entre negros e brancos em São Paulo, organizado por Florestan Fernandes e Roger Bastide, publicado em 1955 como resultado de pesquisa financiada pela Unesco. Também no Rio de Janeiro circulavam alguns trabalhos com exposições conceituais ou reflexões teóricas sobre a obra de Freud desde o início dos anos 1920. No entanto, a dificuldade em conseguir trazer um psicanalista didata para o Rio fez com
carreiras
Financiamento
Mapa da mina
ilustrações suryara bernardi
Um projeto de pesquisa bem escrito tem boas chances de ser contemplado com os recursos necessários para seu desenvolvimento Para conseguir financiamento de uma agência de fomento à pesquisa, os pesquisadores antes precisam apresentar um projeto que é analisado por uma equipe de cientistas experientes. Propostas bem escritas, estruturadas e fundamentadas têm chances maiores de ser selecionadas e, entre essas, aquelas cujos proponentes demonstrem ser suficientemente qualificados para executar o que estão propondo. Estar atento aos detalhes ajuda o pesquisador a elaborar um projeto de pesquisa robusto, convincente e com possibilidades reais de conseguir os recursos necessários para seu desenvolvimento. Para ajudar os pesquisadores, existem hoje vários manuais com orientações sobre como escrever um projeto de pesquisa. É o caso da National Science Foundation (NSF), a principal agência de fomento à pesquisa dos Estados Unidos, e da Associação Americana para o Avanço da Ciência (AAAS).
No Brasil, além das orientações oferecidas no site das próprias agências de financiamento, pesquisadores do Instituto de Biociências da Universidade de São Paulo (IB-USP) e do Departamento de Bioquímica do Centro de Ciências Biológicas da Universidade Estadual de Maringá (UEM), no Paraná, publicaram um artigo na revista PLOS Computational Biology listando alguns aspectos que os pesquisadores podem levar em conta na hora de elaborar uma proposta de investigação. Ao começar a escrever o projeto, o pesquisador precisa ter em mente seu público-alvo: os revisores ad hoc, que normalmente são cientistas de prestígio em áreas específicas do conhecimento e com ampla experiência na revisão de artigos científicos e propostas de pesquisa. Esse sistema de análise de projetos, a chamada análise por pares, é adotado pelas principais agências de fomento no mundo. O número de PESQUISA FAPESP 254 | 95
revisores pode variar, dependendo das especificidades de cada projeto. Na FAPESP, as propostas de auxílio à pesquisa submetidas às linhas de financiamento com duração acima de dois anos ou mais costumam ser avaliadas, no mínimo, por três revisores ad hoc. Para poder ter uma boa noção da base científica de cada proposta e entender o que o pesquisador pretende fazer, esses revisores avaliam se a pergunta científica apresentada é relevante, se os objetivos são inovadores para a área e se a metodologia é adequada. Desse modo, um bom projeto precisa deixar claro o problema que pretende investigar, além de explicar por que tem relevância científica. Nos Estados Unidos, a NSF recomenda que o pesquisador apresente uma revisão concisa e consistente da literatura sobre o assunto, de modo a assegurar a originalidade da investigação e demonstrar conhecimento sobre o que já foi feito em relação ao objeto de pesquisa. “No caso do Brasil, se a proposta for muito original e com pouco respaldo na literatura científica, é essencial que o autor apresente dados preliminares a fim de convencer os revisores de que suas hipóteses são bem fundamentadas”, explica o bioquímico Wanderley dos Santos, da UEM, um dos autores do artigo publicado na PLOS Computational Biology. Em alguns casos, no entanto, se a proposta parecer inovadora demais aos olhos dos avaliadores, eles podem considerá-la inviável ou prematura para ser levada adiante. Por outro lado, se for pouco ambiciosa, poderá ser considerada uma simples repetição de um conhecimento já estabelecido. “Acertar esse ponto de equilíbrio requer um trabalho cuidadoso envolvendo levantamento bibliográfico e organização argumentativa. Se tudo se encaixar perfeitamente, o projeto terá boas chances de ser aprovado”, afirma o biólogo Marcos Buckeridge, da USP, um dos autores do artigo. 96 | abril DE 2017
Os revisores também costumam fazer uma avaliação rigorosa acerca das abordagens experimentais descritas nas propostas. É um dos elementos pelos quais aferem se o proponente é suficientemente qualificado para fazer o que está propondo. No caso da FAPESP, os pesquisadores usam a súmula curricular para destacar aspectos de seu histórico profissional, como publicações, distinções acadêmicas e prêmios relacionados ao tema de seu projeto. “Isso serve para os autores das propostas valorizarem aspectos de sua trajetória que atestem ou destaquem sua capacidade de desenvolver determinada pesquisa”, explica a bióloga Marie-Anne Van Sluys, professora do IB-USP e membro da coordenação adjunta da área de Ciências da Vida da Diretoria Científica da FAPESP. Também é importante que os objetivos e as metodologias estejam coerentes com a hipótese que se pretende verificar. O manual da NSF, por sua vez, recomenda que o pesquisador explique em detalhes os equipamentos e materiais que usará para desenvolver o trabalho, justifique a escolha dos métodos de coleta de dados e análise, diga se
a pesquisa é experimental ou observacional ou se se trata de um estudo teórico. “As técnicas empregadas na coleta dos dados precisam ser compatíveis com o que a ciência de cada especialidade considera de bom nível”, ressalta Gilson Volpato, do Instituto de Biociências da Universidade Estadual Paulista (Unesp), em Botucatu, e autor de livros sobre redação científica. O tipo de informação apresentada e o nível de detalhes podem variar de acordo com a investigação que se pretende fazer. “O proponente deve convencer o avaliador de que ele e seus colaboradores são capazes de realizar os experimentos propostos de acordo com a metodologia mais adequada”, ressalta Santos, da UEM. Segundo ele, isso pode ser feito por meio de uma descrição sucinta das qualificações dos membros da equipe envolvida na pesquisa, suas respectivas tarefas, cronogramas e custos. “Uma pesquisa frequentemente toma rumos distintos daquele planejado, de modo que o cronograma tem de ser flexível e realista”, completa. É preciso estar certo de que o tempo necessário para desenvolver
o projeto é compatível com o período de financiamento determinado pela agência de fomento. “O projeto pode ser original, os objetivos, claros, e as escolhas metodológicas, apropriadas, mas se o pesquisador não construir um quadro de tarefas, de recursos humanos e financeiro bem coordenados o avaliador não conseguirá verificar adequadamente a viabilidade do projeto”, explica Buckeridge. Por sua vez, essas informações precisam estar organizadas sob a forma de um argumento bem construído e convincente. Uma boa redação, simples e agradável, é essencial para garantir a clareza das ideias. “No entanto, um bom redator precisa contaminar o leitor com seu entusiasmo. Para isso, além de argumentos e dados, precisa escrever com coerência, fluência e criatividade”, sugere Santos. Um bom título e um resumo bem escrito ajudam, mas é igualmente importante que o texto esteja organizado em uma estrutura lógica inteligível. Muitas vezes, explica Volpato, a dificuldade de alguns pesquisadores em escrever propostas recai na falta de clareza sobre a própria pesquisa. Quando isso acontece, o texto fica cheio de questões técnicas e detalhes irrelevantes e que nada acrescentam à argumentação. Para ele, isso está relacionado ao fato de muitos elaborarem seus projetos com o objetivo de atender às especificidades de editais, quando o ideal seria ter o projeto pronto para, então, submetê-lo à linha de financiamento mais adequada. Paulo José Resende, da assessoria da presidência da Financiadora de Estudos e Projetos (Finep), diz que é importante que os pesquisadores não esperem o lançamento de editais para elaborarem seus projetos. “O pesquisador precisa ter uma visão estratégica sobre os desafios de sua própria área de atuação, de modo a elaborar projetos com antecedência”, ele explica. “Desse modo, poderão avaliar melhor se suas pesquisas
Deixe claro o problema que o projeto pretende investigar e explique por que tem relevância científica
Faça uma revisão concisa e consistente da literatura sobre o assunto que pretende abordar, de modo a assegurar a originalidade da investigação
Se a proposta for muito original e com pouco respaldo na literatura científica, apresente dados preliminares Certifique-se de que os
a fim de convencer os
objetivos e a metodologias
revisores de que as hipóteses
estejam coerentes com a
são bem fundamentadas
hipótese que pretende verificar
Explique bem quais equipamentos e materiais usará para desenvolver o trabalho, justifique a escolha dos métodos de coleta de dados e análise e diga se a pesquisa é experimental ou observacional, ou se se trata de um estudo teórico
são compatíveis com as demandas de cada edital”, completa. Também é importante que os pesquisadores leiam com atenção os textos dos editais para se certificar de que sua proposta de pesquisa está alinhada àquela linha específica de financiamento. Sempre que for preciso, os proponentes devem entrar em contato com os canais de atendimento da agência de financiamento para a qual estão submetendo seu projeto para tirar dúvidas. n
Procure organizar as informações sob a forma de um argumento bem construído e convincente
Rodrigo de Oliveira Andrade PESQUISA FAPESP 254 | 97
Curso ensina a elaborar projetos de pesquisa
98 | abril DE 2017
A internet ganhou Biólogo Rafael Bento trocou a carreira de pesquisador por educação e divulgação científica on-line
arquivo pessoal
A Associação Brasileira das Instituições de Pesquisa Tecnológica e Inovação (Abipti) promoverá entre os dias 2 e 5 de maio, em Brasília, a 12ª edição do curso “Elaboração de projetos e captação de recursos financeiros em ciência, tecnologia e inovação: Da teoria à prática”. O objetivo é promover a cultura de elaboração e gestão de projetos voltados à captação de recursos financeiros necessários para o desenvolvimento e implementação de pesquisas científicas, tecnológicas ou de inovação (CT&I) no Brasil. Destinado a empresários de micro e pequenas empresas — sobretudo as de base tecnológica —, empreendedores de empresas incubadas, analistas, estudantes de graduação e pós-graduação, pesquisadores e gestores de políticas públicas de CT&I, o curso será ministrado pelo economista Félix Andrade da Silva, assessor da Abipti, e está estruturado no formato de aulas teóricas e oficinas. A proposta é que os indivíduos possam trabalhar em grupos e tenham a oportunidade de aplicar na prática os conceitos e as técnicas de estruturação de proposta de pesquisa discutidas e analisadas ao longo do curso. Serão apresentados os princípios, métodos e as técnicas básicas para a elaboração de propostas de projetos de pesquisa voltadas às principais agências de financiamento e instituições de fomento à CT&I, como a Financiadora de Estudos e Projetos (Finep), o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e o Banco Nacional de Desenvolvimento Econômico e Social (BNDES). Mais informações sobre o curso podem ser obtidas no endereço bit.ly/ cursoElaboraProjetos. n R.O.A.
perfil
Rafael Bento formou-se em biologia na Universidade Estadual Paulista (Unesp), campus de Rio Claro, em 2004. Na época pretendia seguir carreira no campo da biologia molecular, área que se destacava no cenário científico paulista por conta do bem-sucedido projeto genoma da bactéria Xylella fastidiosa. Ao longo do caminho, no entanto, enveredou para outra área, a da divulgação e educação científica. Após concluir a graduação, Bento mudou-se para São Paulo e iniciou o doutorado no Instituto de Ciências Biomédicas da Universidade de São Paulo (ICB-USP). Durante esse período, trabalhou no desenvolvimento de estratégias de transferência de genes mediada por vírus para induzir a morte de células tumorais no Laboratório de Genética e Cardiologia Molecular do Instituto do Coração (InCor). Concluiu o doutorado em 2011, aos 29 anos. Desde 2006, no entanto, já participava de iniciativas de divulgação científica. “Criei um blog no doutorado chamado RNAm, em que escrevia sobre assuntos relacionados à biologia molecular”, conta. Logo percebeu que para tratar desses assuntos precisaria antes apresentar aos leitores conceitos básicos de biologia. “As pessoas não entendiam o que eu escrevia ou entendiam de maneira errada”, relembra. “Na medida em que
explicava mais claramente ciência, me interessei pela área de educação.” Em 2007 o RNAm passou a integrar o Lablogatórios, condomínio de blogs de ciência brasileiros que mais tarde deu origem à rede ScienceBlogs Brasil. Além do blog, Bento iniciou seu pós-doutorado no Instituto Nacional de Psiquiatria do Desenvolvimento para Crianças e Adolescentes, um dos Institutos Nacionais de Ciência e Tecnologia (INCTs). Com o término do pós-doutorado, em 2012, decidiu abandonar a carreira acadêmica para trabalhar exclusivamente com divulgação científica. A convite do biólogo Mauro de Freitas Rebelo, professor da Universidade Federal do Rio de Janeiro (UFRJ) e colega no ScienceBlogs Brasil, mudou-se para o Rio para trabalhar na elaboração de conteúdos científicos para plataformas móveis de educação na Edumobi, da Somos Educação. Em 2014 ele também assumiu a administração do ScienceBlogs Brasil. Mais recentemente, com colegas, fundou a Numinalabs, empresa especializada na produção de conteúdo educacional para ações de marketing digital. Entre os principais clientes da companhia estão empresas como Natura e Bayer. No ano passado, ele e outros colegas lançaram o ScienceVlogs Brasil, rede de canais de vídeo no YouTube que aborda temas de ciência e tecnologia. Desde então, Bento, que agora mora em Campinas, também produz conteúdo para seu canal no YouTube, o Jornal Ciensacional. Além dessas atividades, em 2017 Bento tornou-se consultor na área de ciências biológicas e saúde para a produção de materiais didáticos da Kroton Educacional, maior empresa privada no ramo da educação básica e superior no Brasil. n R.O.A.
classificados
_ Anuncie você também: tel. (11) 3087-4212 | www.revistapesquisa.fapesp.br
DESIGNING A SUSTAINABLE BIOECONOMY
Campos do JordĂŁo, October 17 to 19, 2017
Registration and abstract submission will be opened in April 2017. See details in the BBEST website: http://bbest.org.br
BBEST 2017 will cover not only bioenergy but also bioeconomy and its links to bio-products, biotechnology, industrial innovation and sustainable development.
Advances in International and Brazilian Bioenergy Research A Science and Policy Conference Designing a Sustainable Bioeconomy BIOMASS Focus on sugarcane and other energy crops, including genomics, biochemistry, cell biology, physiology, plant breeding and farming technologies BIOFUEL TECHNOLOGIES Focus on Processing and Engineering BIOREFINERIES Integrated focus on sugarchemistry, alcoholchemistry and bio-based chemicals ENGINES Focus on biofuel applications for motor vehicles including aviation SUSTAINABILITY AND IMPACTS Focus on social, economic and environmental studies, policy
Contacts: SBBq (11)3815-5798 bbest@bbest.org.br
Promotion:
Coordination:
Organization: