Ambiente escolar marcado por conflitos crescentes evidencia a fragilidade das ações para prevenir a violência e melhorar o convívio
Protótipo de aparelho para exame de mama não comprime o seio nem usa raios X
Descobertas duas galáxias anãs satélites da Via Láctea com poucas estrelas
Planejamento e versatilidade mental caracterizam jogadores de futebol de elite
Brilho azul em uma face das asas torna borboletas menos visíveis
Bancos de dados e modelos estatísticos ajudam a mostrar como o STF decide
revistapesquisa fapesp
CAPA
12 Escalada de agressões nas escolas alerta para a necessidade de medidas para enfrentar a violência
18 Sofrimento emocional e disseminação de discursos de ódio motivam ataques extremos
Florada de um cafeeiro cultivado em uma área experimental da UFPB (ENGENHARIA
P.
ENTREVISTA
22 A engenheira química Suzana Nunes contribui para a integração de mulheres em sua área na Arábia Saudita
INOVAÇÃO
28 Estudo detalha como laboratórios de universidades constroem parcerias com a indústria
GESTÃO
32 Criado há 40 anos, Ministério da Ciência e Tecnologia institucionalizou políticas públicas
FINANCIAMENTO
36 Cortes e demissões trazem incertezas para a ciência dos Estados Unidos
BOAS PRÁTICAS
40 Levantamento aponta universidades e países que concentraram retratações de artigos
DADOS
43 Orçamento executado pelo MCTI mostra expressivo aumento entre 2020 e 2024
ASTROFÍSICA
44 Duas galáxias anãs satélites, com poucas estrelas, são descobertas ao redor da Via Láctea ➔
Vínculos partidos
Violência não combina com escola. Mas está, infelizmente, cada vez mais presente nesse ambiente, de diversas formas. Conflitos entre alunos, ou professores e alunos; a violência externa, do entorno da escola, que nela se infiltra; violência institucional, que envolve práticas excludentes. Há ainda os casos extremos de ataques premeditados. Todos os indicadores de violência subiram nos últimos anos, mostrando a degradação do clima institucional, definido pelas expectativas compartilhadas pelos integrantes da comunidade escolar, que por sua vez decorrem de sua vivência coletiva. É por esse cenário preocupante que a repórter Christina Queiroz nos conduz ( página ), trazendo o resultado de recentes estudos e reflexões sobre essa disfunção que abala o ambiente formador da cidadania.
Cor iridescente das borboletas
Morpho é importante para a sobrevivência da espécie (ETOLOGIA, P. 64)
No editorial da edição 326, escrevi que a mamografia não poderia ter sido inventada por uma mulher. Dois anos depois, volto com gosto ao tema para destacar a proposta – liderada por um homem – de um sistema de imageamento que procura realizar esse exame tão necessário de forma menos dolorida. Em fase de desenvolvimento, o equipamento em formato cônico não demanda compressão e utiliza como rota tecnológica micro-ondas, e não raios x ( página 73). Parceria entre a Poli-USP e o IFSP, o projeto se beneficiou da experiência anterior da equipe com o Sampa, circuito integrado miniaturizado que integra um detector de partículas no Cern, na Europa.
O hábito de escrever para veículos de imprensa tem cada vez menos adeptos, e as redações saem perdendo. Alguns persistem, com críticas, elogios ou simples comentários. Um assinante que eventualmente escreve comentando o conteúdo em sua área de atuação (energia), um dia recla-
mou que determinada edição não trazia nada sobre insetos. Explicou que acha incrível dedicar a vida a pesquisar um único tipo desses animais. A reportagem sobre as borboletas-azuis iridescentes que iludem seus predadores atrai leitores interessados em insetos e em experimentos engenhosos ( página 64).
Em março deste ano, o Ministério da Ciência, Tecnologia e Inovação completou 40 anos ( página 32). Criado na redemocratização do país, esse braço do Poder Executivo já passou por instabilidades institucionais e de orçamento, mas segue seu trabalho de articulação das ações de C&T do governo e de formulação de políticas federais, além de financiar diretamente e por suas agências projetos e instituições de pesquisa. Em um contexto internacional sombrio, com os Estados Unidos desmantelando instituições e políticas de fomento à ciência em uma velocidade estarrecedora ( página 36 ), a efeméride é uma oportunidade de reflexão sobre a importância das instituições e do MCTI em especial.
No contexto da ciência como atividade internacional, em que ultrapassar fronteiras geográficas amplia a visão de mundo e da pesquisa, está longe de ser óbvia a escolha de uma brasileira de se radicar em um país no qual, entre outras restrições, não teria naquela época direito a dirigir. Mas ao ver a infraestrutura em microscopia, há 15 anos a engenheira química Suzana Nunes se transferiu para a Universidade Rei Abdullah de Ciência e Tecnologia, na Arábia Saudita. Por vídeo, Nunes concedeu entrevista à editora de Ciências Biológicas, Maria Guimarães, do complexo universitário em que vive, um microcosmo internacional a 80 km de Jeddah ( página 22). É de lá que ela parte, em seu jipe, para explorar a região nas horas vagas.
ALEXANDRA OZORIO DE ALMEIDA diretora de redação
Néctar
1
Pau-terra (acima), amarelinho (à esq.) e chanana (ao lado) alimentam formigas, que afastam insetos devoradores de folhas
O pau-terra (Qualea grandiflora), o amarelinho (Plathymenia reticulata) e um arbusto conhecido como chanana (Turnera subulata) se destacaram em um levantamento nacional sobre os chamados nectários extraflorais, glândulas que produzem néctar em folhas, frutos ou bases de flores e alimentam insetos, principalmente formigas. Essas três espécies produzem bastante néctar fora das flores, conectam diferentes biomas e aumentam a integração das comunidades de plantas. Biólogos do Instituto Federal de Educação, Ciência e Tecnologia Goiano, campus de Urutaí, e da Universidade Federal de Uberlândia, em Minas Gerais, identificaram 249 espécies de 47 famílias botânicas com nectários extraflorais no Cerrado (92 espécies), Amazônia (82), Caatinga (39), Mata Atlântica (34) e Pampa (2); apenas 13 espécies foram observadas em mais de um bioma. As pequenas bolsas de néctar atraem insetos, como as formigas, que, por sua vez, combatem diversos herbívoros que poderiam se alimentar não somente das folhas, mas também de várias partes das plantas. “Essa pesquisa coloca o Brasil como um dos países com maior biodiversidade de plantas com nectários extraflorais do mundo e abre várias possibilidades para entendermos a evolução e as relações entre espécies de plantas e insetos”, comenta Estevão Alves da Silva, do Instituto Goiano, um dos autores do trabalho (Flora, fevereiro).
Taxa de hipertensão continua alta
Em 2022, um grupo da Universidade Federal de Minas Gerais (UFMG) verificou que um em cada quatro moradores do Brasil (23,9%) tinha hipertensão arterial, fator de risco para doenças cardiovasculares. Era mais comum em mulheres (26,4%) do que em homens (21,1%) e nas pessoas com mais de 60 anos (55,0%). As conclusões se apoiaram em 88.531 entrevistados na segunda edição, de 2019, da Pesquisa Nacional de Saúde (PNS). Quase metade (57,8%) das pessoas com pressão alta relatou ter recebido atenção médica nos seis meses anteriores. A prevalência de hipertensão na população brasileira foi similar à de países de alta renda (39% a 50,4%) e considerada alta, mas já foi pior. Outro estudo da mesma equipe da UFMG, com base em informações prestadas por 59.226 pessoas na primeira PNS, de 2013, mostrou que um em cada três brasileiros (32,3%) convivia com hipertensão – 33% de mulheres, 31,8% de homens e 66,1% em pessoas com mais de 60 anos. A maioria (60%), principalmente entre mulheres, idosos e moradores de cidades, tomava medicação para reduzir a pressão arterial (BMC Public Health, 25 de fevereiro).
Celebrações ao redor dos cerritos
Povos pré-coloniais, entre 2.300 e 1.200 anos, reuniam-se nos meses de verão para se banquetear com peixes e bebidas alcoólicas. Pesquisadores do Reino Unido, da Espanha e do Brasil (Universidade Federal de Pelotas, no Rio Grande do Sul) encontraram vestígios de bebidas feitas com vegetais e de cozimento de peixes em 54 fragmentos de cerâmica desenterrados de montes de terra chamados cerritos, construídos por ancestrais dos grupos indígenas Charrua e Minuano, ao redor da lagoa dos Patos, no Rio Grande do Sul. As análises alimentaram a ideia de que os povos pré-coloniais se encontravam ao redor dos montes –que tinham significado simbólico como sepultamentos, marcadores territoriais e monumentos – para festejar. “Vemos exemplos dessas práticas ao redor do mundo, frequentemente relacionadas à abundância sazonal de espécies migratórias. Esses eventos oferecem uma excelente oportunidade para atividades sociais, como funerais e casamentos, e têm grande significado cultural”, disse a autora principal do estudo, Marjolein Admiraal, em um comunicado da Universidade de York, no Reino Unido, onde ela examinou o material do Brasil (PLOS ONE, 5 de fevereiro).
Aparelhos portáteis permitem medições constantes e ajudam a prevenir infarto
Mais brasileiros com diploma universitário
Ao apresentar os resultados sobre Educação do Censo Demográfico 2022, em Porto Alegre (RS), Gustavo Silva, diretor de pesquisas do Instituto Brasileiro de Geografia e Estatística (IBGE), atribuiu a políticas públicas municipais, estaduais e federais o avanço dos níveis de escolaridade de 2000 a 2022. Nesse período, o percentual de pessoas sem instrução ou sem concluir o ensino fundamental caiu quase à metade, de 63,2% para 35,2%, o equivalente a 71 mil pessoas. Ao mesmo tempo, o de habitantes com nível superior completo cresceu quase três vezes, de 6,8% para 18,4%, o equivalente a 37,3 mil pessoas. Ainda há contrastes regionais acentuados: em 2022, entre as unidades da federação, o Distrito Federal apresentou a maior proporção da população com 25 anos ou mais com nível superior completo (37%) e o Maranhão a menor (11%); entre as capitais, Florianópolis (SC) e Vitória (ES) apresentaram a maior proporção da população com nível superior completo (41,8%) e Manaus a menor (19,8%); entre os municípios com mais de 100 mil habitantes, São Caetano do Sul (SP) se destaca com a maior média de anos de estudo da população com 25 anos ou mais (12,7 anos), enquanto a menor média foi encontrada em Breves (PA), com 6,5 anos (IBGE, 26 de fevereiro).
Em um colégio de Brasília, Samuel Ribeiro Costa prepara os alunos para as provas do Enem 2024
Colhendo a água da noite no Atacama
A cidade chilena de Alto Hospício, a 600 metros acima do nível do mar, no deserto de Atacama, é uma das áreas mais secas do mundo. Ali chove menos de 1 milímetro por ano. A água provém principalmente de rochas porosas do subsolo, mas está emergindo outra forma de obtê-la: colhendo-a da neblina que se forma à noite e de manhãzinha, com um painel suspenso por dois postes; as gotas se acumulam na malha da superfície vertical e caem numa calha até os tanques de armazenamento. Projetados por pesquisadores das universidades Mayor e Católica, ambas no Chile, os painéis foram testados durante um ano e meio em altitudes maiores, fora dos limites da cidade. Retiveram diariamente entre 0,2 e 5 litros por metro quadrado (L/m2), o que seria água suficiente para beber, para a irrigação e a produção agrícola local.
Com base em uma taxa média anual de coleta de água de 2,5 L/m2 por dia, estimou-se que 17 mil m2 de painéis poderiam produzir 300 mil litros, o bastante para atender à demanda semanal de água dos moradores. Os resultados dependem, porém, da densidade da neblina, que varia ao longo do ano, do vento e do relevo (Frontiers in Environmental Science, 20 de fevereiro).
Sem exagerar no volume do videogame
“Todos podem tomar medidas hoje para garantir uma boa saúde auditiva ao longo da vida”, comentou Jérôme Salomon, diretor-geral assistente da Organização Mundial da Saúde (OMS), ao apresentar o primeiro padrão global de audição segura para dispositivos ou softwares de videogame e eSports (competições profissionais de jogos digitais), elaborado em conjunto com a União Internacional de Telecomunicações (UIT). O objetivo é evitar a perda auditiva entre jogadores, especialmente crianças. Para dispositivos de videogame (consoles de videogame, computadores pessoais e fones de ouvido), o padrão recomenda: um controle de volume que possa ser facilmente ajustado, mensagens sobre quando o limite do som será atingido, o aumento do risco de perda auditiva e um modo de segurança de fone de ouvido que ajuste automaticamente o volume quando um jogador alternar entre fones de ouvido e alto-falantes.
Estima-se que cerca de 3 bilhões de pessoas joguem videogames, mas a maioria dos dispositivos e jogos não possui recursos de audição seguros para proteger os usuários de ruídos prejudiciais (OMS, 28 de fevereiro).
Além de se divertir, é importante preservar a audição
Áreas com maior potencial de coleta de umidade (quadrados amarelos) em março, junho e setembro
Em Honduras, uma história do abacate
Em 2017, o abrigo rochoso El Gigante, um sítio arqueológico no sudoeste de Honduras, com altitude entre 1.200 e 2 mil metros, revelou-se um dos centros da diversificação e do cultivo do milho (Zea spp ), há 4.300 anos. Agora, mostra-se como um dos berços do abacate (Persea americana). Pesquisadores da Universidade da Califórnia em Santa Bárbara, Estados Unidos, encontraram lá e examinaram 1.725 amostras fossilizadas dessa fruta.
Dataram 56 delas e viram que a mais antiga tinha cerca de 11 mil anos e que as cascas do abacate se tornaram progressivamente mais espessas e as sementes maiores a partir de 8 mil anos atrás. A domesticação e seleção contínua de frutas grandes e robustas começaram entre 7,5 mil e 7,2 mil anos atrás e resultaram nas cerca de 500 variedades conhecidas atualmente, com diferentes formas, cores e tamanhos. Nativo do México e da América Central, deve ter chegado ao Brasil no final do século XIX, onde são cultivadas sete variedades, Avocado (Hass), Breda, Fortuna, Geada, Margarida, Ouro Verde e Quintal (PNAS, 3 de março).
Março Junho Setembro
Alto Hospício
Hospício
Alto Hospício
Ruas alagadas em Eldorado do Sul (RS) em junho de 2024
Chuvas de 1,5 bilhão de m3 no RS
Três brasileiros nos Estados Unidos e uma na França passaram meses calculando o volume da chuva que caiu no Rio Grande do Sul, principalmente na Região Metropolitana de Porto Alegre, em maio de 2024. Iury Simoes-Sousa e Catarina Camargo, ambos da Instituição Oceanográfica Woods Hole, Agata Piffer-Braga, na Universidade de Massachusetts em Dartmouth, e Juliana Tavora, na Universidade de Twente, na França, combinaram vários métodos de sensoriamento remoto, dados de nível de água e precipitação e mapas interativos e estimaram o volume de chuva em 1,5 bilhão de metros
Muitas mortes nas estradas africanas
cúbicos (m3). É como se as comportas da usina de Itaipu, que a cada segundo deixam passar 62,2 mil m3, ficassem abertas durante quase sete horas e toda essa água cobrisse a capital gaúcha e seus arredores. Em maio de 2025, cinco estações meteorológicas registraram mais de 380 milímetros de precipitação, quase quatro vezes acima da média desde 1960. Resultantes de uma onda de calor que paralisou uma frente fria, as chuvas intensas e prolongadas atingiram diretamente cerca de 420 mil pessoas na Região Metropolitana e causaram 183 mortes (Geophysical Research Letters, 21 de fevereiro).
Mesmo que abrigue apenas 15% da população global e 3% dos veículos, o continente africano responde por quase 20% de 1,2 milhão de mortes anuais no trânsito. Um estudo da empresa Science Africa com a Organização Mundial da Saúde (OMS) mostrou que as reportagens jornalísticas contribuem pouco para mudar a situação. As notícias frequentemente atribuem as mortes de pedestres a falhas individuais e os acidentes de trânsito ao mau comportamento, sem considerar problemas sistêmicos, como estradas inseguras, fiscalização inadequada e falta de calçadas e de pontos de travessia. Das 932 reportagens analisadas, 65% trataram as colisões e os atropelamentos como eventos isolados, sem fornecer o contexto, como o número de fatalidades anteriores na mesma área, apenas 14% mencionaram leis de segurança nas estradas e 11% a qualidade da infraestrutura. Os textos foram publicados por 25 grandes jornais e emissoras de televisão de Gana, Quênia, Nigéria, África do Sul e Tanzânia de setembro de 2021 a setembro de 2024. O relatório recomenda que os jornalistas examinem o contexto, em vez de se concentrarem apenas em motoristas e pedestres, e acompanhem as causas de acidentes e colisões, como as condições das rodovias ou falhas na manutenção de veículos (ScienceAfrica, 7 de fevereiro).
Sinalização na África do Sul, para evitar acidentes
O Sol passeia e a Terra esfria
O Sistema Solar, formado por uma estrela, o Sol, oito planetas, asteroides e outros corpos celestes, move-se a uma velocidade de 720 mil quilômetros por hora (km/h) no centro de nossa galáxia, a Via Láctea, por sua vez constituída por mais de 200 bilhões de estrelas. Usando dados da missão Gaia da Agência Espacial Europeia (ESA), uma equipe de pesquisa internacional liderada pela Universidade de Viena, na Áustria, descobriu que o Sistema Solar, entre 14,8 milhões e 12,4 milhões de anos atrás, atravessou a constelação de Órion, que faz parte da Onda de Radcliffe, uma estrutura gasosa em forma de onda na Via Láctea, composta por áreas de
formação de estrelas, com um diâmetro de cerca de 9 mil anos-luz e a apenas 500 anos-luz do Sol. Depois, voltou à sua órbita original. O passeio por uma região densa do espaço pode ter comprimido a heliosfera, uma bolha criada pelo vento solar, aumentado o influxo de poeira interestelar e influenciando o clima da Terra. O período em que o Sol e seus companheiros visitaram Órion coincide com a chamada transição climática do Mioceno Médio na Terra, marcado por uma mudança de clima quente para mais frio, que levou a uma expansão da cobertura de gelo por quase todo o planeta ( Astronomy & Astrophysics, 11 de fevereiro).
Lobos se domesticaram em busca de comida
Os seres humanos atraíram os lobos selvagens (Canis lupus), originando os cães domésticos (Canis familiaris), ou, inversamente, os lobos se autodomesticaram, aproximando-se dos assentamentos humanos em busca de comida? A segunda hipótese ganhou o reforço de modelos estatísticos, examinados por pesquisadores das universidades de Wisconsin-La Crosse, de Virgínia, do Tennessee e de Valparaiso, todas nos Estados Unidos. Levando em conta variáveis como taxas de fecundidade e sobrevivência, a conclusão a que chegaram é de que uma parte dos lobos começou a vasculhar alimentos de assentamentos humanos entre 30 mil e 15 mil anos atrás. Acostumando-se a viver perto das pessoas, tornaram-se menos agressivos. “Quando as fêmeas selecionavam os parceiros, também procuravam os machos que tivessem uma mansidão semelhante à delas”, sugeriu o coautor do estudo Alex Capaldi, matemático da Universidade James Madison, na Virgínia, ao site Live Science. Nos últimos 15 mil anos, os seres humanos teriam impulsionado a seleção artificial: escolheram os lobos mais domesticados para caça e companhia e induziram o cruzamento dos animais menos selvagens, produzindo outra espécie, o cão doméstico, que, nas primeiras sociedades humanas, pastoreava gado (Proceedings of the Royal Society B, 12 de fevereiro).
Onda de Radcliffe ( pontos vermelhos), a maior estrutura gasosa da Via Láctea
Canis lupus, o ancestral selvagem dos cães
Escalada de agressões nas escolas do país acende alerta para a necessidade de criação de medidas capazes de enfrentar a violência e melhorar o ambiente em instituições de ensino
CHRISTINA QUEIROZ ilustrações VALENTINA FRAIZ
OBrasil enfrenta um novo cenário de violência em instituições de ensino, marcado por uma escalada nos casos de agressões na comunidade escolar, nos últimos 10 anos, e pelos ataques a instituições de ensino, que registraram um pico entre 2022 e 2023. A desvalorização da atividade docente no imaginário coletivo, a relativização de discursos de ódio e o despreparo de secretarias de educação para lidar com conflitos derivados de situações de racismo e misoginia são hipóteses que podem ajudar a explicar esse fenômeno complexo e multicausal, que provocou ao menos 47 vítimas fatais desde 2001.
O Ministério da Educação (MEC) reconhece quatro tipos de violência que afetam a comunidade escolar. O primeiro refere-se às agressões extremas, com ataques premeditados e letais; o segundo abarca situações de violência interpessoal, envolvendo hostilidades e discriminação entre alunos e professores; e o bullying, quando ocorrem intimidações físicas, verbais ou psicológicas repetitivas. Há, ainda, a violência institucional, que engloba práticas excludentes por parte da escola, por exemplo, quando o material didático utilizado em sala de aula desconsidera questões de diversidade racial e de gênero. Por fim, o MEC identifica os problemas abrangendo o entorno da instituição, como tráfico de drogas, tiroteios e assaltos.
De acordo com o Ministério de Direitos Humanos e Cidadania (MDHC), em 2013 foram registradas 3,7 mil vítimas de violência interpessoal nas escolas, valor que subiu para 13,1 mil, em 2023 (ver gráfico na página 14). Os números contemplam estudantes, professores e outros membros da comunidade escolar. Entre as ocorrências, 2,2
mil casos envolveram violência autoprovocada (ou seja, automutilação, autopunição, ideação suicida, tentativas de suicídio e suicídios), tipo de agressão que aumentou 95 vezes no recorte temporal avaliado.
Ao analisar dados do Sistema de Informação de Agravos de Notificação (Sinan), do Ministério da Saúde, e da Pesquisa Nacional de Saúde do Escolar (PeNSE), elaborada pelo Instituto Brasileiro de Geografia e Estatística (IBGE), o Atlas da violência de 2024 indica que houve um crescimento na proporção de estudantes que reportaram sofrer bullying. Em 2009, o percentual de alunos de escolas brasileiras que relataram ter sido vítimas desse tipo de agressão era de 30,9%, número que subiu para 40,5% em 2019. “Além disso, no mesmo ano, a proporção de estudantes do ensino fundamental que deixaram de ir à escola por sensação de insegurança chegou a 11,4%, mais do que o dobro dos 5,4% registrados em 2009”, informa o economista Daniel Cerqueira, do Instituto de Pesquisa Econômica Aplicada (Ipea), que realiza o estudo em parceria com o Fórum Brasileiro de Segurança Pública (FBSP).
Cerqueira considera que parte do aumento captado pelas estatísticas oficiais pode ser explicada por melhorias adotadas no Sinan, no qual são computadas informações sobre doenças e agravos, incluindo vítimas de agressões letais e não letais nas escolas que chegam a hospitais públicos e particulares. “Porém o aprimoramento na coleta de dados não explica aumentos tão acentuados”, avalia o economista. Segundo ele, o processo de radicalização política iniciado no país em 2013 afetou a forma como as pessoas lidam com o outro. O pesquisador destaca que declarações de figuras públicas relativizando a
violência ajudaram a criar um ambiente em que discursos agressivos e intolerantes foram naturalizados, o que pode ter afetado negativamente a convivência escolar. Outro aspecto apontado pelo economista diz respeito ao aumento da violência doméstica contra crianças e jovens. Segundo o Atlas da violência , em 2009, 9,5% dos alunos do ensino fundamental de capitais brasileiras relataram ter sido agredidos por algum familiar nos últimos 30 dias, enquanto em 2019 esse percentual subiu para 16,1%. “A violência e a negligência sofridas em casa impactam o ambiente escolar. As agressões funcionam como forma de defesa e reafirmação, ainda que invertida, da autoestima do jovem”, considera o pesquisador.
Adesvalorização do magistério, a descontinuidade de políticas educacionais e a precarização da infraestrutura escolar também contribuem para esse cenário de violência, na perspectiva da psicóloga Angela Soligo, da Universidade Estadual de Campinas (Unicamp). Ela coordenou um estudo nacional sobre violência e preconceitos na escola, publicado em 2018 e realizado em parceria com universidades federais de todas as regiões do país. Na pesquisa, preconceitos institucionais presentes no currículo, no material didático e nas relações pedagógicas foram apontados como fatores de agravamento do cenário. Segundo a pesquisadora, as leis federais no 10.639, de 2003, e no 11.645, de 2008, que obrigam a inclusão do ensino de história da África e sobre povos indígenas, muitas vezes não são respeitadas. “A representação equivocada de certos grupos sociais em materiais didáticos acaba por perpetuar preconceitos”, afirma. Além
Violências no ambiente escolar
Pessoas atendidas em serviços públicos e privados de saúde com lesões autoprovocadas, vítimas de agressões físicas e verbais
Denominar atitudes de racismo e misoginia como bullying esconde a razão por trás das agressões
disso, os estudantes que vivenciam experiências de racismo, machismo e homofobia nem sempre são acolhidos pela gestão escolar.
Em relação à falta de visibilidade de experiências negativas de alunos, o psicólogo João Galvão Bacchetto, do Instituto Nacional de Estudos e Pesquisas Educacionais (Inep), desenvolveu uma análise baseada em questionários aplicados a diretores de escolas por meio do Sistema de Avaliação da Educação Básica (Saeb). O levantamento reuniu 63 mil respostas. Um dos achados mais marcantes foi o alto número de escolas que afirmam não enfrentar nenhum tipo de violência: 40% das unidades declararam não registrar incidentes. Já outras 20% relataram apenas episódios pontuais de baixa gravidade. Para Bacchetto, os dados evidenciam que há um descompasso entre
o sofrimento dos alunos e seu reconhecimento por parte da gestão escolar. “A violência também é uma questão de percepção. Muitas escolas não sabem como reconhecê-la”, diz.
Na mesma linha, a pedagoga Telma Vinha, da Unicamp, afirma que esse é um dos elementos que afetam negativamente o clima institucional, conceito que se refere ao conjunto de percepções e expectativas compartilhadas pelos integrantes da comunidade escolar, decorrente de experiências vividas nesse contexto. De acordo com ela, em algumas escolas, 100% dos gestores afirmam que há poucos desentendimentos entre estudantes de séries finais do ensino fundamental, enquanto mais da metade desses alunos considera que há muitos conflitos entre eles. “Os adolescentes raramente contam suas desavenças aos adultos. Por isso, é fundamental ouvi-los sobre essas questões”, observa a pesquisadora. No momento, Vinha coordena um estudo sobre o tema realizado como parte das atividades do Grupo Ética, Diversidade e Democracia na Escola Pública, do Instituto de Estudos Avançados da Unicamp e do Grupo de Estudos e Pesquisa em Educação Moral (Gepem), que também reúne especialistas da Universidade Estadual Paulista (Unesp).
A banalização do conceito de bullying constitui, igualmente, uma falha, na visão de Soligo. “Denominar atitudes de racismo e misoginia como bullying acaba escondendo a razão por trás das intimidações, dificultando a formulação de respostas eficazes”, afirma. Segundo Soligo, as escolas acabam resolvendo conflitos rotulados dessa forma com conversas mediadas entre agressor e vítima. “A mediação ajuda a solucionar desavenças pontuais, mas, se não houver um trabalho para discutir o racismo e a misoginia, por exemplo, no
futuro a agressão acaba se repetindo com outros alunos”, alerta a psicóloga.
Para a pedagoga Luciene Regina Paulino Tognetta, da Unesp, o enfrentamento de preconceitos no ambiente escolar requer mais do que projetos pontuais, demandando uma transformação estrutural. Com pesquisas na área de violência escolar desenvolvidas desde 2006, atualmente a pedagoga participa de estudos elaborados em parceria com as secretarias municipais de educação de Vitória (ES) e São Paulo (SP), buscando estratégias para melhorar as relações interpessoais. “Constatamos que não basta ter uma política antirracista se toda organização da escola não for repensada”, assegura. Isso significa, por exemplo, que a instituição deve contar com profissionais negros em seu quadro de gestores para poder acolher vítimas de racismo de forma correta. “É um tipo de trabalho que exige empatia e não pode ser conduzido apenas por pessoas brancas”, prossegue Tognetta.
No universo das escolas particulares, Tognetta considera que uma das falhas é a resistência em acionar o Conselho Tutelar em situações graves, com receio da reação das famílias e da exposição negativa na mídia. “Esse é um recurso essencial em casos de negligência. Se o aluno apresenta um comportamento recorrente de perseguição a um colega, ele precisa de acompanhamento psicológico. Se os pais não garantem esse suporte, o Conselho Tutelar deve ser acionado”, defende a pesquisadora. Nesse sentido, o psicólogo José Leon Crochíck, da Universidade de São Paulo (USP), lembra que a responsabilização do agressor deve ser pensada com cuidado. A repa-
Vocabulário de conflitos
Breve roteiro de termos que são considerados essenciais à compreensão do fenômeno da violência escolar
BULLYING
Intimidação que envolve atos de violência física ou psicológica, caracterizados como agressões intencionais, repetitivas e persistentes. Essas ações têm o objetivo de causar dor, sofrimento e exclusão social. O fenômeno pode se manifestar por meio de ataques diretos, insultos e humilhações no ambiente escolar
CYBERBULLYING
Variante digital do bullying, cyberbullying ocorre em ambientes como redes sociais, aplicativos de mensagens e fóruns on-line. A prática inclui a divulgação de mentiras, imagens constrangedoras, ameaças, montagens depreciativas, disseminação de fotos íntimas e comentários ofensivos em vídeos e postagens
CLIMA ESCOLAR
O conceito refere-se ao conjunto de percepções, expectativas e experiências compartilhadas por alunos, professores, funcionários e gestores escolares. Esse ambiente é influenciado por fatores como normas institucionais, valores, relações interpessoais e estruturas organizacionais e pedagógicas
COMUNIDADES
MÓRBIDAS VIRTUAIS
Grupos on-line organizados em torno de temas perturbadores e destrutivos, como violência extrema, automutilação, suicídio, assassinatos e crimes. Essas comunidades atuam em fóruns, redes sociais e grupos de mensagens, promovendo conteúdos que estimulam a radicalização e o comportamento autodestrutivo
DISCURSO DE ÓDIO
Comunicação que incita a hostilidade ou a violência contra indivíduos ou grupos com base em discriminações e preconceitos relacionados a raça, etnia, religião, gênero, nacionalidade e orientação sexual. Pode manifestar-se verbalmente, por escrito ou por meio de ações explícitas
ração do erro pode envolver uma suspensão, mas a expulsão depende do histórico do estudante. Em casos de conflitos graves, é comum que pais peçam a expulsão de agressores. No entanto, Crochíck alerta que essa prática nem sempre é adequada. “A escola tem uma função social. A expulsão do aluno pode torná-lo mais agressivo e estigmatizado, dificultando seu convívio social”, analisa.
Com a proposta de investigar como o bullying e o preconceito se manifestam no ambiente escolar, Crochíck coordenou pesquisa financiada pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), que envolveu outras 12 universidades nacionais e instituições da Argentina, Espanha, México e Portugal. Realizado entre 2018 e 2021, o estudo abrangeu cerca de 3 mil estudantes de 89 escolas públicas e particulares de ensino fundamental e médio de todos os países participantes. Os resultados indicam que alunos com bom desempenho acadêmico raramente são vítimas ou autores de bullying, enquanto aqueles que enfrentam dificuldades em sala de aula, mas se destacam em atividades físicas competitivas, podem estar entre os agressores. “O bullying está ligado a relações de hierarquia, baseando-se na imposição de força e na submissão do mais fraco”, relaciona Crochíck. No âmbito de um auxílio à pesquisa no Programa Ensino Público, da FAPESP, o pesquisador atualmente elabora projeto para criar ações de combate ao preconceito e ao bullying em três escolas públicas de São Paulo.
A psicóloga Marian Ávila de Lima e Dias, da Unifesp, também coordenadora do trabalho, explica que as vítimas, por outro lado, são geralmente os chamados “alunos invisíveis”, ou seja, aqueles que não estão entre os melhores nem os piores da turma e raramente são escolhidos para atividades coletivas. “O estudante médio, que não se destaca em termos acadêmicos e de sociabilidade, tem maior probabilidade de ser alvo de agressões”, observa a pesquisadora, que realiza pesquisa com financiamento da FAPESP sobre violência em escolas de Guarulhos (SP). Outro dado levantado pelo estudo revela a correlação entre agressores e vítimas: de cada 10 alunos que sofrem bullying, três podem se tornar agressores no futuro. “Mas o inverso também ocorre: três em cada 10 agressores podem acabar sendo vítimas”, ressalta Dias. Ainda de acordo com o trabalho, atitudes preconceituosas estão relacionadas com fragilidades rejeitadas pelo estudante que as pratica. “Por causa disso, frequentemente grupos marginalizados, como pessoas com deficiência, tornam-se alvo desse tipo de agressão”, diz a psicóloga.
FONTES MINISTÉRIO DA EDUCAÇÃO (MEC) / ORGANIZAÇÃO DAS NAÇÕES UNIDAS (ONU) / TELMA VINHA (UNICAMP)
Ambiente hostil
Sofrimento emocional e disseminação de discursos de ódio motivam ataques extremos em instituições de ensino
CHRISTINA QUEIROZ
ilustrações VALENTINA FRAIZ
Em ambientes fragilizados pela desvalorização da figura docente e pela precarização da infraestrutura escolar, nos quais estudantes padecem de sofrimento psíquico e as políticas para gerenciar conflitos são escassas ou inexistentes, os discursos de ódio propagados em comunidades virtuais e redes sociais podem causar um efeito devastador. Esse elemento é apontado como central para o desencadeamento dos ataques de violência extrema que se intensificaram no país entre 2022 e 2023.
O Observatório Nacional dos Direitos Humanos (ObservaDH), do governo federal, contabiliza que o Brasil teve 43 ataques desse tipo, entre 2001 e 2024, resultando em 168 vítimas, das quais 47 morreram e 115 ficaram feridas (ver
CAPA
Aumento de ataques violentos coincide com a ampliação da presença de comunidades extremistas na internet
estabelecer conteúdos obrigatórios à educação básica, porém não dispõe de uma matriz curricular voltada à convivência na escola. “O trabalho de formação cidadã dos estudantes, centrado no diálogo, na participação e na garantia de direitos, não pode ser tratado como algo secundário”, defende a pesquisadora.
Outro problema envolve a ampliação do acesso a armas de fogo. A psicóloga Danielle Tsuchida Bendazzoli, coordenadora de projetos do Instituto Sou da Paz, afirma que os ataques a escolas no Brasil se agravaram depois de 2019, período que coincide com a flexibilização das regras para a posse e o porte de armas de fogo. Dados levantados pelo instituto mostram que, entre 2019 e 2022, o número de armas registradas no Brasil aumentou de 695 mil para 1,9 milhão. “Quando há o emprego de armas de fogo nesse tipo de ataque, o número de vítimas é, em média, três vezes maior”, lamenta a psicóloga. O relatório “Raio x de 20 anos de ataques às escolas no Brasil” (2023), elaborado pelo instituto, constata que, em 60% dos casos em que havia arma de fogo, elas foram obtidas dentro da própria residência do agressor. Ao analisar os ataques de violência extrema registrados no país, a pedagoga Telma Pileggi Vinha, da Universidade Estadual de Campinas (Unicamp), identificou que a maioria dos agressores tinha menos de 18 anos quando cometeu os ataques. “Isso mostra a vulnerabilidade de pessoas nessa faixa etária para se envolver com violência extrema”, pondera. Ainda segundo Vinha, os agressores quase não tinham amigos e muitos participavam de comunidades de ódio na internet. “Até novembro de 2024, todos os perpetradores dos ataques no país eram do sexo masculino. Em dezembro daquele ano, foi
registrado o primeiro caso envolvendo uma jovem”, informa. Além disso, alguns agressores demonstravam indícios de transtornos mentais, nem sempre diagnosticados ou tratados, e todos vivenciaram situações de sofrimento na escola, como humilhações, exclusões e bullying. Ela diz lembrar da postagem de um deles feita em uma rede social, na qual o jovem conta que gostava da escola até começar a sofrer intimidações sistemáticas de colegas. “Nesse texto, o menino relatou que não contava com ninguém para ajudá-lo e justificou sua intenção de realizar o ataque como forma de fazer com que todos soubessem de seu sofrimento”, comenta a pedagoga.
Entre 2015 e 2018, Vinha coordenou um estudo em 10 escolas públicas de Campinas e Paulínia, no interior de São Paulo, que incluiu ações de formação de professores para gerenciamento de conflitos, além de outras medidas e análises dos impactos dessas iniciativas nas relações escolares. “Embora os resultados tenham sido positivos no curto prazo, após um ano e meio os avanços se perderam porque as ações não foram institucionalizadas e muitos docentes mudaram de escola”, pondera. Diante disso, ela destaca a importância de que os programas sejam implementados em larga escala e promovam transformações sustentáveis a longo prazo.
Para Thaís Luz, coordenadora-geral de acompanhamento e combate à violência nas escolas do MEC, os episódios de violência extrema estão inseridos em um contexto mais amplo de avanço do extremismo no país e da falta de controle sobre práticas e discursos de ódio, que se disseminam em meios digitais. “A ocorrência de ataques violentos contra escolas aumentou significativamente a partir de 2019, coincidindo com um momento em que comunidades extremistas, antes restritas à deep web, passaram a funcionar abertamente em redes sociais”, afirma. Cara, da USP, explica que a cooptação de adolescentes em fóruns que promovem discursos de ódio ocorre, principalmente, por meio de interações virtuais e estratégias que combinam humor e linguagem violenta.
Como resposta ao cenário de agravamento da violência escolar, o governo federal regulamentou em abril de 2024 o Sistema Nacional de Acompanhamento e Combate à Violência nas Escolas, por meio do Decreto nº 12.006. O sistema consolida diretrizes para prevenção e atuação em casos de violência extrema. O MEC também lançou, em dezembro passado, o programa Escola que Protege, para fortalecer a capacidade das instituições de ensino na prevenção e resposta às violências.
“O programa atua com formação continuada de educadores, criação de espaços de convivência democrática, combate ao bullying e à discriminação, além do desenvolvimento de estratégias de monitoramento e comunicação”, detalha. A implementação da iniciativa articula o MEC a órgãos como Ministério da Justiça e Segurança Pública, MDHC e Polícia Federal.
Estudioso das relações entre violência, tecnologia e ensino há uma década, o psicólogo Antônio Álvaro Soares Zuin, da Universidade Federal de São Carlos (UFSCar), alerta também para o impacto da internet no ambiente escolar. Ele explica que, em situações de bullying, a violência ocorre em termos físicos e psicológicos, com a vítima sendo alvo constante das agressões. Já no cyberbullying, ou seja, bullying praticado por meio de tecnologias digitais, uma única postagem pode permanecer na internet indefinidamente. “Mesmo que ela seja removida por determinação judicial, pode mais tarde ser repostada”, considera.
Zuin realizou pesquisa com mais de 100 escolas no Brasil e no exterior, identificando que alunos gravam e divulgam imagens de professores sem consentimento, frequentemente acompanhadas de comentários humilhantes. Essa prática, iniciada com comunidades no Orkut nos anos 2000, intensificou-se com a popularização dos smartphones a partir de 2007 e a migração para redes sociais de maior alcance. Segundo ele, antes, as postagens de cyberbullying eram restritas a fóruns e grupos fechados, mas, com a disseminação dos smartphones, vídeos ofensivos gravados na escola passaram a ser compartilhados de forma aberta, sendo que alguns têm milhares de visualizações. Segundo o pesquisador, muitas vezes, essa prática é usada como forma de vingança
contra professores que tentam disciplinar alunos. “Em meio a tantas oportunidades de dispersão da concentração, que são próprias da cultura digital, os estudantes usam seus celulares para se vingar, por meio do cyberbullying, do professor, que é a figura responsável pela manutenção do foco de atenção em conteúdos estudados”, propõe.
Estabelecida em 2024, a Lei nº 14.811, que criminaliza o bullying e o cyberbullying, cria uma nova categoria jurídica, ampliando o escopo de situações que podem ser enquadradas nessas práticas e definindo critérios p ara o que deve ser considerado uma intimidação sistemática. No entanto, o jurista Lucas Catib de Laurentiis, da Pontifícia Universidade Católica de Campinas, recorda que na juventude é natural que as pessoas manifestem atitudes de incivilidade, contestem normas e autoridades, como parte do processo de desenvolvimento de sua personalidade – desde que isso não envolva crimes como racismo e homofobia. “Com a nova lei, uma simples discussão entre alunos pode gerar respostas penais antecipadas, criando um ambiente de medo e autocensura. É preciso combater a violência, mas saber diferenciar quais comportamentos devem ser judicializados, para preservar um clima que viabilize a construção da identidade de cada estudante”, conclui o jurista , que desenvolve pesquisa, financiada pela FAPESP, sobre prevenção de violência e ataque às escolas no município de Campinas l
Os projetos, artigos científicos, relatórios e livros consultados para esta reportagem estão listados na versão on-line.
Química sem fronteiras
Brasileira radicada na Arábia Saudita desenvolve membranas que atuam como sofisticados filtros, mas também contribui para a permeabilidade da ciência, integrando mulheres e países
MARIA GUIMARÃES
Suzana Pereira Nunes é uma mulher em território de homens, tanto em sua área de pesquisa , a engenharia química, como no país onde optou por atuar nos últimos 15 anos, a Arábia Saudita. Ela não vê a questão de gênero como limitação pessoal nesse contexto e afirma sofrer as mesmas dificuldades que qualquer mulher, em qualquer país ou campo profissional, enfrenta. Mas se empenhou na inclusão de jovens pesquisadoras na Universidade Rei Abdullah de Ciência e Tecnologia (Kaust), o que contribuiu para lhe valer, em 2023, o Prêmio Internacional L’Oréal Unesco para Mulheres na Ciência, uma renomada distinção.
Nunes usa química de ponta para desenvolver membranas ultraespecíficas, capazes de funcionar como filtros. Em linha com a premência da preocupação com sustentabilidade e do combate ao aquecimento global, desenvolve processos que não envolvem a produção de gás carbônico (CO₂).
A pesquisadora cresceu em Campinas, no interior paulista, onde fez sua formação e iniciou a carreira científica. Durante estágios de pesquisa na Alemanha conheceu o alemão Klaus Peinemann, com quem se casou, o que a levou a deixar a docência na Universidade Estadual de Campinas (Unicamp) para se instalar no país europeu. As maiores oportunidades na área estavam, no entanto, na universidade criada pelo rei saudita Abdullah em 2009, com uma visão de fomentar talentos em ciência e tecnologia e ultrapassar os limites impostos pelas regras da sociedade saudita – como a separação entre homens e mulheres, por exemplo. Nunes, Peinemann, também professor na área de química de membranas, e o filho, entrando na adolescência, mudaram-se para lá. Eleita para a Academia Mundial de Ciências (TWAS) em 2024, além de membro da Academia de Ciências do Estado de São Paulo (Aciesp), a química de 66 anos agora tem vontade de contribuir para fomentar o reconhecimento e o intercâmbio internacional da ciência brasileira.
ESPECIALIDADE
Química de membranas
INSTITUIÇÃO
Universidade Rei Abdullah de Ciência e Tecnologia (Kaust), Arábia Saudita
FORMAÇÃO
Graduação (1980), mestrado (1983) e doutorado (1985) em química na Universidade Estadual de Campinas (Unicamp)
Você estuda a composição e produção de membranas usadas como filtros superespecíficos. Quais são os objetivos dessa pesquisa?
A motivação é principalmente em termos de indústria: 50% da energia nesse contexto é consumida em processos de separação. Na indústria farmacêutica, por exemplo, é preciso passar por uma série de etapas para purificar, separar os fármacos. Nunca se parte de substâncias puras. Esses processos, como a destilação, são difíceis de atingir, custam energia e produzem CO 2 . A ideia é obter um produto puro e sem degradação, usando processos mais eficientes, com menos custo energético. O mesmo vale para a indústria química e petroquímica.
Além da eficiência, há um apelo de sustentabilidade, certo?
Hoje, quando se fala em sustentabilidade nessa área, significa continuar fazendo mais ou menos o que já é feito há décadas e décadas, adicionando um processo de captura de CO2 no fim. Em vez de repensar o processo, adiciona-se um passo. Com processos de separação mais eficientes, é possível que no final ainda haja alguma produção de CO2 , mas muito menor. Em termos econômicos, traz grandes benefícios. Uma filtragem mais eficiente também permite resultados inviáveis por meio de processos térmicos. Um exemplo é a purificação de vitaminas. O que faço, há muito tempo, é o desenvolvimento das membranas com seletividade muito maior do que as disponíveis no mercado. E, de certa forma, trabalho para aprimorar o processo.
Os filtros são feitos de compostos que vocês constroem?
Recentemente temos usado monômeros cíclicos, que são moléculas na forma de poros. Esse poro se polimeriza e forma um filtro que tem poros menores de 1 nanômetro, capazes de separar moléculas pequenas, como as farmacêuticas. Nosso trabalho vai desde a preparação do monômero em si, embora muitos deles sejam comerciais, fazer a polimerização e a deposição em um material poroso, de forma a obter uma estrutura bem seletiva.
Além dos métodos químicos, vocês usam ferramentas como microscopia eletrônica e fontes de radiação
síncrotron. Qual a importância de cada um desses recursos?
Uma membrana tem várias camadas: uma tem poros maiores, outra é a parte seletiva. Precisamos construir o design dessas camadas. Fazemos a caracterização química do material e das frações que vão passar por essa membrana. Uso muito a microscopia eletrônica, e aqui temos um parque de microscopia fantástico: de transmissão, de varredura, tudo o que quiser. Fazemos uma caracterização detalhada em microscopia, por meio de métodos que vão se desenvolvendo à medida que usamos, para ver as membranas. Na microscopia de transmissão temos uma alta resolução, quase atômica, mas só é possível observar uma área muito pequena do material, menos de 1 micrômetro. No microscópio eletrônico, normalmente é preciso trabalhar no vácuo, uma situação na qual a morfologia da membrana acaba sofrendo alterações. Com o síncrotron, é possível fazer análises da estrutura das membranas na água ou em outras condições nas quais elas operam. Para isso, tenho há muito tempo uma colaboração com o LNLS [Laboratório Nacional de Luz Síncrotron,], em Campinas, que praticamente vi
nascer. No laboratório Sirius, eles agora têm uma linha de luz que gera imagens tridimensionais, que funciona com alta resolução, sem precisar de vácuo. Também conseguimos enxergar um volume muito maior, com até 30 micrômetros. Com esse volume, consigo ir fundo até ver os poros pequenos, construir a imagem inteira em 3D.
Vocês conseguem chegar à escala comercial quando desenvolvem uma membrana?
No laboratório nós preparamos em uma escala pequena, de pesquisa; também temos máquinas que podem fazer rolos de 40 centímetros e até um rolo de vários metros. Isso é uma escala técnica ou semitécnica, mas não industrial. Meu marido também é químico de membranas, ele fundou uma companhia na Alemanha para fabricar produtos que desenvolvemos enquanto estávamos lá, então temos essa possibilidade, no futuro. Aqui, estamos na fase intermediária e trabalhamos com indústrias que se interessam. No momento temos um projeto de elaboração de filtro para a dessalinização, com firmas interessadas em comprar nosso produto e desenvolvê-lo.
Dessalinização deve ser uma aplicação especialmente importante no Oriente Médio, não?
Com processos de separação mais eficientes, que gastam menos energia, é possível haver produção de CO 2, mas muito menor
Muito importante. Acho que é a aplicação na qual as membranas têm mais sucesso e é difícil competir com o que já existe, construir algo melhor do que é vendido comercialmente. Temos uma membrana que esperamos que seja competitiva: não só em termos de custo, mas também em algumas situações nas quais a membrana comercial não funciona bem. Por exemplo, quando, além do sal, há contaminantes na água que passam pela filtração. São moléculas muito pequenas, difíceis de reter quando se faz o tratamento da água. Outro tipo de aplicação que está crescendo é a separação de íons com características semelhantes aos sais, é preciso membranas mais seletivas para isso. Separar o lítio e o magnésio do sódio, por exemplo.
Vocês já conseguem fazer isso?
Sim, em laboratório temos membranas com bom resultado para a separação de íons. São baseadas nos monômeros cíclicos que mencionei.
É verdade que seu interesse pela ciência começou com um kit de química de brinquedo?
É verdade. No meu aniversário de 7 anos ganhei um kit de química. Eu adorei, brinquei muito com aquilo e a curiosidade ficou. Depois fiz a Escola Técnica de Química em Campinas, Coticap [Colégio Técnico Industrial Conselheiro Antonio Prado, que depois se tornou Escola Técnica Estadual, Etecap]. Era uma escola criada pela indústria química junto com o consulado francês, e a intenção era educar técnicos para trabalhar em empresas. Era muito boa, a maior parte dos meus colegas acabou fazendo carreira. A química ficou comigo já desde cedo.
Você tinha uma experiência favorita?
Tinha, se chamava sangue do diabo. Basta misturar água com fenolftaleína e um pouco de amônia para o líquido ficar vermelho. Quando se joga esse líquido em uma roupa branca, produz uma bela mancha vermelha. Como a amônia evapora rapidamente, logo fica branco novamente.
Seus pais trabalhavam com educação?
Não. Minha mãe era dona de casa e meu pai economista.
A questão de gênero costuma ser uma preocupação sua?
É uma preocupação sim, afinal trabalho na Arábia Saudita. Mudei para cá há 15 anos, o país era completamente diferente de agora. Era muito mais rigoroso, oferecia muito menos opções para a mulher, principalmente para estudar engenharia química. Eu vim por outras razões, mas
a possibilidade de ter impacto na educação para as mulheres foi importante. A Kaust era a única universidade que tinha educação mista, com homens e mulheres no mesmo laboratório. Quando cheguei, encontrei uma limitação importante: não existia engenharia química para mulheres em outras universidades do país.
Você era a única mulher na área? Sim, a única professora no programa de engenharia química. A Kaust só tem pós-graduação. Fui contratada para o programa de engenharia química e, pelas regras da universidade, um aluno de doutorado precisava ter algum curso em engenharia química para fazer doutorado nessa área. Percebi que era difícil ter uma mulher da Arábia Saudita como aluna, porque não havia formação. Só podia quem tivesse estudado fora. Agora há graduação disponível para mulheres em quase todas as áreas, mas acredito que em grande parte das universidades ainda há alguma forma de separação entre homens e mulheres em salas ou edifícios diferentes. Mas as mudanças na Arábia Saudita estão aceleradas e as oportunidades crescem a cada dia.
Nesse pioneirismo, como era dar aula para homens e o trato entre colegas?
Você precisava usar véu?
Em termos de aula, não tive problema nenhum. Sempre houve um respeito extremo, era muito bem tratada pelos meninos. A universidade foi criada pelo monarca da época rei Abdullah, com regras bem diferentes do resto da sociedade. Não tinha segregação nem véu. Dentro
da universidade não precisava, mas se eu fosse a um shopping, usava o que chamamos de abaya, que é como um vestido longo. Agora não há mais esse tipo de restrição. Em termos de gênero, entre colegas, talvez tenha tido o mesmo tipo de problema de qualquer lugar: estar em uma reunião e não ser tão ouvida quanto os homens, por exemplo.
Você antes estava na Alemanha, também em posição de coordenação. Como foi essa decisão de se mudar? Foi completamente surpresa para mim também. Na Alemanha, estava realmente em uma posição boa. Era o centro de pesquisa Helmholtz, que é famoso, e trabalhava com células a combustível, uma pesquisa aplicada importante. Coordenei projetos europeus, gostava do que fazia. Mas não tinha chance de crescer no instituto, teria que trabalhar em uma universidade pelo menos em tempo parcial. Comecei a procurar alternativas na Alemanha ou em outros lugares na Europa, mas dois colegas, da Europa e dos Estados Unidos, disseram: “Se eu fosse você, não procuraria na Europa, mas na Arábia Saudita”.
Não parecia uma opção estranha? Obviamente. Minha primeira reação foi: “De forma nenhuma”. Mas eram colegas que respeito muito, e disseram a mesma coisa. A universidade estava sendo fundada e comecei a ver o que oferecia – principalmente em termos de microscopia, de que sempre gostei e tinha acesso restrito na Alemanha. Interagi com outras pessoas, principalmente quando fiz a entrevista de contratação conduzida no
No tempo vago, a química gosta de viajar com seu jipe (acima); em 2023, na cerimônia do prêmio
L'Oréal Unesco para Mulheres na Ciência
Imperial College, em Londres. Conhecia bastante gente da minha área lá, e vários me disseram que era um lugar interessante. Importante também é que não vim sozinha. Meu marido foi professor na Kaust, agora já se aposentou. Fomos contratados ao mesmo tempo, em processos seletivos distintos.
Você foi professora na Unicamp, pesquisadora no centro Helmholtz e agora é docente na Kaust. Como compara as três experiências profissionais em três países e instituições tão diferentes?
Todos têm vantagens e desvantagens. Gostei muito de trabalhar na Unicamp e acho que, se tivesse continuado, seria uma boa carreira. Saí por motivação familiar: tinha ido várias vezes à Alemanha, em estágios de pós-doutorado e sabáticos, e foi assim que conheci meu marido, que é alemão. Quando meu filho nasceu, decidi que não podia manter a relação a distância e me mudei. Na Alemanha, eu tinha um laboratório com estudantes de doutorado e pesquisadores de pós-doutorado, mas, por não ser universidade, o contato com estudantes era limitado. Também não dava aula, o que tem vantagens e desvantagens. A Helmholtz se dedica à pesquisa aplicada, a estrutura tende a ser bem hierárquica. Na Kaust tive liberdade de escolher e expandir os tópicos de pesquisa. O acesso a equipamentos de ponta também é excepcional. Voltei a ter um contato mais próximo com os estudantes, não só com os do meu laboratório, o que me dá uma maior possibilidade de impacto na formação geral.
Você mantém colaborações na Unicamp e na Alemanha? Na Unicamp indiretamente, pelo trabalho no Sirius. E tenho colaborações na Europa em geral. Presido o conselho de um projeto grande na Inglaterra, que reúne várias universidades na área de membranas, e tenho publicações recentes com colegas de vários países.
Como foi ganhar o prêmio internacional L’Oréal Unesco para Mulheres na Ciência, que se encaixa na sua atuação em inserir mulheres na engenharia química aí na Arábia Saudita?
Foi muito bom, tem um lado bem emocional. A cada ano, são cinco mulheres
do mundo inteiro que recebem: uma em cada continente, em diferentes áreas do conhecimento. Eu não esperava ganhar, porque cresci e trabalhei no Brasil, depois na Alemanha e aqui. Minha dedicação foi dividida em três. A maior parte das vezes o júri favorece alguém que nasceu naquele lugar e continua trabalhando ali, mas eu ganhei como representante dos países árabes e africanos. Foi inesperado. É um tipo de reconhecimento muito especial.
O que chama a atenção na sua carreira, aos olhos do júri desse tipo de premiação?
Acho que tem dois lados. Fui selecionada pela minha contribuição em química, mas fez diferença trabalhar com algo que tem impacto em termos de reduzir CO 2 , tornar a indústria mais sustentável. Também parece que foi importante eu ter me dedicado à educação de mulheres, de certa forma, em um lugar onde antes havia restrições. A maior parte das pessoas que trabalham comigo são mulheres, do mundo inteiro. Acabo servindo como inspiração e recebo mais candidaturas femininas, agora também da Arábia Saudita. Uma delas, excelente, fez sua defesa de tese agora em março.
No ano passado, você foi eleita membro da TWAS. O que significa estar nessa academia internacional?
É muito especial. É um reconhecimento, principalmente em termos de ciência, mas também da parte de educação, de ter contribuído para diferentes países. Acabo de ser eleita, então ainda não estou envolvida em discussões. Vejo como uma oportunidade de continuar contribuindo para a educação e inspirar a ciência, principalmente para mulheres, em diferentes países. Também sou da Academia de Ciência do Estado de São Paulo [Aciesp] há muito tempo, e tenho muito orgulho disso. Agora sou também da Academia Mundial.
E tem a parte de gestão. Até 2024 você era vice-reitora. Como foi essa experiência, quais são os desafios?
Em qualquer país, em uma posição administrativa desse tipo é preciso lidar com situações que não são muito visíveis. Se é bem-feito, as pessoas não percebem. Se não for bem-feito, tem muita crítica. Antes disso, eu já tinha passado cinco anos no posto de vice-decano, que é o responsável pela direção de uma das três divisões da universidade, uma estrutura administrativa comum em muitas universidades dos Estados Unidos. É interessante, mas consome muita energia, do tipo que eu prefiro dedicar à ciência.
Você teve que parar a pesquisa?
Há 15 anos a Arábia Saudita oferecia muito menos opções para a mulher, principalmente para estudar engenharia
Não parei, mas é impossível estar no laboratório no dia a dia, contribuir mais para o meu grupo. Minha posição era de “vice-provost”. A universidade é como se fosse uma cidade e o presidente é como se fosse o prefeito e o reitor ao mesmo tempo. O provost é a parte do reitor mais voltada à educação. Por um ano e meio ficamos sem provost, então praticamente assumi a função. Nessa época houve muitas mudanças na universidade, decisões estratégicas que precisavam ser implementadas. Nessa situação, nem sempre fazemos amigos…
A Kaust é grande?
É uma universidade só de pós-graduação. São mais ou menos 200 professores, cerca de 1.700 estudantes de mestrado e doutorado e mais ou menos o mesmo número de pesquisadores de pós-doutorado, além da equipe de administração.
Mais de 90% dos professores são de fora. Há outros professores do Brasil, além de mim. Cerca de 60% dos estudantes vêm de fora, 40% são da Arábia Saudita. Esse era o plano desde o início. Na Alemanha, tive vários alunos e pesquisadores de pós-doutorado brasileiros. Aqui, minha primeira estudante de doutorado era brasileira, ela já tinha sido recrutada e acabou trabalhando comigo.
Como funciona o financiamento?
Na universidade, cada professor tem um orçamento básico suficiente para manter um grupo de oito a 10 pessoas, incluindo idas a conferências e tudo o mais. Em cima disso, podemos obter financiamento para projetos adicionais. A Arábia Saudita está implementando um novo sistema de auxílios como os da FAPESP, mas a maior parte de nosso financiamento vem diretamente da universidade. A Kaust é especial nesse sentido. Foi uma visão do rei Abdullah, acho que foi muito bem pensado. Ele queria deixar uma marca e procurou universidades famosas no mundo inteiro para criar as diversas áreas. O Imperial College criou a engenharia química, outras áreas foram desenvolvidas por universidades como as de Chicago e da Califórnia em Berkeley [nos Estados Unidos], e Oxford [no Reino Unido]. Apesar de não ter graduação, a universidade também criou um programa para identificar estudantes talentosos em outras instituições, até nas escolas, e investir neles. Isso pode incluir a seleção de uma universidade adequada para que a pessoa desenvolva sua capacidade. Isso deveria acontecer em outros lugares, estimular os jovens a seguir carreiras científicas.
Agora você está de volta ao laboratório?
Sim. O tempo na administração foi muito intenso e, desde outubro, estou praticamente só na pesquisa. Meu grupo tem atualmente 12 pessoas, entre estudantes e pesquisadores de pós-doutorado. Não é muito grande, mas estamos com uma boa produtividade. Nos primeiros dois anos depois que fui contratada, passei boa parte do tempo na microscopia. Mas depois, com as aulas e na administração, não tem sobrado tempo para trabalhar no laboratório.
O que dá mais alegria na sua atividade hoje?
Ver o estudante crescer, não só no conhecimento, mas também na maneira de ser e de trabalhar, me dá muita alegria
inteiro, como foi o caso do meu filho. A universidade tem 16 programas de pesquisa em ciências exatas, biológicas e engenharia, então a gente vive em uma cidade pequena formada só por pessoas interessadas nessas áreas.
Seu filho tinha que idade quando vocês chegaram?
Tinha acabado de fazer 13 anos. Ele estudou aqui e foi para a Ucla [Universidade da Califórnia em Los Angeles], nos Estados Unidos, fazer graduação em biologia. Agora voltou para fazer doutorado em biologia marinha aqui na Kaust. Ele foi muito bem em Los Angeles, poderia ir para onde quisesse, mas quis voltar. A universidade fica na beira do mar Vermelho, a oceanografia é muito forte. Tem muita coisa para ser explorada.
Você participa da sociedade árabe de alguma maneira?
Muito pouco, apenas no contato com estudantes ou colegas. A vida se dá em inglês, não falo árabe. Saio e converso, tenho viajado nesses anos por regiões da Arábia. Gosto muito de dirigir, então quando tenho tempo saio no meu jipe.
Ver o estudante crescer não só no conhecimento, mas também na maneira de ser e de trabalhar, dá muita alegria. É uma realização vê-los defender o doutorado e suceder para uma nova fase. Três dos meus alunos de doutorado são hoje professores universitários no Brasil.
Ainda existe aquela menina fascinada com o kit de química?
Existe. Cada vez que um estudante vem com algo a discutir, quando há resultados surpreendentes a encontrar, isso é muito bom. Em físico-química, que é a área que me atrai mais, ou microscopia, continuo tendo o mesmo entusiasmo.
Como é a experiência de vida na Arábia Saudita? Você mora na cidade universitária?
Sim. A universidade é como se fosse uma cidade pequena, com supermercado, hospital, escola, restaurante. Fica a uns 80 quilômetros de Jeddah, a segunda cidade na Arábia Saudita em termos de tamanho e de importância. A vantagem é que é uma cidade bem internacional e com muita segurança. As crianças crescem em contato com gente do mundo
Não há limitação para dirigir, sendo mulher?
Não, nenhuma, mas era diferente quando cheguei. Até 2018 eu não poderia sair dirigindo fora da universidade. Poderia ir de táxi, de ônibus, mas não dirigir eu mesma.
Qual é seu plano? Você pretende ficar depois que se aposentar?
Gostaria muito de viver no Brasil, mas o mais provável é voltar para a Europa quando me aposentar, pelo contexto familiar.
Você frequenta o Brasil?
Nos últimos anos, não. Visitarei durante a conferência da TWAS, que será no Rio de Janeiro em setembro. Tenho bons amigos no Brasil, continuei as colaborações quando trabalhei na Alemanha e mantenho interação com colegas, por exemplo por meio do Sirius. Isso me dá prazer e gostaria que esse contato fosse mais intenso. Espero que o Brasil venha a ser ainda mais internacional, com mais oportunidades para troca de estudantes. A FAPESP sempre teve um papel importante para isso: se eu puder contribuir de alguma forma, será um prazer. l
As teias que ligam universidades e empresas
Levantamento mapeia as atividades de 240 laboratórios acadêmicos para compreender suas formas de interação com o setor industrial FABRÍCIO MARQUES
Como se estabelecem as relações entre universidades e empresas do Brasil para a geração de conhecimento? Uma dupla de pesquisadores da Faculdade de Economia, Administração e Contabilidade de Ribeirão Preto da Universidade de São Paulo (FEA-RP-USP) buscou responder a essa pergunta levantando quais fatores estavam associados à interação entre empresas e 240 laboratórios de universidades públicas no estado de São Paulo. Algumas das conclusões do trabalho, publicado em dezembro de 2024 na revista Science and Public Policy, confirmaram resultados de estudos semelhantes feitos em outros países: em comparação com laboratórios menos envolvidos com empresas, os mais engajados se destacam pela habilidade em prospectar e atrair parceiros da iniciativa privada, dispõem de equi-
Laboratório de Novos Materiais e Dispositivos, da Unesp, em Bauru: parceria com empresa do exterior
pamentos avançados e possuem mais pesquisadores permanentes para dar suporte aos projetos conjuntos. Também recebem maior apoio de seus departamentos para viabilizar as cooperações. Mas há peculiaridades brasileiras. Uma delas é que, aqui, o nível sênior na carreira docente não se relaciona com uma interação maior com a indústria – um padrão que costuma ser observado nos Estados Unidos e na Europa, e que se explica pela formação paulatina de redes de colaboração ao longo da carreira dos professores. Dos 240 laboratórios paulistas analisados, apenas 55 eram liderados por professores titulares, o nível mais alto na carreira acadêmica pública, enquanto 114 estavam sob o comando de professores livre-docentes ou associados e 71 sob a liderança de professores adjuntos. De acordo com o coordenador da pesquisa, o pesquisador da FEA-RP-USP Alexandre Dias, esse resultado
evidencia diferenças marcantes entre o sistema brasileiro de ciência, tecnologia e inovação e os de países mais desenvolvidos.
“Nas universidades públicas brasileiras, ensino, pesquisa e extensão são indissociáveis e, além disso, os acadêmicos no nível mais alto da carreira costumam se envolver profundamente com as atividades de gestão de suas unidades. A predominância do financiamento público da pesquisa, o sistema de recompensas e os critérios por meio dos quais os docentes são avaliados para progredir na carreira não contribuem para um desempenho individual alinhado com a interação com o setor industrial”, afirma o pesquisador, que realizou o levantamento com Leticia Ayumi Kubo Dantas, cuja dissertação de mestrado, defendida em 2023, ele orientou. A dupla integra o Núcleo de Pesquisas em Inovação, Gestão Tecnológica e Competitividade da FEA-RP-USP.
O objetivo principal do estudo foi analisar o grau de “engajamento acadêmico” de laboratórios de pesquisa do país. Esse conceito, disseminado a partir de 2013 por Markus Perkmann, da Escola de Negócios do Imperial College de Londres, no Reino Unido, congrega um conjunto de atividades formais e informais que modulam a interação entre universidades e meio empresarial. “Por muito tempo, pesquisadores buscaram compreender os determinantes da comercialização de tecnologias e do empreendedorismo acadêmico como fenômenos para analisar a interação universidade-empresa. Só na década passada cresceu o interesse em também investigar outros canais por meio dos quais se estabelecem os vínculos entre universidade e empresa”, explica Dias.
Foram analisados dados de laboratórios de sete instituições – as universidades estaduais Paulista (Unesp), de Campinas (Unicamp) e a USP, as federais de São Paulo (Unifesp), São Carlos (UFSCar) e do ABC (UFABC) e o Instituto Tecnológico de Aeronáutica (ITA) – cujos líderes aceitaram responder a um questionário on-line. Em relação às áreas do conhecimento, 20% dos laboratórios eram de engenharias, 15,8% de ciências da saúde, 14,5% de ciências biológicas, 12,5% de ciências exatas e da Terra, 9,6% de ciências agrárias – e 27,5% operavam em múltiplas áreas.
A análise permitiu distinguir as facilities de pesquisa em três categorias. O agrupamento mais numeroso, com 112 laboratórios, apresentou envolvimento mínimo e esporádico com empresas. O segundo reuniu 84 laboratórios e demonstrou um engajamento parcial com a iniciativa privada. Já o terceiro agrupamento, com 44 laboratórios, destacou-se por interagir com as empresas por meio de diferentes canais: pesquisas colaborativas (52,3%), contratos de pesquisa (40,9%) e expansão de instalações por meio de recursos de
fontes privadas (34,1%). Eles também participavam de atividades informais de interação, como treinamento de estudantes de pós-graduação em projetos da indústria (15,9%,) e serviços de consultoria (22,7%).
Ovalor econômico dos equipamentos dos laboratórios altamente engajados e seu número de pesquisadores permanentes revelaram-se três vezes maiores do que os de instalações com interação mínima com as empresas. O apoio dos departamentos a que os laboratórios estão vinculados foi maior entre os de alto engajamento: 32% deles afirmaram receber suporte suficiente, ante 13,4% nos de mínimo engajamento e 22,6% nos da categoria intermediária. De acordo com Leticia Dantas, a autora principal do estudo, a pesquisa mostra a importância de fortalecer os laboratórios universitários, garantindo uma estrutura robusta e times maiores. “Isso não apenas aumenta o engajamento acadêmico, mas torna os laboratórios mais atraentes para parcerias com a indústria, ampliando o impacto da pesquisa no setor produtivo”, afirma.
O economista Eduardo da Motta e Albuquerque, da Universidade Federal de Minas Gerais (UFMG) e pesquisador do Centro de Desenvolvimento e Planejamento Regional (Cedeplar), que não participou do estudo, concorda que uma das contribuições do artigo é demonstrar a importância de fortalecer os laboratórios de pesquisa do sistema universitário brasileiro. “A interação atrai recursos para os laboratórios e tem impacto tanto na qualidade da pesquisa, ao trazer para a universidade novos temas de investigação, quanto no ensino, ao aproximar os docentes e estudantes de demandas da sociedade”, diz Albuquerque, um estudioso da formação de redes de inovação e de vínculos criados entre universidades e empresas (ver Pesquisa FAPESP nº 234).
“Também seria interessante aprofundar o levantamento para saber que segmentos industriais mais interagiram com esses laboratórios”, afirma. Ele aposta que há interações de destaque no setor agrícola, pela importância econômica que o segmento tem no Brasil, mas atividades mínimas com empresas farmacêuticas, que concentram a pesquisa em suas matrizes no exterior. Albuquerque vê um sinal de alerta em um resultado apresentado no artigo, segundo o qual não foi detectada correlação entre o engajamento dos laboratórios com as empresas e o suporte dos Núcleos de Inovação Tecnológicas, escritórios criados por força da Lei de Inovação, de 2004, nas instituições públicas de ciência e tecnologia para gerenciar a propriedade intelectual e apoiar a interação universidade-in-
dústria. “O país fez um investimento grande na criação desses núcleos e talvez seja hora de reexaminar sua atuação”, afirma.
Para crescer, a relação entre universidade e empresas precisa vencer uma série de entraves, na avaliação do químico Elson Longo, professor emérito da Universidade Federal de São Carlos (UFSCar) e diretor do Centro para o Desenvolvimento de Materiais Funcionais, um dos Centros de Pesquisa, Inovação e Difusão (Cepid) financiados pela FAPESP. “Uma parte da interação existente resulta de serviços de consultoria que pesquisadores prestam para as empresas. A cooperação precisa ter ambições maiores para resultar em conhecimento novo e em produtos inovadores”, diz ele, dando como exemplo projetos estabelecidos pelo Cepid nas últimas décadas com a indústria siderúrgica e de cerâmica e revestimento, que resultou em mudanças na forma de produção e ganhos de produtividade – atualmente, a instituição mantém parcerias para o desenvolvimento de insumos para fábricas de cosméticos. Ele também aponta o baixo interesse de multinacionais em colaborar com grupos brasileiros, preferindo, como regra, usar a estrutura de Pesquisa e Desevolvimento (P&D) das matrizes.
Emilio Carlos Nelli Silva, do Departamento de Mecatrônica e Sistemas Mecânicos da Escola Politécnica da USP, vê diferenças marcantes entre a interação entre universidades e empresas no Brasil e em outros países. “Nos Estados Unidos, a relação é mais fluida, porque as empresas contratam muitos doutores para trabalhar em seus centros de P&D e é com eles que se faz a interlocução com os grupos de universidades. Aqui no Brasil, como há ainda poucos doutores nas empresas, a conversa é feita com outros atores e, às vezes, falta compreensão de que o trabalho de pesquisa pode enfrentar obstáculos”, afirma.
Laboratório de inspeção do Centro de Pesquisas da Petrobras: legislação impulsiona colaborações
No primeiro escalão
O presidente José Sarney dá posse a Renato Archer (à dir.), primeiro ministro da Ciência e Tecnologia, em 1985
Com a redemocratização do país, há 40 anos, foi criado o Ministério da Ciência e Tecnologia, que ajudou a organizar a atividade de pesquisa e a institucionalizar políticas públicas
FABRÍCIO MARQUES
Os 40 anos de um marco da redemocratização brasileira – a posse do primeiro presidente civil após 21 anos de ditadura militar –têm uma dupla importância para a comunidade científica do país. Naquele 15 de março de 1985, foi incorporado ao governo o Ministério da Ciência e Tecnologia, com a missão de planejar e coordenar programas e iniciativas federais para a área até então dispersa em diferentes órgãos e esferas. Hoje denominado MCTI, após o acréscimo da Inovação a seus propósitos 14 anos atrás, a pasta desempenhou um papel na institucionalização de políticas públicas em seus campos de atuação, mesmo enfrentando hiatos frequentes de financiamento e terremotos em sua estrutura organizacional (em ocasiões diferentes, foi rebaixado a secretaria e se fundiu às pastas da Indústria e Comércio e das Comunicações).
A rotatividade dos dirigentes também foi alta. Na galeria de titulares da pasta, há 25 retratos e 15 deles ficaram um ano ou menos no cargo. Mas uma máquina burocrática robusta, que atualmente tem 5.982 funcionários, consolidou-se ao longo da trajetória do MCTI para cuidar de múltiplas atribuições. O ministério patrocina desde a ciência básica até projetos de inovação em empresas por meio de duas agências de fomento, o Conselho
Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e a Financiadora de Estudos e Projetos (Finep). Também é integrado por 18 unidades que empregam cientistas ou fornecem infraestrutura para o trabalho deles, a exemplo do Centro Brasileiro de Pesquisas Físicas, do Instituto Nacional de Pesquisas Espaciais (Inpe) e do Laboratório Nacional de Computação Científica (LNCC). Sob seu guarda-chuva, há ainda duas autarquias, a Agência Espacial Brasileira (AEB) e a Comissão Nacional de Energia Nuclear (Cnen), além de órgãos colegiados como a Comissão Técnica Nacional de Biossegurança (CTNBio) e o Conselho Nacional de Controle de Experimentação Animal (Concea), e a empresa Ceitec, que desenvolve e fabrica semicondutores.
Recursos do ministério financiaram a construção de instalações científicas, como o laboratório de luz síncrotron Sirius, e há previsão de que viabilizem, nos próximos anos, projetos como o do laboratório de biossegurança máxima Orion e o do Reator Multipropósito Brasileiro, um centro de produção de radioisótopos e traçadores para a agricultura, entre outras atribuições. O orçamento do MCTI em 2025, aprovado pelo Congresso em 19 de março, será de R$ 13,7 bilhões, maior do que o de 2024 – mas com um corte de R$ 3 bilhões em relação ao proposto no projeto de lei orçamentária. O patamar é semelhante ao executado entre 2010 e
As instalações da fonte de luz síncrotron Sirius, em Campinas, construído com recursos do orçamento do MCTI
2015, um bom momento do financiamento à ciência no Brasil – e bem acima do executado entre 2016 e 2021.
Na avaliação da engenheira Luciana Santos, atual titular do MCTI, lançar um ministério dedicado a ciência e tecnologia deu ao tema a importância que ele merece. “Foi a partir dele que conseguimos construir uma política nacional para o setor, fortalecer universidades e institutos de pesquisa, criar programas estratégicos e garantir que a inovação estivesse conectada às necessidades do Brasil”,
O secretário José Goldemberg ao lado do presidente Collor, no fechamento do campo de testes nucleares na Serra do Cachimbo, em 1990
O secretário-executivo do MCT Pacheco (à esq.), o ministro Sardenberg e o presidente da Finep Mauro
diz. A mobilização para que a ciência e a tecnologia ganhassem status de ministério era antiga e ganhou corpo depois da fundação de agências como o CNPq e a Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) – durante o segundo governo Getúlio Vargas, em 1951. Figuras como o físico José Leite Lopes (1918-2006) e o hematologista Walter Oswaldo Cruz (1910-1967) defendiam, em artigos na imprensa, a criação de um ministério no final da década de 1950.
A Sociedade Brasileira para o Progresso da Ciência (SBPC) também se posicionava a favor, diz o físico José Goldemberg, que foi presidente da SBPC entre 1979 e 1981. Segundo ele, a necessidade de ter um ministério ou estrutura equivalente para tratar da ciência e tecnologia se tornou um assunto pacífico no mundo após a Segunda Guerra Mundial. “Era preciso ter uma organização que se preocupasse com a formação de pessoal científico, com pesquisas e atividades correlatas. E também havia uma questão simbólica, que era dar para a ciência um lugar da primeira fileira dos representantes do Estado”, afirma Goldemberg, que no governo de Fernando Collor, em 1990, se tornaria secretário Especial de Ciência e Tecnologia, época em que a pasta perdeu o status de ministério.
A decisão de criar a pasta em 1985 foi do presidente eleito Tancredo Neves (1910-1985), que adoeceu na véspera da posse e morreu semanas mais tarde, confirmada por seu vice e sucessor José Sarney. Tancredo escolheu para o cargo Renato Archer (1922-1996), um político nacionalista que havia sido ministro de Relações Exteriores em 1963. “O Archer
era um ex-militar da Marinha que teve ligação com o almirante Álvaro Alberto da Mota e Silva [1889-1976], fundador do CNPq. Foi um empresário do ramo mineral e era um deputado cassado. Resumia em uma pessoa só vários dos atores que defenderam a criação do ministério: só faltava ser físico”, diz o historiador da ciência Antonio Augusto Passos Videira, pesquisador da Universidade do Estado do Rio de Janeiro (Uerj) e autor do livro 25 anos de MCT: Raízes históricas da criação de um ministério (CGEE, 2008).
Os primeiros momentos do ministério não prenunciavam sua longevidade. Uma primeira reação foi de desconfiança – um dos temores, expresso em textos do cientista e divulgador José Reis [1907-2002], era de que a institucionalização gerasse uma barreira entre os pesquisadores e o centro do poder. Archer articulou-se com os cientistas – trouxe o ex-presidente da SBPC Crodowaldo Pavan [19192009], para comandar o CNPq – e permaneceu no ministério por dois anos e sete meses. Os recursos do Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT), principal instrumento de financiamento federal à ciência, que haviam escasseado no último governo militar, ganharam fôlego com um aporte para reequipar laboratórios.
Em 1989, a pasta se fundiu com o Ministério da Indústria e Comércio, tornando-se mais tarde uma secretaria que, no governo Collor, passou a ser vinculada à Presidência. José Goldemberg conta que,
em sua gestão como secretário, a perda de status de ministério não representou um prejuízo. “A importância do órgão está relacionada à interlocução que se tem com o presidente e, no meu caso, a interação foi grande”, diz. “Houve dois grandes eventos que mobilizaram a secretaria: a preparação para a conferência do Clima, a Rio 92, e a desativação do programa nuclear paralelo”, afirma. No governo Itamar Franco [1930-2011], o ministério foi recriado e viveu uma fase de estabilidade, com o químico José Israel Vargas no comando por mais de cinco anos – ele permaneceu no cargo no início da gestão de Fernando Henrique Cardoso. Em entrevista a Pesquisa FAPESP concedida em 2008, Vargas contou que recursos da privatização da Companhia Siderúrgica Nacional ajudaram a viabilizar projetos como o lançamento do Centro de Previsão de Tempo e Estudos Climáticos, vinculado ao Inpe, a transferência do Rio para Petrópolis das instalações do LNCC e a reta final da construção do Laboratório Nacional de Luz Síncrotron, em Campinas. Coube ao diplomata Ronaldo Sardenberg, titular no segundo mandato de Fernando Henrique Cardoso, e ao secretário-executivo da pasta, o engenheiro Carlos Américo Pacheco, a organização de um arranjo de financiamento que garantiu fontes estáveis de recursos para o FNDCT e o ministério. Foram criados os Fundos Setoriais de Ciência e Tecnologia – 16 ao todo, sendo 14 vinculados a segmentos da economia, como energia, saúde, biotecnologia, e dois de caráter transversal, voltados para projetos que promovem interação entre universidades e empresas e para a melhoria da infraestrutura de instituições científicas. Cada fundo foi abastecido por receitas específicas. O de energia, por exemplo, recebe entre 0,3% e 0,4% do faturamento de concessionárias do setor elétrico.
O objetivo dos fundos setoriais era complementar os repasses da União para o FNDCT, usando a maior parte dos recursos para financiar pesquisa de interesse de cada setor econômico. Na prática, o caráter setorial se descaracterizou e o dinheiro, em grande medida, foi usado para manter o funcionamento do ministério e seus projetos. Para completar, parte dos recursos com frequência acabou sendo contingenciada para financiar o pagamen-
Marcondes, em 2002
to da dívida pública. O contingenciamento dos fundos setoriais foi proibido pelo Congresso em 2021. “No período de Sardenberg, o MCTI ganhou sua feição definitiva, com os institutos de pesquisa vinculados à sua estrutura, e não mais à do CNPq, e também com a AEB e a CNEN”, explica Carlos Américo Pacheco, que atualmente é diretor-presidente do Conselho Técnico-Administrativo da FAPESP.
Outros ministérios mantêm órgãos e iniciativas ligados à pesquisa científica, como os da Agricultura, Educação, Saúde e Defesa, mas é atribuição do MCTI articular as ações do governo com as outras pastas e formular políticas federais. No ano passado, o ministério elaborou, com o apoio de especialistas, o Plano Nacional de Inteligência Artificial. A capacidade da pasta de influenciar políticas de Estado sempre teve limites, de acordo com o engenheiro Clelio Campolina Diniz, professor e ex-reitor da Universidade Federal de Minas Gerais e ministro entre março de 2014 e janeiro de 2015. “A política científica e tecnológica precisa ser vista em uma perspectiva de médio e longo prazo. Ela precisa estar compatibilizada com os objetivos gerais do Estado e articulada com as demais políticas setoriais e temáticas, a exemplo de indústria, agricultura, comércio exterior, educação e saúde”, diz Campolina.
O ex-ministro cita exemplos como os incentivos fiscais a empresas multinacionais na Zona Franca de Manaus. “Deveria haver a contrapartida de internalizar a pesquisa dessas empresas no Brasil, mas nunca houve essa exigência.” Também menciona a produção de soja transgênica até hoje dependente de sementes importadas. “A ciência brasileira está preparada para fomentar uma política nacional de produção de insumos.” Em sua passa -
Quinta Conferência Nacional de Ciência, Tecnologia e Inovação, realizada em Brasília em 2024: recomendações para um plano de 10 anos
gem pelo ministério, Campolina lançou um programa chamado Plataformas do Conhecimento, que buscava fomentar parcerias entre empresas e grupos de pesquisa para resolver desafios tecnológicos da indústria, mas não teve continuidade.
Antonio Videira, da Uerj, enxerga algumas dificuldades da pasta em produzir reflexões críticas que apontem caminhos novos para a ciência. “O ministério tem muitas atribuições e problemas práticos para resolver. Coordena unidades de pesquisa de áreas e ambições variadas, está sempre ocupado com questões orçamentárias e é chamado a responder a múltiplas pautas que vêm do governo e fora dele, de políticas de inclusão a planos para inteligência artificial. Vejo que às vezes fica meio perdido em meio a essas demandas e talvez não tenha condições de pensar uma política para a ciência de forma autônoma”, afirma. Embora aponte um saldo positivo nesses 40 anos, ele
Crianças em evento da Semana Nacional da Ciência, Tecnologia e Inovação, organizada pelo ministério desde 2004
lamenta que o desempenho do MCTI seja principalmente avaliado por um viés financeiro. “Quando o ministério está bem, é porque tem dinheiro – e quando está mal, é por que não tem. É preciso ampliar a perspectiva de análise. Se for restrita, ela dificulta o conhecimento de muitas ações e propostas do ministério. Falta uma discussão mais profunda sobre como a ciência pode apoiar melhor a sociedade e o desenvolvimento.”
O físico Sérgio Machado Rezende, ministro entre 2005 e 2010, rememora um episódio que marca, na sua avaliação, um momento alto da pasta: seu antecessor, o então deputado federal Eduardo Campos (1965-2014), assumiu o comando do ministério no início de 2004 e convocou os auxiliares a ajudá-lo a criar uma política de ciência e tecnologia do governo – Rezende, à época, dirigia a Finep. “Ele teve a clareza de que precisava formular uma política que articulasse as ações do ministério. Ficamos todos internados em Brasília durante três dias.”
Quando Rezende o substituiu, resolveu ir além. Em 2007 reuniu-se com diferentes setores da comunidade científica para formular o Plano de Ações para a Ciência e Tecnologia no período 2007-2010, que ficou conhecido como o PAC da Ciência e Tecnologia e foi executado. “É muito importante o ministério ter um plano discutido com a sociedade e os cientistas”, afirma Rezende – no ano passado, ele coordenou, a pedido do MCTI, a 5ª Conferência Nacional de Ciência, Tecnologia e Inovação, que produziu recomendações para uma estratégia nacional a serem publicadas em breve no chamado Livro violeta l
Manifestação de apoio à ciência e a institutos de pesquisa em Washington, em 7 de março
Incerteza no fomento à ciência
Pesquisadores vivem período de insegurança nos Estados Unidos com cortes de subsídios federais e demissões em agências governamentais
SARAH SCHMIDT
anos. No começo de março, 250 deles foram recontratados, segundo a Science
Não se conhece o volume total dos cortes em programas de pesquisa do país, porque ele segue mudando, segundo Carney, da AAAS, contou a Pesquisa FAPESP. “Uma parcela disso está em litígio, como os cortes ou reduções previstas nos custos indiretos dos NIH. E ainda não sabemos quais outras mudanças teremos no horizonte”, observa. “Parte do desafio é que nosso ano fiscal para gastos só termina em setembro. Não saberemos qual será o impacto geral desses cortes, seja no âmbito total em dólares ou no âmbito individual de bolsas, até lá.”
Embora esteja trabalhando no Brasil, a médica Ester Sabino, do Instituto de Medicina Tropical (IMT) da Faculdade de Medicina da Universidade de São Paulo (FM-USP), também foi afetada pelo congelamento dos recursos. Ela coordena um projeto que desenvolve novos métodos para diagnosticar e tratar a doença de Chagas, financiado pelos NIH em uma linha de apoio para doenças tropicais negligenciadas. Em janeiro, foi surpreendida ao não receber o pagamento do mês de despesas já realizadas, com exames e diagnósticos de pacientes, além de bolsas de pesquisadores, no valor de US$ 23 mil. “Fiz a solicitação da ordem de pagamento, uma espécie de reembolso, como de costume, e eles não pagaram nem deram explicações claras. Fiquei uns 20 dias aflita, sem saber como resolver o problema”, conta.
Sabino precisou suspender os trabalhos da pesquisa. Foi então que viu na imprensa a notícia de que a Justiça norte-americana havia suspendido o congelamento. “Submeti a ordem de pagamento novamente, e dessa vez pagaram janeiro e fevereiro”, diz. A pesquisadora está preocupada com o futuro do projeto, que acaba de encerrar o terceiro dos cinco anos previstos de duração. O orçamento anual varia de US$ 300 mil a US$ 400 mil. “Não fui informada se vão pagar o quarto ano, que começaria em abril.” Segundo ela, já ocorreu de haver cortes de 20% nos repasses, por conta de restrições orçamentárias dos NIH. “Nos organizamos e a pesquisa não parou. O problema é não saber o que vai acontecer”, explica Sabino, que procura outras possibilidades de financiamento.
Por conta desse cenário, no dia 7 de março, manifestações reuniram milhares de pessoas em cidades dos Estados Unidos e da Europa, como Paris e Viena, contra as medidas de cortes e demissões, no movimento conhecido como Stand Up for Science. Protestos desse tipo já haviam ocorrido também durante o mandato anterior do
presidente norte-americano, entre 2017 e 2021. A revista Science contou cerca de 30 manifestações pelo país, além de serem esperadas mais de 150 em outros países.
“Não é algo para resolver com um único evento”, disse Samantha Goldstein, da Universidade da Flórida, uma das organizadoras do Stand Up for Science, à Nature. O objetivo dos protestos é convencer os legisladores a impedirem os cortes do governo. O geneticista Francis Collins, ex- diretor dos NIH, foi um dos que discursaram na manifestação na capital norte-americana. “Estou preocupado com o meu país nesse momento”, disse Collins, segundo a revista Science. Ele liderou a agência por mais de uma década e se aposentou recentemente, após 32 anos de trabalho.
Em fevereiro, centenas de pessoas já haviam se reunido em frente ao Departamento de Saúde e Serviços Humanos do país para protestar contra cortes de financiamento e demissões em massa.
Segundo a Science, 47 sociedades científicas, associações e organizações, que representam quase 100 mil pesquisadores de diversas áreas, enviaram uma carta ao Congresso, organizada pela União de Cientistas Preocupados (UCS). O texto solicitava o restabelecimento do financiamento federal de pesquisas e a recontratação dos funcionários das agências científicas, além de pedir que “cientistas do governo se comuniquem livremente com o público e colegas internacionais e sejam interrompidos os ataques contra iniciativas de diversidade, equidade e inclusão na ciência”.
DIVERSIDADE E INCLUSÃO
Em outra frente, estudos financiados pelo governo que abordam temas relacionados a inclusão e identidade de gênero, bem como referências à comunidade LGBT+, deverão ser encerrados. Documentos e uma gravação de áudio obtidos pela Nature mostram que funcionários dos NIH foram instruídos a identificar e cancelar finan-
Francis Collins, ex-diretor dos NIH, discursa em manifestação na capital norte-americana: preocupação com o país
Ambiente degradado
Levantamento aponta as universidades e instituições em diferentes países que concentraram retratações de artigos e casos de má conduta científica
Um centro de saúde da província de Shandong, no leste da China, denominado Primeiro Hospital do Povo de Jining, foi o epicentro de um escândalo de má conduta científica no final de 2021. Uma investigação interna levou à punição de 35 pesquisadores de diferentes departamentos da instituição, na maioria jovens médicos, que publicaram estudos com dados e imagens fraudulentos produzidos por fábricas de papers, serviços ilegais que elaboram artigos sob demanda. Os autores foram proibidos de obter financiamento para seus projetos por períodos que variaram de cinco a seis anos. O episódio se tornou público em meio a um grande esforço do governo chinês para combater desvios éticos que se disseminaram nos últimos anos no ambiente acadêmico.
De fato, o caso do hospital não era um exemplo isolado no país, como mostrou uma reportagem publicada em fevereiro na revista Nature que apontou as instituições científicas de todo o mundo com maior
proporção de artigos retratados, ou seja, que foram invalidados após a publicação por conterem erros ou sinais de plágio ou fraude. Dos 10 centros que tiveram o maior percentual de papers cancelados em relação ao universo de sua produção científica, sete eram hospitais ou escolas médicas chinesas. O Primeiro Hospital do Povo de Jining aparece em primeiro lugar na lista, com mais de 100 retratações entre 2014 e 2024, o equivalente a 5% do total de trabalhos publicados por seus pesquisadores no período. Ele é seguido de perto por instituições como o Hospital Central de Cangzhou, na província de Hebei, o Hospital Huaihe da Universidade de Henan, em Henan, e o Hospital do Povo de Weifang, em Xantum, com cerca de 4% de produção cancelada, cada instituição.
A compra de artigos fraudulentos se tornou uma prática frequente em hospitais e escolas médicas chinesas como uma estratégia para cumprir metas ambiciosas estabelecidas para a ascensão profissional de médicos e docentes – a intensa competição entre pesquisadores e a supervisão negligente das instituições ajudam a compreender o fenômeno. “Os pesquisadores estavam sob pressão porque eram obrigados a publicar artigos para conseguir empregos ou promoções”, disse à Nature a microbiologista Elisabeth Bik, uma das primeiras especialistas em fraudes científicas a apontar o problema ao analisar casos de manipulação de imagens.
A revista compilou os dados sobre as instituições com mais artigos retratados por meio de três diferentes ferramentas criadas por empresas dos Estados Unidos e do Reino Unido: Argos, da empresa Scitility; Signals, da Research Signals; e Dimensions Author Check, da companhia Digital Science. Embora nem sempre gerem os mesmos resultados em razão de diferenças de metodologia, todas as três baseiam suas análises em informações do banco de dados do site Retraction Watch, que reúne registros de mais de 57 mil retratações no mundo.
A China é o principal destaque do levantamento. Seis em cada 10 artigos retratados entre 2014 e 2024 tinham autores de instituições chinesas e 0,3% da produção do país no período foram cancelados – três vezes mais do que a média global. Quando se analisa o número absoluto de papers invalidados, grandes instituições sobressaem, como as universidades Jilin, na província de Changchun (484 papers em 10 anos, segundo a ferramenta Signals), e a Shangai Jiao Tong, em Shangai, conhecida por produzir um consagrado ranking internacional de universidades (com 306 retratações na Signals).
Outros países, contudo, também se distinguiram, como Arábia Saudita, Índia, Iraque, Etiópia e Paquistão. Pesquisadores da Universidade Rei Saud, em Riad, na Arábia Saudita, amargaram 322 retratações entre 2020 e 2024, de acordo com a Signals. Em 2022 houve um pico de 94 artigos invalidados, em geral por manipulação da revisão por pares ou associação com
fábricas de papers – muitos tinham imagens adulteradas e, em alguns casos, houve acréscimo de nomes na lista de autores ao longo do processo de avaliação, expediente atribuído à comercialização de autoria.
A também saudita Universidade Rei AbdulAziz, em Jedá, teve 195 retratações nos quatro primeiros anos desta década. A instituição chamou a atenção por um episódio em sua Faculdade de Farmácia: 20 artigos do pró-reitor de Pesquisa da unidade, Nabil Alhakamy, foram cancelados por copiarem imagens e conteúdo de trabalhos anteriores do autor.
Universidades sauditas foram protagonistas de um desvio ético que não resultou em retratações: o expurgo de pesquisadores afiliados a elas da lista de cientistas altamente citados publicada pela empresa Clarivate Analytics. Algumas universidades do país pagavam a cientistas com alta produtividade acadêmica de diversas nacionalidades para dizer que o seu local principal de trabalho era a Arábia Saudita – quando na verdade eles passavam poucas semanas do ano por lá. O artifício garantia às instituições um desempenho melhor em rankings internacionais de universidades.
Instituições da Índia, com a Universidade Saveetha, em Chennai, e o Instituto de Ciência e Tecnologia SRM, em Kattankulathur, também se destacaram pelo número de artigos cancelados no período mais recente, entre 2020 e 2024, respectivamente com 168 e 199 retratações. Parte delas, no caso da Saveetha, envolveu short communications, manuscritos com no máximo 3 mil palavras usados para disseminar rapidamente uma ideia ou a conclusão de um trabalho científico –apenas no periódico Neurosurgical Review, 87 textos apresentados por autores da instituição indiana foram invalidados ante evidências de que haviam sido escritos por programas de inteligência artificial como o ChatGPT. Outra universidade da Índia, o Instituto de Engenharia e Tecnologia (KPR), em Coimbatore, amargou mais de 100 retratações ligadas à decisão de uma editora, a IOP Publishing, de cancelar de uma só vez 350 artigos de dois volumes de anais de conferências que tiveram a revisão por pares corrompida.
A reportagem da Nature sugere cautela ao analisar os rankings e alerta que a exposição de instituições com muitas retratações pode ser produto do empenho de governos, universidades, periódicos e certas áreas do conhecimento em investigar casos de má conduta: onde não houve tanta disposição para apurar possíveis violações, talvez elas apenas não tenham vindo à tona. Algumas instituições e disciplinas com baixas taxas de retratação podem ter alcançado esse desempenho porque evitaram investigar seus problemas, afirmou Guillaume Cabanac, cientista da computação da Universidade de Toulouse, na França, que criou ferramentas para detectar artigos problemáticos. l FABRÍCIO MARQUES
Acusados de assédio sexual perdem mais citações que os denunciados por má conduta científica, diz estudo
Pesquisadores denunciados por assédio sexual amargam uma redução no número das citações de seus artigos nos três anos seguintes às acusações. A queda é mais significativa do que a sofrida por pesquisadores responsabilizados por má conduta científica, como plágio ou fraude, concluiu um estudo publicado na revista PLOS ONE. Seus autores, liderados por Giulia Maimone, da Escola de Administração da Universidade da Califórnia em Los Angeles, Estados Unidos, analisaram as citações de 30 cientistas. Quinze enfrentaram denúncias de assédio sexual, caso do astrofísico Geoffrey
Marcy. Incriminado por tocar e beijar quatro alunas, renunciou ao cargo de docente da Universidade da Califórnia em Berkeley, em 2015.
Os outros 15 nomes protagonizaram casos de má conduta científica – um deles foi o especialista em nutrição Brian Wansink, demitido da Universidade Cornell em 2019 quando se descobriu que ele manipulava estatísticas para produzir estudos que chegavam a conclusões curiosas e atraíam a atenção da mídia. Foram avaliadas as tendências de citação dos denunciados nos 10 anos anteriores aos escândalos e nos três anos seguintes. O comportamento da produção científica de um terceiro conjunto de cientistas –142 pesquisadores com perfil semelhante ao dos acusados, mas que não se envolveram com violações éticas – foi usado como parâmetro de comparação.
A trajetória de citações do grupo do assédio teve um declínio visível em números absolutos e na comparação com o grupo de controle, mas, no caso dos envolvidos com má conduta científica, a redução foi
pequena e quase sem significância estatística. Maimone disse à revista Science que ficou surpresa com o resultado, pois previa que os fraudadores sentiriam um impacto maior. Uma explicação para o achado, na sua avaliação, é que os acusados de assédio sofreriam uma reprovação moral imediata, enquanto os que violaram a integridade científica levariam mais tempo para perder citações porque investigações podem ser demoradas. Lisa Rasmussen, editora-chefe do periódico Accountability in Research, afirmou à Science que pode existir uma percepção na comunidade científica de que há mais recursos para punir os fraudadores, como retratar seus artigos, do que os importunadores sexuais – não os citar seria uma forma de tentar equilibrar a balança. Susan Feng Lu, da Universidade de Toronto, no Canadá, tem outra hipótese. Segundo ela, os acusados de má conduta sexual haviam recebido mais citações nos anos anteriores às denúncias do que o grupo de controle e a reação pode ter sido mais aguda contra eles porque eram famosos e conceituados.
Editores de periódico se rebelam contra editora, anunciam renúncia em massa e criam nova revista
Doze editores do Journal of Clinical Immunology (JoCI ), da empresa Springer Nature, renunciaram a seus cargos para criar um novo periódico, o Journal of Human Immunity, ligado à editora da Universidade Rockefeller, nos Estados Unidos. O geneticista Jean-Laurent Casanova, que abandonou o posto de coeditor-chefe do JoCI, explicou ao site Retraction Watch que o grupo estava insatisfeito com a pressão da Springer Nature para aumentar o volume de artigos publicados em meio ao processo para implantar o modelo de acesso aberto no título.
Os desentendimentos não são novos. Até 2022, o periódico era um órgão ofi-
cial da Sociedade de Imunologia Clínica (CIS), organização de pesquisadores sediada nos Estados Unidos, que, no entanto, rompeu o vínculo com a revista e o contrato que mantinha com a Springer Nature, afirmando que a editora não conseguiu chegar a um acordo que “honrasse e valorizasse o papel e a participação da CIS no JoCI ”. Segundo Casanova, a briga se acirrou depois que a empresa impediu sociedades científicas de participarem do processo de escolha de novos editores.
A Springer Nature não se pronunciou sobre a renúncia. No novo periódico, que terá Casanova como editor-chefe, a taxa de processamento de artigos, quantia que os autores pagam para publicar um paper, será de US$ 3,5 mil (R$ 20 mil), ante os U$ 5 mil (R$ 28,8 mil) cobrados pelo JoCI. A editora da Universidade Rockefeller divide a propriedade do Journal of Human Immunity com a Aliança Internacional de Sociedades de Imunodeficiência Primária, que receberá parte dos rendimentos que forem gerados pela publicação. “O dinheiro pago para publicar artigos na revista vai retornar ao nosso campo do conhecimento”, disse Casanova.
CONTEÚDO EXTRA
Conhece a nossa newsletter de integridade científica?
Acesse o QR Code para assinar nossas newsletters
dados Orçamento executado pelo MCTI mostra expressivo aumento entre 2020 e 2024
Orçamento empenhado: 2020 a 2024
➔ Entre 2020 e 2024, o orçamento empenhado pelo Ministério da Ciência, Tecnologia e Inovação (MCTI), exclusive atividades-meio, acumulou crescimento de cerca de 160%, em termos nominais, ao passar de R$ 3,4 bilhões1 para R$ 8,7 bilhões. Em termos reais2, o aumento superou 100% no período
➔ Tal desempenho refletiu a maior execução da parcela não reembolsável do Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT), que, a preços correntes, variou de R$ 928 milhões para R$ 6,4 bilhões, no período, representando crescimento nominal superior a 580% e variação real de 430%
➔ Em contraste, o orçamento empenhado pelo conjunto das demais unidades orçamentárias do MCTI retraiu-se nominalmente em 5%
Arrecadação do FNDCT: 2020 a 2024
➔ Ou seja, o FNDCT recuperou sua capacidade de investimento, refletindo, de um lado, os efeitos da Lei Complementar nº 177/2021, que vedou a imposição de qualquer limite a sua execução orçamentária e financeira e, de outro, o aumento nominal (superior a 130%) de sua arrecadação, que inclui os recursos das diversas fontes dos fundos setoriais e os retornos das operações de crédito da Finep
➔ Exemplo dessa recuperação foi o desempenho da ação orçamentária “Fomento a projetos de implantação, recuperação e modernização da infraestrutura de pesquisa das instituições públicas (CT-Infra)”, cuja execução orçamentária não atingiu R$ 30 milhões em 2020, mas superou R$ 1,9 bilhão, em 2024
NOTAS (1) FOI DESCONSIDERADO EM 2020 O VALOR EXECUTADO PELAS UNIDADES ORÇAMENTÁRIAS DO MINISTÉRIO DAS COMUNICAÇÕES, QUE AINDA INTEGRARAM NESSE ANO O ORÇAMENTO DO MCTI (2) VALORES CORRIGIDOS PELO IPCA
FONTES PRIMEIRO GRÁFICO: SISTEMA INTEGRADO DE ORÇAMENTO E PLANEJAMENTO – SIOP. EXTRAÇÃO EM 10/03/2025 (HTTPS://WWW.SIOP.PLANEJAMENTO.GOV.BR/MODULO/LOGIN/INDEX.HTML#/); SEGUNDO GRÁFICO: (I) MCTI, PARA 2020 A 2024. EXTRAÇÃO EM 10/03/2025 (HTTPS://WWW.GOV.BR/MCTI/PT-BR/ACOMPANHE-O-MCTI/FNDCT/PAGINAS/ARRECADACAO); E (II) SIGABRASIL/SENADO FEDERAL, PARA 2024. EXTRAÇÃO EM 10/03/2025, A PARTIR DO ARQUIVO “LOA
Grande Nuvem de Magalhães
Pequena Nuvem de Magalhães
fazem referência às constelações em que as galáxias se inserem, respectivamente, Aquário e Leão.
Aquarius III e Leo VI são duas galáxias anãs satélites da Via Láctea. Como a Lua em relação à Terra, elas orbitam em torno da Via Láctea, que é formada por uma população estimada entre 100 bilhões e 400 bilhões de estrelas. A força gravitacional decorrente da enorme massa de nossa galáxia atrai e as mantém ao seu redor. Até o início deste século, os astrofísicos conheciam 11 galáxias anãs consideradas satélites da Via Láctea. Nas duas últimas décadas, a entrada em operação de telescópios e instrumentos de observação mais
potentes e sensíveis tem permitido a identificação de galáxias menores e mais tênues ao redor da Via Láctea. Com a descoberta de Aquarius III e Leo VI, esse número chega a 65, das quais 51 tiveram esse status confirmado (veja na figura acima a localização dessas galáxias em relação ao plano da Via Láctea).
“Estudar as galáxias anãs é uma forma de tentar entender a formação e a evolução da Via Láctea”, diz o astrofísico Guilherme Limberg, um dos autores dos dois artigos. “A Aquarius III é a menor galáxia satélite conhecida da Via Láctea e uma das menores galáxias descobertas.” Em outubro de
Montagem mostra o plano da Via Láctea e a localização de mais de 50 galáxias anãs satélites
Satélites da Via Láctea
Leo VI
Estrelas relativamente esparsas formam a Galáxia Anã do Escultor, um satélite
2024, quando era bolsista da FAPESP, ele defendeu tese de doutorado sobre o tema no Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP) e agora faz estágio de pós-doutorado no Instituto Kavli de Cosmologia Física da Universidade de Chicago, nos Estados Unidos.
Ainteração da Via Láctea com essas galáxias anãs satélites é um dos pontos que mais interessam aos pesquisadores. “Por exemplo, sabemos que a galáxia anã Esferoidal de Sagitário está sendo, aos poucos, engolida pela nossa”, comenta o astrofísico Clécio De Bom, do Centro Brasileiro de Pesquisas Físicas (CBPF), outro participante da colaboração Delve e coautor dos dois artigos. No caso da Aquarius III, há sinais de que ela será um dia destruída em razão das forças de maré da Via Láctea, um efeito secundário da grande força gravitacional de nossa galáxia que pode despedaçar corpos celestes. Por ora, os dados disponíveis ainda não permitem predizer se a Leo VI terá esse mesmo fim.
Qualquer galáxia de porte razoável entre as bilhões que existem em todo o Universo pode ser circundada por galáxias anãs satélites. As três maiores galáxias do chamado Universo Local (Andrômeda, a Via Láctea e a do Triângulo) são rodeadas por congêneres menores. O Universo Local é a vizinhança cósmica da Terra, região do espaço com um raio de aproximadamente 1 bilhão
de anos-luz, 20 mil vezes maior do que o da Via Láctea. Apesar de o nome remeter a formações estelares pequenas, as galáxias anãs satélites surgem em uma diversidade de tamanhos. Algumas apresentam dimensão considerável.
Esse é o caso das duas Nuvens de Magalhães, a Grande e a Pequena. Como a Aquarius III e a Leo VI, são classificadas como galáxias satélites anãs da Via Láctea, embora sejam muito maiores do que as duas estruturas descobertas neste ano.
A massa estimada da Grande Nuvem de Magalhães, que abriga cerca de 10 vezes mais estrelas que sua irmã menor, representa entre 10% e 20% a da Via Láctea. As duas nuvens são tão grandes que, a exemplo da Via Láctea, podem ser vistas a olho nu no hemisfério Sul. São conhecidas pelos povos originários da América do Sul desde tempos imemoriais e pelos europeus após a época dos Descobrimentos.
A maior parte das galáxias anãs satélites tem um formato difuso, não muito definido. Elas quase nem parecem ser uma concentração de estrelas.
Em suas manifestações mais evidentes, exibem um leve halo de cor mais densa em seu centro, pontuado por algumas estrelas mais brilhantes. De muitas galáxias anãs, como as duas galáxias satélites recém-descobertas da Via Láctea, não há imagens nítidas. Geralmente, em nada se assemelham à beleza das grandes espirais, como a Via Láctea, com um bojo central mais denso e dois braços estelares.
GALÁXIA OU AGLOMERADO ESTELAR?
As duas novas galáxias anãs satélites foram identificadas inicialmente pela Dark Energy Camera (DECam), uma potente câmera instalada no telescópio Blanco, em Cerro Tololo, nos Andes chilenos. Desde 2012, a DECam tem sido usada em mapeamentos do céu austral, como o Dark Energy Survey (DES), e mais recentemente na colaboração Delve. Uma vez observada uma estrutura com potencial para ser classificada como uma galáxia anã satélite da Via Láctea, os astrofísicos têm de eliminar uma dúvida incômoda. Conjuntos de uns poucos milhares de estrelas podem formar um pequeno aglomerado (cluster) estelar, uma estrutura mais simples, ou uma diminuta galáxia anã, uma formação mais complexa.
A maneira de diferenciar um tipo de estrutura de outro é olhar para características de sua população de astros. “As estrelas dos aglomerados foram formadas simultaneamente, a partir de um evento único ocorrido em uma nuvem de gás e poeira”, explica Limberg. “Elas têm a mesma composição química e história evolutiva.” Em uma galáxia, as estrelas tendem a ser mais diversas, provenientes de mais de um episódio formativo, com idade e composição mais variadas.
da Via Láctea
Para descobrir se há mais de uma geração de estrelas, os pesquisadores precisam determinar o grau de metalicidade de alguns corpos celestes da candidata a galáxia. Grosso modo, quando há estrelas com diferentes níveis de conteúdo metálico, isso quer dizer que se trata de uma galáxia, formada por distintas populações de astros. Em um aglomerado de estrelas, a metalicidade é a mesma entre seus astros. Afinal, nesse caso, todas as estrelas surgiram ao mesmo tempo.
Ametalicidade de seis estrelas da galáxia Aquarius III e de nove da Leo VI foi determinada a partir de medições feitas pelo espectrógrafo do Observatório Keck, no Havaí. Esse instrumento decompõe a luz de estrelas em seus diferentes comprimentos de onda, o que permite deduzir sua composição química. A estrela mais brilhante de Aquarius III apresentou características químicas similares às de estrelas raras encontradas no halo da Via Láctea.
“Isso é bem interessante”, comenta o astrofísico brasileiro Vinicius Placco, do NOIRLab, centro de pesquisa mantido pela agência norte-americana National Science Foundation (NSF). “Mas precisamos de medidas em alta resolução para confirmar essas abundâncias químicas e, assim, poder especular sobre a origem da estrela.” Placco é um dos autores do artigo sobre a Aquarius III e também participa do mapeamento Delve. Nos estudos, os astrofísicos ainda fornecem dados sobre o movimento e a localização de cerca de 10 estrelas de cada galáxia anã a partir de observações com o telescópio espacial europeu Gaia.
A descoberta de mais de 50 galáxias anãs satélites da Via Láctea nos últimos 20 anos reduz um ponto de atrito entre a teoria e as observações astronômicas. Segundo os modelos cosmológicos, a Via Láctea e outras galáxias similares deveriam ter muitas galáxias anãs em sua órbita, da ordem de centenas desses satélites. Essas previsões derivam da constatação de que 85% da matéria do Universo é composta pela misteriosa matéria escura fria, invisível e de natureza desconhecida. Os outros 15% são feitos de matéria bariônica, normal, que dá forma às estruturas visíveis do Cosmo.
A existência da matéria escura é deduzida a partir de seu efeito gravitacional sobre a conformação dos objetos celestes. A gravidade produzida pela matéria normal é incapaz de explicar a interação entre as estruturas visíveis do Cosmo e sua distribuição. Logo, em comparação com a matéria normal, é preciso haver uma quantidade quase seis vezes maior de um tipo desconhecido de matéria, a escura, para explicar o Universo conhecido.
A teoria prevê a existência de sub-halos de matéria escura no entorno de grandes galáxias, como a Via Láctea, que levariam à formação de estrelas e ao surgimento de muitas galáxias anãs satélites. É verdade que essas pequenas estruturas são difíceis de serem observadas, obstáculo que apenas recentemente começa a ser vencido. “Nos últimos seis anos, o projeto Delve descobriu seis galáxias anãs orbitando a nossa galáxia”, diz De Bom. “Mas o problema da falta de galáxias satélites ainda não foi totalmente resolvido por nós nem por qualquer outra iniciativa.” l
Grande (acima) e Pequena Nuvem de Magalhães
Áreas em vermelho mais escuro representam os pontos da América do Sul em que as temperaturas foram iguais ou superiores a 38 oC em 18 de fevereiro de 2025, durante onda de calor. A figura foi produzida a partir de observações por satélite e modelagem climática
Mais frequentes, intensas e duradouras
Aquecimento global amplifica ondas de calor, que podem assolar cidades brasileiras até 15 vezes ao ano
MARCOS PIVETTA
As ondas de calor estão se tornando mais frequentes, mais intensas e mais duradouras. É assim em praticamente todo o mundo e a América do Sul e o Brasil não são exceção. Artigo publicado em fevereiro deste ano na revista Frontiers in Climate produziu uma série de indicadores que dão uma medida da escalada desse tipo de evento extremo no Brasil, Paraguai, nordeste da Argentina e sul da Bolívia. A partir de dados dos serviços meteorológicos nacionais, os pesquisadores calcularam a incidência, a potência e a duração das ondas de calor em 10 cidades, cinco delas do Brasil (Manaus, Rio Branco, Brasília, Cuiabá e São Paulo), no período entre 1979 e 2023. Em todas as localidades, esse tipo de evento apresentou viés de alta em 2023, o segundo ano mais quente no planeta desde meados do século XIX, período considerado como representativo da era pré-industrial. Por dias, as temperaturas atingiram picos entre 35 graus Celsius (ºC) e 40 ºC. Das cidades brasileiras analisadas no trabalho, Manaus, Rio Branco e Brasília foram as que apresentaram indicadores com maior aumento em termos de incidência do fenômeno climático. Nas capitais do Amazonas e do Acre, houve, respectivamente, 17 e 22 ondas de calor em 2023, praticamente o dobro da média anual registrada ao longo dos 45 anos do estudo. Na capital federal, a frequência dos episódios de calor elevado e persistente quase triplicou. No ano retrasado, houve 17 ondas de calor, ante uma média histórica de 5,9 eventos por ano. Em 2023, Cuiabá teve 14 ondas, São Paulo, 15, respectivamente, dois e três episódios extras em relação à média anual observada durante o quase meio século de dados produzidos pelo trabalho (ver quadro sobre as cidades brasileiras na página 50). Em quatro das outras cinco cidades sul-americanas (a argentina Las Lomitas, a paraguaia Mariscal Estigarribia, e as bolivianas San Ignacio de Velasco e San Jose de Chiquitos), a
incidência de ondas de calor foi ainda maior, com pelo menos 23 eventos desse tipo em 2023.
“As ondas de calor são um fenômeno natural, mas as mudanças climáticas aumentam sobretudo sua intensidade e duração”, diz o climatologista José Marengo, do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden), principal autor do artigo. Em 2023, os eventos prolongados de calor extremo se estenderam por um mínimo de 4,7 dias em Brasília e 7,4 dias em Manaus, valores acima da média histórica das duas cidades, que era igual e se situava em 4,2 dias. Marengo está terminando um estudo semelhante, agora com dados de 2024, o ano mais quente da história recente, e os resultados apontam, como era de se esperar, na mesma direção. O sexto relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC), de 2021, indica que a intensidade e a frequência de dias mais quentes, inclusive das ondas de calor, estão aumentando desde os anos 1950 em escala global (os dias de frio acentuado estão diminuindo). Essa tendência é clara em mais de 80% do planeta. Alguns trabalhos recentes sugerem que a América do Sul está entre as regiões mais suscetíveis à escalada dos eventos extremos de calor. Estudo publicado em abril de 2024 na Nature Reviews Earth & Environment mostra, por exemplo, que o continente, especialmente sua porção centro-norte, foi a área de terra firme do planeta que mais registrou ondas de calor em 2023. Essa parte da América do Sul teve entre 110 e 150 dias expostos a ondas de calor, mais de três vezes a média anual do período entre 1990 e 2020. A África foi o segundo continente com mais ondas de calor no ano retrasado. Na América do Sul, durante esses dias seguidos de calor intenso em 2023, as temperaturas estiveram entre 0,5 ºC e 1 ºC acima do esperado no Peru, norte da Bolívia e Brasil, segundo o estudo. No Chile, no sul da Bolívia, Paraguai e Argentina, o aumento foi maior, entre 1 ºC e 3 ºC. “No Brasil, as áreas mais expostas às ondas de calor, inclusive
no inverno e no início da primavera, foram a Amazônia, parte do Pantanal e o Sudeste”, comenta a climatologista Renata Libonati, coordenadora do Laboratório de Aplicações de Satélites Ambientais do Departamento de Meteorologia da Universidade Federal do Rio de Janeiro (Lasa-UFRJ). “A situação foi ainda pior em 2024.” Ao lado de pesquisadores de outros continentes, a brasileira foi uma das autoras do artigo e, nesse momento, finaliza um novo trabalho, com a mesma equipe internacional, com dados de 2024.
Um dia muito quente, ainda que acima do esperado, não configura uma onda de calor. Embora não haja consenso absoluto sobre como definir esse tipo de fenômeno extremo, um ponto em comum de todas as abordagens é que uma onda de calor deve apresentar temperaturas muito acima da média histórica, ou de algum outro valor de referência, durante pelo menos três dias consecutivos. Algumas definições são mais rígidas na questão da duração e adotam cinco dias seguidos de temperaturas muito elevadas como o mínimo necessário para caracterizar o fenômeno. Vários estudos científicos, como o da Frontiers in Climate, usam o conceito de onda de calor como sendo um período de ao menos três dias seguidos com temperatura máxima superior a 90% dos registros históricos ao longo de um período de 30 anos de uma localidade. Às vezes, o valor da temperatura mínima diária também é levado em conta para classificar esse tipo de evento extremo. “Por essa definição, não há um número mágico que nos
Evolução das ondas de calor
permita dizer que há uma onda de calor sempre que a temperatura se mantém, por exemplo, 4 °C acima de um certo valor”, comenta Marengo. Os serviços nacionais de meteorologia e de clima tendem a usar um conceito de onda de calor diferente do empregado pelos trabalhos científicos. “Adotamos a norma da Organização Meteorológica Mundial (WMO), em que uma onda de calor se configura pela persistência, ou seja, ocorre quando as temperaturas máximas diárias ultrapassam em pelo menos 5 °C a média mensal durante, no mínimo, cinco dias consecutivos”, explica a meteorologista Danielle Barros Ferreira, do Instituto Nacional de Meteorologia (Inmet). “Por exemplo, a média da temperatura máxima na cidade de São Paulo no mês de fevereiro é de 29 ºC. Portanto, para um evento ser uma onda de calor é necessário que as temperaturas máximas permaneçam no mínimo cinco dias com valores de 34 ºC ou mais.” A média da temperatura máxima é calculada a partir da chamada normal climatológica, um período de 30 anos considerado como representativo das condições atmosféricas recentes de uma região. No caso do Inmet, que passou a contabilizar ondas de calor apenas em janeiro de 2023, a normal climatológica atual abrange o período de 1991 a 2020.
As diferentes definições do conceito de onda de calor explicam números discrepantes entre estudos que tentam flagrar a dimensão desses eventos extremos e, por vezes, limitam a comparação de seus resultados. A ausência de séries históricas mais prolongadas e buracos nos dados existentes também dificultam determinar com precisão qual era a frequência e a intensidade
Perfil desses eventos extremos em cinco capitais brasileiras entre 1979 e 2023
Número de ondas de calor
Duração média de ondas de calor (em dias)
Maior temperatura atingida durante onda de calor em 2023 (em oC)
Manaus Rio Branco Brasília Cuiabá São Paulo Manaus Rio Branco Brasília Cuiabá São Paulo
Manaus Rio Branco Brasília Cuiabá São Paulo
Distribuição de água na Cinelândia, no Rio de Janeiro, durante onda de calor em fevereiro deste ano, e chafariz em dia quente de novembro de 2023 no Vale do Anhangabaú, em São Paulo
desse fenômeno no passado mais remoto. Um relatório divulgado no fim de 2023 pelo Instituto Nacional de Pesquisas Espaciais (Inpe) é um dos poucos trabalhos que analisaram as ondas de calor no Brasil ao longo de um período mais longo, de 60 anos. O trabalho adotou uma metodologia semelhante à descrita no artigo coordenado por Marengo, mas definiu uma onda de calor como um período mais longo, com pelo menos seis dias seguidos com temperaturas máximas elevadas.
Apartir de dados de 1.252 estações meteorológicas espalhadas pelo país, o estudo do Inpe concluiu que houve, entre 1961 e 1990, uma média de 7 dias por ano com ondas de calor no Brasil. Entre 2011 e 2020, o número subiu para 52 dias por ano. “Ao longo das últimas décadas, houve um aumento gradual das ondas de calor em praticamente todo o Brasil”, comenta o climatologista Lincoln Muniz Alves, do Inpe, um dos autores do trabalho. “Apenas a região Sul, a metade sul do estado de São Paulo e o sul de Mato Grosso do Sul não apresentaram essa tendência.” O mecanismo central que gera, por dias, temperaturas muito acima do esperado é conhecido. É o chamado bloqueio atmosférico. Um sistema de alta pressão, que empurra o ar de cima para baixo, fica parado por dias sobre uma região e altera toda a circulação atmosférica local. A anomalia impede a penetração de frentes frias, que normalmente trazem chuvas. “Uma bolha de ar quente se forma sobre essa área”, compara o meteorologista Tércio Ambrizzi, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP). “Nessas condições, é comum ocorrer o que chamamos de um evento extremo composto, com uma onda de calor associada a uma seca prolongada.”
O aquecimento global aumenta a ocorrência de bloqueios atmosféricos em certas regiões do
planeta. Isso em parte explica a disseminação das ondas de calor. Há também fatores regionais, como o fenômeno El Niño, uma oscilação natural e periódica do clima caracterizada pelo aquecimento anormal das águas superficiais da porção centro-leste do oceano Pacífico. O El Niño eleva as temperaturas na América do Sul e altera o padrão de chuvas. Em 2023, quando apareceu com força, o fenômeno foi apontado como uma das causas das grandes secas e do calorão na Amazônia naquele ano. O grau de urbanização de uma região também favorece a ocorrência de eventos extremos ligados a altas temperaturas. Cidades tomadas por concreto, cimento e asfalto são mais quentes do que zonas rurais e trechos permeados por áreas verdes. Esse é o conhecido efeito ilha de calor.
Os episódios prolongados de temperaturas extremamente elevadas não causam apenas desconforto térmico. Provocam também prejuízos econômicos e sociais. No início deste ano, por exemplo, aulas escolares foram interrompidas por alguns dias em Porto Alegre e no Rio de Janeiro devido a temperaturas persistentes na casa dos 40 ºC. “Não estamos preparados para lidar com as ondas de calor, ainda mais por sermos um país tropical, em que parece natural ou normal os dias serem quentes”, comenta Libonati. “Mas as ondas de calor têm um efeito silencioso e podem levar à morte, sobretudo crianças, idosos e gestantes.”
Não há perspectiva de esse cenário mudar tão cedo. Os últimos 10 anos, de 2015 a 2024, foram os 10 mais quentes desde que começaram as medidas sistemáticas da temperatura média do planeta, em meados de século XIX. Durante todo o ano passado, o aquecimento global foi, pela primeira vez na história recente, 1,5 ºC maior do que o valor de referência do período pré-industrial. Nesse contexto, mais e mais fortes as ondas de calor são esperadas. “Temos de limitar o aquecimento global e minorar o máximo possível os efeitos dessa situação”, pondera Marengo. l
Desafiando convicções
Na serpente, o estímulo para a contração da musculatura dos vasos – e a consequente flacidez peniana – não vinha do sistema nervoso simpático, constataram os pesquisadores ao tratar o tecido com tetrodotoxina, um composto extraído do peixe baiacu. Nos mamíferos, a tetrodotoxina bloqueia a ação dos nervos e os impede de liberar catecolaminas, o que, nessa situação, manteria o pênis rijo. Na cascavel, porém, a contração dos vasos ocorria, causando a perda da ereção, mesmo com os nervos bloqueados, como mostrou o grupo em 2017 em um artigo na PLOS ONE. Era uma indicação de que a ordem para a contração vascular vinha de outro lugar.
Usando anticorpos, os pesquisadores localizaram no endotélio do corpo cavernoso da cascavel, o cilindro de tecido erétil no interior do pênis, a enzima responsável por produzir um precursor da dopamina, catecolamina que também causa contração muscular. “A capacidade de contração desapareceu quando repetimos os experimentos depois de remover o endotélio do corpo cavernoso”, contou De Nucci, que também é professor da Universidade de São Paulo (USP), no almoço de 2024.
O mesmo efeito foi observado nos testes com o corpo cavernoso e a artéria aorta da cobra-do-milho (Pantherophis guttatus), da jararaca (Bothrops sp.) e do jabuti-piranga (Chelonoidis carbonaria). A capacidade de contrair a musculatura vascular desaparecia com a remoção do endotélio e a eliminação da dopamina.
Àquela altura, os pesquisadores pensavam que a síntese de dopamina pelo endotélio fosse uma peculiaridade dos répteis. Eles haviam procurado a enzima tirosina hidroxilase, que gera o precursor da dopamina, no corpo cavernoso dos saguis, mas não a tinham encontrado – ela estava só nos nervos simpáticos –, embora, anos antes, pesquisadores da Itália tivessem registrado a produção de catecolaminas por células do endotélio da aorta bovina cultivadas sob condições especiais.
O cenário começou a mudar com a chegada do farmacologista José Britto Júnior ao grupo. Na entrevista para o doutorado, em 2018, ele propôs: “Por que não estudar os vasos do cordão umbilical humano? É um tecido sem inervação e fácil de obter, descartado após o parto”.
Já nos primeiros testes, os pesquisadores viram que a dopamina estava no endotélio da artéria e da veia do cordão umbilical e que ela desaparecia quando essa camada de células era removida. Eles notaram ainda que o poder dessa catecolamina de induzir a contração da musculatura dos vasos aumentava quando, mesmo com o revestimento íntegro, bloqueavam a síntese de NO.
O resultado, publicado em 2020 na Pharmacology Research & Perspectives, levou à nova alteração de rumo. Em uma reunião do grupo, o farmacologista Edson Antunes, da Unicamp, apresentou a dúvida: “Se o endotélio produz NO e dopamina, será que não se combinam?”.
Não se sabia, embora fosse possível. Mais de 20 anos antes, um grupo da Universidade Federico II, na Itália, havia misturado em laboratório catecolaminas e NO e obtido um composto derivado, que se imaginava ser tóxico. Na mesma época, pesquisadores da Universidade Keio, no Japão, identificaram no cérebro de ratos uma forma de noradrenalina que incorporava o NO, a 6-nitronoradrenalina.
Modulada por catecolaminas, a contração de ductos do aparelho genital provoca a ejaculação
De Nucci foi atrás de indústrias químicas que sintetizassem esse tipo de material e encontrou uma no Canadá. Importou amostras de 6-nitrodopamina (6-ND), uma combinação de dopamina e NO, que Britto e outros integrantes da equipe usaram para calibrar o espectrômetro de massas, aparelho que separa e quantifica moléculas a partir de sua massa atômica, e testar os compostos extraídos do endotélio dos vasos umbilicais. Bingo. A 6-nitrodopamina estava lá, como revelou o grupo em 2021 em um artigo na Life Sciences.
Mais, a concentração de 6-ND diminuía quando os pesquisadores bloqueavam a síntese de NO, indicando que ele participava da rota bioquímica que a produz – mais tarde o grupo veria que essa é a via principal, responsável por 60% a 70% da 6-ND liberada pelo endotélio, e que há outra.
“A ideia de que as catecolaminas também são liberadas pelos vasos é atraente porque o endotélio está em contato com o sangue e bem situado para sentir a sinalização metabólica e mudanças de tensão da circulação”, afirmou a Pesquisa FAPESP o biólogo e fisiologista Tobias Wang, da Universidade Aarhus, na Dinamarca, colaborador recente da equipe da Unicamp. “Como essa proposta é provocativa, ainda é vista com ceticismo.”
Nos testes de contração e relaxamento dos vasos, Britto Júnior observou que o efeito da 6-ND se contrapunha ao da dopamina: enquanto esta promovia contração, aquela bloqueava. Aparentemente, nos vasos, ambas competem para se conectar a um mesmo receptor, o D2, que dispara a ação de contração da dopamina. Quando a 6-ND se liga ali, esse efeito é bloqueado.
“É possível ainda que a 6-nitrodopamina se ligue no mesmo receptor que a dopamina, mas em um local diferente, o que permitiria explicar a potencialização dos efeitos da dopamina em algumas situações”, propõe a biomédica e farmacologista Regina Markus, da USP, que não participou dos estudos.
Após esse achado, o grupo de Campinas passou a medir o nível da 6-nitrodopamina e a caracterizar sua ação em outros vasos e órgãos de répteis e mamíferos. Testes com veias e artérias confirmaram o poder da 6-ND de atenuar a contração disparada pela dopamina. Experimentos com ratos anestesiados mostraram também que ela é produzida no interior das câmaras do coração (átrios e ventrículos) em maior quantidade do que as catecolaminas clássicas. A 6-ND também se mostrou de 100 a 10 mil vezes mais potente do que elas.
No átrio, responsável pelo ritmo cardíaco, ela aumenta a frequência de contração. Já no ventrículo, a força de bombeamento do sangue. Seu efeito também é bem mais prolongado: dura até 1h, enquanto o das outras, usadas em emergências para tratar parada cardíaca, desaparece em minutos. “A 6-nitrodopamina”, conta Britto Júnior, “também potencializa o efeito das outras catecolaminas, o que, em princípio, poderia permitir usá-las em doses mais baixas que as atuais”.
Para De Nucci, os resultados mostram como os vasos sanguíneos e o coração são capazes de se autorregular. Caso ocorra de fato, esse efeito
ajudaria a explicar por que quem passa por transplante de coração e pulmão consegue manter o ritmo cardíaco e a pressão arterial semelhante aos das pessoas saudáveis – no transplante, a inervação desses órgãos é eliminada.
“Minha impressão é que os efeitos vasculares da 6-nitrodopamina podem influenciar a autorregulação do fluxo sanguíneo em nível local e regional, atuando nos capilares, vasos sem inervação”, comenta o fisiologista cardiovascular Ruy Campos Júnior, da Universidade Federal de São Paulo (Unifesp), que investiga o papel da hipertensão nas doenças renais e não participou dos estudos. “O desafio é ir além dos experimentos e entender o papel dela no controle do coração em condições fisiológicas”, afirma.
“Os resultados indicam, de fato, que essas nitrocatecolaminas existem na parede vascular e podem desempenhar algum papel, mas ainda não permitem saber qual o peso delas no controle do relaxamento dos vasos in vivo”, avalia o cardiologista Francisco Laurindo, do Instituto do Coração (InCor) da USP, especialista no funcionamento do sistema vascular.
A 6-nitrodopamina também parece exercer um efeito importante no aparelho geniturinário. Ela é produzida no canal deferente, que transporta os espermatozoides dos testículos para a uretra, e na vesícula seminal, produtora do sêmen. Nessas estruturas, a 6-ND provoca as contrações necessárias para a ejaculação. Já no corpo cavernoso, é um potente relaxador dos vasos. “Estamos mostrando um novo mecanismo pelo qual o óxido nítrico causa vasodilatação. Além de relaxar diretamente os vasos, ele, por meio da 6-nitrodopamina, inibe o efeito vasoconstritor da dopamina”, afirma Britto Júnior, hoje pesquisador no King’s College London, no Reino Unido. Britto e a equipe de Campinas agora investigam o efeito de outra catecolamina achada por eles em mamíferos: a 6-cianocatecolamina, que contém cianeto, grupo altamente tóxico. l
Os projetos e os artigos científicos consultados para esta reportagem estão listados na versão on-line.
em detalhe em outra prancha de Tabulae anatomicae, interior das câmaras do coração produz compostos que controlam o ritmo e a força de bombeamento do sangue
Vista
Jogadores de times de elite do futebol brasileiro apresentam memória, capacidade de planejamento e versatilidade mental melhor do que não atletas da mesma idade
GISELLE SOARES
Em 24 de novembro de 2022, uma quinta-feira, os brasileiros assistiam atentos à estreia da seleção contra a Sérvia, na Copa do Mundo do Catar. Passados mais de dois anos, talvez poucos se lembrem do jogo, que terminou com vitória do Brasil por 2 x 0, mas o gol de voleio do atacante Richarlison permanece na memória dos amantes do esporte. Com o pé esquerdo, ele amorteceu a bola lançada de trivela por Vinicius Junior e, em um salto coreográfico, desferiu com o pé direito um chute certeiro entre as traves do adversário. Eleito o gol mais bonito da competição pela votação popular da Federação Internacional de Futebol (Fifa), o momento ilustra o perfil do atleta em uma rede social.
Jogadas como essa, que encantam até quem não acompanha o esporte, não dependem apenas de sorte ou habilidade física extraordinária. Além de um profundo entendimento técnico do jogo, os atletas que as executam apresentam capacidade de processamento de informação e tomada de decisão sob pressão superior à de pessoas da mesma idade e nível educacional, sugere um estudo publicado em janeiro no periódico científico Proceedings of the National Academy of Sciences (PNAS ).
No estudo, um grupo internacional de pesquisadores, do qual participou o brasileiro Alberto Filgueiras, da Universidade de Queensland Central, na Austrália, investigou os traços de persona lidade e as habilidades cognitivas de 153 jogadores de equipes da série A do Campeonato Brasileiro e de 51 jogadores da principal categoria do campeonato da Suécia – os atletas tinham idades variando de 17 a 35 anos. Segundo os autores, esse é, até o momento, o trabalho que realizou a mais extensa avaliação psicológica e cognitiva do maior número de jogadores de elite. Estudos anteriores incluíam poucos atletas no topo da carreira e apenas parte dos testes.
No estudo publicado na PNAS, cada jogador passou por três baterias de testes neuropsicológicos. Uma delas definiu os traços de personalidade do participante, enquanto as outras duas, uma das quais foi desenvolvida por Filgueiras e colaboradores e publicada em 2023 na revista BMC Psychology, mediram suas habilidades cognitivas – características como criatividade, flexibilidade mental e memória de curta duração, além das capacidades de manter a atenção, de planejar e resolver problemas e inibir respostas inadequadas.
Em todos os testes cognitivos, os jogadores obtiveram uma pontuação média superior ao valor de referência para a população da mesma faixa etária ou à dos integrantes do grupo de controle, formado por 124 brasileiros do mesmo intervalo de idade e nível educacional que não jogavam futebol. À superioridade dos jogadores nessas características cognitivas, importantes para reação rápida, mudança de estratégia ou criação de lances no calor do jogo, somaram-se os traços de personalidade que também favorecem a autoconfiança e o trabalho em equipe. Os atletas apresentaram níveis mais altos de extroversão, de abertura para novas experiências e conscienciosidade (traço ligado à ambição, à autodisciplina, ao foco nos objetivos e ao autocontrole) do que os participantes do grupo de controle. Estes, por sua vez, pontuaram mais alto que os atletas em características como condescendência e neuroticismo, a tendência de experimentar emoções negativas, como ansiedade, raiva, frustração e culpa.
Esses resultados, de acordo com os pesquisadores, indicam que jogadores de elite tendem a ser mais sociáveis, disciplinados e adaptáveis do que os integrantes do grupo de controle usado na comparação. Já os não atletas demonstram maior instabilidade emocional e maior propensão a seguir normas sociais sem questionamento do que os jogadores.
Em um passo seguinte do estudo, os autores usaram as características de personalidade e o desempenho cognitivo de todos os participantes para ensinar dois programas de inteligência artificial a distinguir os jogadores de elite dos não atletas. Também utilizaram um desses programas para identificar quais traços de personalidade e habilidades cognitivas contribuíam mais para reconhecer quem era um jogador de futebol de primeira linha. Depois, com base apenas nas informações de personalidade e dos testes cognitivos, pediram para o programa apontar quais seriam os atletas de elite – o algoritmo acertou a classificação em 97% das vezes.
Como última etapa da pesquisa, para verificar se essas características permitiam predizer o desempenho dos jogadores em campo, os pesquisadores confrontaram o perfil psicológico e as habilidades cognitivas dos atletas brasileiros com o desempenho deles (gols, chutes a gol, passes e dribles) na temporada de 2021 do campeonato brasileiro, da Copa Sul-americana e da Libertadores da América – os suecos foram excluídos dessa etapa por falta de dados. Os jogadores que pontuaram mais nas escalas de conscienciosidade e abertura a novas experiências marcaram mais gols, enquanto aqueles com melhor memória fizeram mais dribles com sucesso.
“Nossos resultados mostram que habilidades cognitivas, como planejamento e flexibilidade mental, estão diretamente ligadas ao desempenho no futebol, influenciando métricas como gols, dribles e assistências”, disse a Pesquisa FAPESP o psicólogo e neurocientista italiano Leonardo Bonetti, professor da Universidade de Aarhus, na Dinamarca, e pesquisador da Universidade de Oxford, no Reino Unido, primeiro autor do estudo da PNAS. Graduado em violão clássico e psicologia e com doutorado em neurociências, Bonetti investiga os mecanismos cerebrais da memória e das habilidades cognitivas.
“Nosso artigo tem como objetivo identificar um perfil cognitivo e de personalidade típico de atletas de elite”, explica Filgueiras, coautor do estudo. “Até então, sabíamos que os atletas de elite possuíam capacidades físicas e conhecimento técnico-tático melhor do que o restante da população, mas esbarrávamos no estereótipo do atleta burro, que só tem habilidades físicas”, diz. Agora, os pesquisadores mostraram que as dimensões mentais deles, em especial personalidade e funções executivas, são diferentes daquelas da população em geral. “Seria uma espécie de inteligência esportiva, voltada para resolver problemas e tomar decisões eficazes dentro do campo de futebol.”
Uma constatação que chamou a atenção dos pesquisadores foi a baixa condescendência dos atletas de elite, ou seja, uma tendência a questionar ordens diretas. “Isso nos faz refletir sobre o papel dos treinadores, que frequentemente dão muitas instruções e comandos. Curiosamente, esses atletas não obedecem automaticamente. Eles questionam e precisam ser convencidos de que a orientação faz sentido antes de segui-las”, conta Filgueiras. “Não se trata de impulsividade, mas de autonomia e confiança nas próprias decisões. Se um treinador disser ‘faça dessa forma’, a resposta provavelmente será: ‘Por quê? O outro jeito parece melhor’’’, acrescenta o psicólogo brasileiro.
Esse traço, segundo os pesquisadores, pode estar ligado ao que popularmente se conhece como “inteligência de jogo”, uma habilidade que envolve não apenas percepção do ambiente, mas também adaptação a mudanças repentinas, mantendo o desempenho estável. Ricardo Picoli, psicólogo do Esporte Clube Bahia e coordenador da Especialização em Psicologia do Exercício e do Esporte da Universidade Federal de São Carlos (UFSCar), afirma que essa capacidade é especialmente relevante em situações práticas, como alterações no esquema tático ou mudanças de cenário durante a partida. “Jogadores com essa capacidade mais desenvolvida conseguem avaliar melhor as oportunidades de carreira de longo prazo, evitando escolhas que possam parecer atraentes de imediato, mas prejudiciais no futuro”, complementa Picoli, que não participou do estudo.
Os autores do trabalho da PNAS argumentam que os resultados poderiam ser utilizados por clubes e comissões técnicas para aprimorar os métodos de treinamento ao incorporar testes cognitivos e psicológicos na avaliação e no desen-
Disputa de bola entre Felipe Luis, do Flamengo, e Carlos Palacios, do Internacional, em partida da série A do Campeonato Brasileiro de 2021
volvimento de jogadores. “A análise dessas habilidades permite adotar uma abordagem mais precisa na seleção de atletas, na definição de funções dentro da equipe e no refinamento das estratégias de treinamento”, afirma Bonetti. “O sucesso no futebol não depende apenas de atributos físicos, mas também de traços psicológicos e habilidades cognitivas, que desempenham um papel essencial na atuação dos jogadores de alto nível.”
Autilização de avaliações psicológicas para tentar compreender e potencializar o desempenho de atletas não é recente. Nas últimas décadas, a psicologia do esporte tem buscado mapear como fatores psicológicos influenciam o rendimento dos jogadores e podem ser aplicados na otimização do treinamento, explica a psicóloga do esporte Kátia Rubio, professora associada sênior da Escola de Educação Física e Esporte da Universidade de São Paulo (EEFE-USP) e coordenadora do Grupo de Estudos Olímpicos (GEO-USP), em outro trabalho mais antigo, publicado em 2007 na Revista Brasileira de Psicologia do Esporte. No esporte de alto rendimento, a identificação desses fatores era feita por meio do psicodiagnóstico, que avalia as características de personalidade e o estado emocional do atleta nos treinamentos e nas competições a fim de encontrar estratégias de intervenção que aliviam sintomas de sofrimento e melhoram o bem-estar emocional. “Com o resultado do diagnóstico pode-se chegar a conclusões sobre particularidades pessoais ou de grupo que oferecem subsídios para a seleção
de novos atletas para uma equipe, para mudar o treinamento, individualizar a preparação técnico-tática, escolher a estratégia e a tática de conduta em uma competição e otimizar os estados psíquicos”, escreve a pesquisadora no artigo de 2007. Em entrevista a Pesquisa FAPESP, Rubio, que não participou do estudo liderado por Bonetti, conta que a busca por perfis psicológicos no esporte teve início entre as décadas de 1960 e 1970, quando a psicologia tentava se afirmar como ciência por meio da psicometria. “No contexto da Guerra Fria, o esporte era visto como uma forma de demonstrar poder e havia um grande interesse em torná-lo mais previsível, incluindo a tentativa de identificar perfis de atletas de elite”, lembra a pesquisadora. “No entanto, mais de cinco décadas depois, ainda não existe um modelo definitivo que consiga prever, de forma categórica, quem será um campeão. O desempenho esportivo é multifatorial, influenciado por aspectos psicológicos, ambientais e sociais”, pondera.
Essa, aliás, é uma lacuna que os autores do trabalho da PNAS pretendem preencher, ao expandir a pesquisa para as categorias de base do esporte. Sob a coordenação de Filgueiras, eles planejam investigar como os traços cognitivos se desenvolvem e se é possível prever quais jogadores têm maior chance de alcançar o nível de elite. “Também buscamos explorar a relação entre habilidades cognitivas, posições em campo e equilíbrio da equipe, já que um time não precisa de jogadores com apenas um tipo de perfil cognitivo para ser bem-sucedido”, conta Bonetti. l
Os artigos científicos consultados para esta reportagem estão listados na versão on-line.
Técnico Janne
Andersson (de branco) orienta jogadores da seleção sueca durante treino realizado na Espanha em 2021
Estudo identifica 76 milhões de hectares prioritários para restauração da vegetação nativa do Brasil, o que ajudaria a mitigar as mudanças do clima
GUILHERME COSTA
Onovo Plano Nacional de Recuperação da Vegetação Nativa (Planaveg), lançado em dezembro pelo Ministério do Meio Ambiente e Mudança do Clima (MMA), atualizou as estratégias brasileiras para alcançar a meta de recuperar 12 milhões de hectares (ha) de vegetação nativa até 2030. O compromisso foi assumido no Acordo de Paris, tratado internacional assinado por 195 países em 2016 que prevê medidas para conter os impactos das mudanças climáticas e limitar o aquecimento global abaixo de 2 graus Celsius. Segundo o Planaveg 2025-2028, serão combinadas quatro “estratégias transversais” (monitoramento, fomento à cadeia produtiva, financiamento e pesquisa) com “arranjos de implementação”, que preveem a recuperação da vegetação nativa em áreas de preservação permanente, reserva legal e uso restrito, além de áreas públicas e propriedades rurais de baixa produtividade.
A bióloga Rita Mesquita, secretária de Biodiversidade, Florestas e Direitos Animais do MMA, defende o resgate da diversidade de espécies, de processos ecológicos e de serviços ambientais para evitar a perda da capacidade do sistema natural de responder a impactos futuros, como os provocados pelas mudanças do clima. “Para isso, é muito importante ter boas informações sobre todos os biomas, porque cada ecossistema vai seguir uma trajetória diferente, típica daquele lugar”, enfatiza, sobre o comportamento na regeneração.
Um estudo publicado em fevereiro na revista Biological Conservation pode contribuir para o trabalho dos órgãos ambientais e de gestão do território ao identificar áreas prioritárias para recuperação em cada um dos seis biomas brasileiros: Amazônia, Cerrado, Caatinga, Pampa, Pantanal e Mata Atlântica. Sua seleção deve levar em conta a expansão do hábitat disponível para as espécies nativas e a melhoria da conectividade funcional, que é quando a paisagem permite
o deslocamento, a dispersão e o estabelecimento das espécies pelo fluxo de pólen, sementes e organismos entre fragmentos de vegetação.
O trabalho envolveu mais de 80 pesquisadores de universidades, instituições de pesquisa e organizações ambientais do Brasil e do exterior e apresenta os resultados de uma metodologia que combina o desenvolvimento de modelos de distribuição de espécies e de conectividade do território, com aplicação de um algoritmo de programação linear para otimizar a restauração, priorizando áreas com maior impacto para a diversidade e integração dos ecossistemas.
“O que o modelo vai fazer é simular como cada pixel de uma área desmatada seria restaurada e identificar como cada critério pode ser potencializado”, explica a bióloga Luisa Fernanda Liévano-Latorre, primeira autora do artigo e pesquisadora do Instituto Internacional para Sustentabilidade (IIS), uma organização ambiental privada com base no Rio de Janeiro. Uma das funcionalidades do modelo é saber qual a distribuição potencial de cada espécie na área escolhida.
Os autores mapearam 76 milhões de ha prioritários para a restauração, distribuídos nos seis biomas. As áreas anteriormente eram cobertas por ecossistemas naturais e agora estão ocupadas por agricultura, pastagens e silvicultura. Foram excluídas regiões urbanas e de mineração, onde a regeneração da vegetação nativa é inviável.
Em relação à biodiversidade, o grupo analisou 8.692 espécies de plantas (angiospermas) e 2.699 de animais, abrangendo ambientes terrestres e aquáticos. De acordo com as conclusões, se 30% das áreas prioritárias identificadas fossem regeneradas, seria possível aumentar em até 10% o hábitat disponível para essas espécies e em 60%, em média, a conectividade funcional, em relação ao cenário atual, utilizado como controle.
O estudo analisou organismos com diferentes capacidades de dispersão, abrangendo um espectro mais amplo de fauna e flora e tornando
o trabalho mais robusto. Os benefícios são mais expressivos no Cerrado, onde a conectividade aumentaria em mais de 80%, seguido pela Amazônia, Mata Atlântica e Caatinga (acima de 70%), e pelo Pampa e Pantanal (até 50%).
Para Mesquita, além de destacar as áreas onde se deve concentrar esforços, os dados de conectividade apresentados são importantes para a gestão pública, uma vez que eles precisam “estar cada vez mais presentes nas tomadas de decisão, incluindo os arranjos produtivos, pois não existe produção efetiva em paisagens inviáveis”. Para a bióloga, que não participou do estudo, a restauração de vegetação nativa deve buscar devolver a resiliência das paisagens.
O estudo da Biological Conservation classificou algumas das áreas identificadas como altamente prioritárias, por abrigarem grande biodiversidade e estarem sob forte pressão. Comumente, são territórios de transição entre biomas. No caso da Amazônia, as áreas estão concentradas principalmente no arco do desmatamento, localizado no limite sul do bioma.
Se 30% das áreas restauráveis da região fossem recuperadas, ela poderia reter mais de 50% do seu potencial máximo de armazenamento de carbono, segundo a publicação, contribuindo significativamente para a mitigação das mudanças climáticas.
A Amazônia tem a maior capacidade de captura de carbono entre os ecossistemas analisados.
“Pensando na Amazônia como um todo, o sucesso é limitado por dois fatores, principalmente: o número de vezes que aquela mata foi cortada, ou seja, a frequência de desmatamento; e o histórico de uso antes de começar a regeneração”, ressalta o biólogo André Giles, pesquisador em estágio de pós-doutorado na Universidade Federal de Santa Catarina (UFSC). Ele é o primeiro autor de um estudo publicado em dezembro na revista Communications Earth & Environment , que se propõe a fornecer indicadores para medir o sucesso da regeneração e apoiar ações voltadas à conservação do território e mitigação das mudanças climáticas na Amazônia.
O trabalho reúne 29 pesquisadores de instituições nacionais e internacionais – incluindo Mesquita, do MMA – que identificaram quatro indicadores-chave: a área basal, que representa a estrutura da floresta e a densidade da vegetação; a heterogeneidade estrutural, que mede a variação no tamanho das árvores, indicando um ecossistema mais equilibrado; a riqueza de espécies nativas, que avalia a biodiversidade da floresta secundária; e a biomassa acima do solo, que indica a quantidade de carbono estocado na vegetação, essencial para estimar o papel da floresta na mitigação das alterações do clima.
“Não se trata apenas de plantar árvores, mas de reconstruir ecossistemas complexos”, ressalta a engenheira-agrônoma Ima Vieira, do Museu Paraense Emílio Goeldi e coautora do estudo. “Nossos indicadores mostram exatamente como fazer isso de forma eficiente e mensurável.”
1
Paisagem com floresta em regeneração entremeada com áreas de agricultura de corte e queima na Amazônia Central
Os autores definiram esses indicadores a partir de análises de 448 parcelas de floresta secundária em 24 localidades da Amazônia e estabeleceram valores de referência para avaliar a integridade das florestas com 5, 10, 15 e 20 anos de regeneração, permitindo a comparação do desenvolvimento florestal com padrões ideais de recomposição.
“Criamos um modelo com um cenário ótimo de regeneração natural para definir quais seriam os valores dessa trajetória de restauração”, explica Giles. “A partir disso, chegamos em indicadores que são importantes para a integridade, e eles têm que agir juntos para se alcançar o resultado esperado na restauração vegetal.”
A partir das análises realizadas para traçar a trajetória de recuperação, os pesquisadores perceberam que os impactos são mais severos em áreas que sofreram múltiplos desmatamentos ou longos períodos de uso agrícola ou para pastagem. Além disso, a textura e a compactação dos solos influenciam a recomposição da floresta. “Solos mais argilosos podem limitar o estabelecimento de novas espécies, possivelmente por serem mais suscetíveis à degradação pelo uso”, destaca Giles. Embora os dados e indicadores sejam restritos à Amazônia, pode ser possível adaptá-los a ecossistemas semelhantes. Para a bióloga Fátima Arcanjo, que não participou do estudo, os dados para a Mata Atlântica, ecossistema com o qual trabalha, ainda são restritos. “Aqui, o cenário mudaria porque há uma degradação maior e menos conectividade ecológica. Com isso, é preciso considerar a restauração ativa”, ressalta, sobre a prática que envolve o plantio de mudas nativas.
Arcanjo é docente da Universidade Federal de Uberlândia (UFU) e lidera um projeto de restauração vegetal no Laboratório de Ecologia Aplicada da Universidade Federal Rural do Rio de Janeiro (UFRRJ). O estudo investiga as mudanças ecológicas graduais que ocorrem ao longo do tempo na composição, na estrutura e no funcionamento da vegetação na Mata Atlântica em áreas de restauração ativa.
Nesse bioma, 186 mil ha de florestas maduras deram lugar, entre 2010 e 2020, a áreas agrícolas, de silvicultura e pecuária, além de pastagens. É o que alerta um estudo publicado em fevereiro na revista Nature Sustainability. Os autores identificaram 14.401 locais de desmatamento, totalizando 186.289 ha, grande parte deles com indícios de ilegalidade.
Os dados indicam que 73% da perda de floresta madura ocorreu em terras privadas, sendo que a maior quantidade de área desmatada (40% do total) estava em grandes propriedades. “Os
Samaúma (Ceiba pentandra) remanescente de floresta original em área restaurada na Reserva Extrativista
Tapajós-Arapiuns, no Pará
tamanhos das áreas estão diretamente relacionados aos modos de produção e ao tipo de ator das atividades de supressão da vegetação nativa”, detalha a ecóloga Silvana Amaral, do Instituto Nacional de Pesquisas Espaciais (Inpe) e primeira autora do estudo.
Nem áreas protegidas, como unidades de conservação e terras indígenas, escaparam da destruição da mata nativa, evidenciando falhas na fiscalização da Lei da Mata Atlântica, que desde 2006 estabelece regras específicas para o uso, a exploração e a conservação do bioma.
O estudo utilizou uma metodologia combinada de sensoriamento remoto, estatísticas espaciais e dados geoespaciais para mapear e entender a perda de florestas antigas, sem sinais de degradação visíveis por imagens de satélite. Essa abordagem permitiu identificar os principais vetores do desmatamento, os atores envolvidos e as falhas nas políticas de conservação, e poderia ser aplicada a outros biomas.
“Além de disponibilizar os dados utilizados e os resultados, descrevemos todas as etapas realizadas. Adaptar o método a outro bioma exigiria ter profissionais especialistas naquele ecossistema que sejam aptos a reconhecer os diferentes usos e coberturas da terra para a qual a vegetação nativa tenha sido convertida”, explica Amaral. l
Os artigos científicos consultados para esta reportagem estão listados na versão on-line.
É azul… não é
Coloração iridescente que parece piscar durante o voo confunde predadores e também os biólogos que estudam como as borboletas Morpho se tornaram tão chamativas
MARIA GUIMARÃES
Andando por uma trilha em meio a alguma floresta tropical sul-americana, sua atenção pode ser atraída por um súbito brilho azul, como um flash que logo some. Pode ser uma borboleta do gênero Morpho Se você tentar capturar o inseto, talvez tenha dificuldade, devido ao pisca-pisca que confunde os olhos. Isso acontece porque a mancha azul está na face superior das asas, exposta à luz, enquanto a inferior é marrom. Se falhar na captura, piora: o voo se torna ainda mais frenético, mudando de direção a cada batida das asas. A dificuldade que os apreciadores humanos encontram também vale para as aves, predadoras naturais desses insetos. A função dessa coloração tão chamativa era um mistério, mas agora, por meio de experimentos de campo simples, porém trabalhosos, um grupo da Universidade Estadual de Campinas (Unicamp) mostrou seu papel protetor, em artigo publicado em dezembro na revista científica Ethology. 1
Ter a cor azul nas duas faces das asas parece ser um péssimo negócio. O surgimento e a manutenção da cor chamativa são um mistério evolutivo, mas, de acordo com Freitas, vem de longe. A espécie ancestral de M. helenor já devia ser azul, atributo que pode ser útil para o reconhecimento entre machos e fêmeas. “Não é esperado que elas percam a coloração pelo benefício de serem crípticas [que se confundem com o ambiente], em detrimento da comunicação dentro da espécie”, afirma o biólogo. Vieira testou a vantagem em termos de sobrevivência. Pintou de marrom a faixa azul de 85 borboletas e em 83 outras fez também uma faixa marrom, como controle, sem cobrir o azul iridescente. Recapturou 27% do grupo experimental e 24% do controle, uma diferença não significativa.
Eo que acontece quando estão pousadas?
Nessa situação, são em geral bem discretas em meio às folhas secas, porque de asas fechadas o que fica visível é o castanho. E se não fosse? Vieira colou borboletas mortas em palitos, com a face externa das asas pintadas de azul ou de marrom, e as espetou no chão. Ao procurar pelos triângulos deixados pelas bicadas dos pássaros, não viu grande diferença: 13,5% das azuis foram bicadas e 16,5% das marrons. O resultado corrobora a percepção de que bem-te-vis e sabiás caçam voando, não saltando pelo piso da floresta.
“A pressão de predação por aves visualmente orientadas é muito forte na região tropical e favoreceu a evolução de estratégias de defesa”, resume Paulo Oliveira, que coorientou o trabalho. Freitas e Vieira se declaram, agora, curiosos para saber se a tendência que observaram vale para outros lugares. “Será que na Amazônia, com mais predadores, a diferença seria ainda mais marcante?”, questiona ele. O ideal seria que outros grupos de pesquisa fossem inspirados a tirar a limpo.
Se o biólogo alemão Wolfgang Goymann, editor da revista Ethology, estiver certo, há boas chances de que aconteça. “Algumas pesquisas publicadas em nossa revista se tornaram conhecimento exposto em livro didático ou citações clássicas”, escreveu no editorial o pesquisador do Instituto Max Planck para Inteligência Biológica, na Alemanha. “Acredito que esse artigo tem o potencial de se tornar uma citação clássica da hipótese de coloração em flash na distração de predadores”, completou.
“No experimento, nós cancelamos a estratégia da borboleta, fizemos ela parar de desaparecer durante o voo”, brinca Oliveira, celebrando o novo entendimento de algo que encanta pesquisadores há mais de 150 anos. “Os fatores que mais ajudaram [o naturalista britânico Charles] Darwin [1809-1882] a corroborar suas ideias foram as estratégias de defesa dos insetos”, ressalta. No livro
Visibilidade experimental
A taxa de recaptura de borboletas pintadas ajuda a estimar o papel dos flashes azuis para escapar da predação
1
135 borboletas 20,7% recapturadas
134 borboletas
37,3% recapturadas
Com azul metálico nas duas faces das asas, as borboletas são sempre chamativas durante o voo e sofrem mais predação; no controle, a pintura marrom serve para submeter o animal ao mesmo protocolo, sem alterar a aparência
2
85 borboletas 27% recapturadas
83 borboletas 24% recapturadas
13,5%
16% com marcas triangulares de bicadas
A taxa de recaptura é maior sem o azul, mas não muito diferente dos controles, que mantiveram a coloração natural no lado dorsal 3
Em simulação de momento de descanso, pousadas no chão, a faixa azul pintada não aumentou a incidência de bicadas feitas por pássaros
Pintura das asas, trabalho delicado (à esq.): na face ventral, com tinta marrom, para controle (no alto), e azul, para eliminar o efeito de flash no voo
Um naturalista no rio Amazonas, publicado pela primeira vez em 1864 (no Brasil há uma edição, esgotada, de 1979, pela editora Itatiaia), o naturalista britânico Henry Walter Bates (1825-1892) descreveu M. rhetenor como tendo um brilho deslumbrante na face dorsal das asas. “Quando ela voa ao longo da estrada, de vez em quando agita as asas, e então a superfície azul brilha ao sol, sendo visível a um quarto de milha.”
Oliveira também afirma a importância do trabalho de Vieira por seu enfoque experimental. “Até a metade do século XX, quem estudava comportamento animal era visto como amador, a etologia não era considerada uma ciência séria.”
O evolucionista francês Vincent Debat, pesquisador do Museu Nacional de História Natural, em Paris, há cerca de uma década se dedica – entre outros modelos – a estudar o voo de borboletas Morpho. “As Morpho da Ama-
zônia são muito diferentes das da Mata Atlântica”, comentou ele, que não participou do estudo de Vieira, a Pesquisa FAPESP por chamada de vídeo. A coloração varia muito entre as espécies do gênero – pode ser branca, laranja, marrom –, assim como o tipo de voo. Algumas, como observou Bates no século XIX, flutuam entre as copas das árvores em um voo planado, mal batendo as asas. Nesse caso, não parecem usar o recurso do pisca-pisca. Já as do sub-bosque, como M. helenor, passam voando a 1 metro de altura com movimentos bruscos das asas. Debat conta que, pela dificuldade de capturá-las, alguns pássaros nem tentam. Veem passar e parecem considerar que não vale a pena tentar. Estudar essas estratégias mais a fundo em situação real, no entanto, é um grande desafio. “O mais comum é fazer observações em laboratório, em gaiolas de voo”, conta. Na natureza, é preciso instalar câmeras e torcer para que elas passem por ali, usando como isca pedaços de papel azul brilhante, que atrai as Morpho.
“Aline e colegas passaram muito tempo em campo, é um trabalho muito difícil e o artigo é muito importante”, avalia Debat. Mas ele considera que ainda há mistérios que rodeiam o surgimento desse tipo de coloração tão visível e aparentemente custosa em termos de seleção natural. “Achávamos que sabíamos por que elas tinham essa cor, mas ainda não temos a resposta.” A seleção sexual costuma ser a hipótese favorita, mas o fato de machos e fêmeas serem semelhantes em muitas das espécies causa certa confusão. No mundo animal, é comum os machos serem espalhafatosos para atrair a atenção das fêmeas. Um trabalho recente de seu grupo, conduzido pela estudante de doutorado Joséphine Ledamoisel, compara duas espécies amazônicas no que diz respeito à coloração: M. helenor e M. achilles. Indivíduos das duas espécies têm uma iridescência muito parecida nas áreas onde coexistem, o que sugere um mimetismo como defesa contra predação – é vantajoso ser confundida com uma vizinha difícil de capturar. A semelhança visual poderia dificultar os encontros reprodutivos das duas espécies, mas aparentemente os casais se guiam mais por assinaturas químicas, de acordo com o artigo ainda não publicado em periódico oficial e depositado em fevereiro no repositório bioRxiv.
“Deve ter havido uma coevolução entre a coloração e o tipo de voo, planado ou de escape”, propõe Debat. Assim como o azul piscante confunde os predadores, o papel entremeado da seleção sexual e da sobrevivência aos predadores na evolução dessas borboletas ainda deve deixar os pesquisadores zonzos por um tempo. l
Os projetos e os artigos científicos consultados para esta reportagem estão listados na versão on-line.
Na fabricação de compósitos reforç ados por bambu, explica o designer, as fibras são retiradas da regi ã o externa do vegetal pr óxima à casca e coladas com resina de mamona. “Além de ecologicamente corretos, recicláveis e econômicos em compara çã o às fibras sintéticas, os compósitos poliméricos reforçados por fibras são adequados a algumas aplicações específicas”, escreveram Santos e colegas em artigo publicado no livro Design, artefato e sistema sustentável (Blucher, 2018). Essa versatilidade se dá porque o compósito pode ser personalizado conforme a necessidade de uso e por ter a capacidade de ser moldado em formatos complexos não obtidos facilmente por outros materiais. Em outro artigo do grupo, publicado nos anais da 6th International Conference on Integrity-reliability-failure, realizado em Portugal, em 2018, eles conclu í ram, por meio de estudos de simulação computacional, que a prótese transtibial de bambu era resistente para atender satisfatoriamente à s necessidades mecânicas de pessoas com até 100 quilogramas.
TECNOLOGIAS ASSISTIVAS
A inovação desenvolvida por Santos é um dos projetos escolhidos para ser apoiado pelo Centro Multidisciplinar para o Desenvolvimento de Tecnologia Assistiva (CMDTA), um dos dois novos Centros de Ciência para o Desenvolvimento (CCD) criados pela FAPESP em 2024 com o prop ó sito de elaborar tecnologias voltadas para pessoas com deficiências que limitam o esforço f ísico. O outro CCD é o Centro de Tecnologias Assistivas para as Atividades da Vida Diá ria (CTecvida), sediado na Universidade de São Paulo (USP).
O CMDTA tem sede na Unesp de Bauru e é composto por 42 pesquisadores de 17 diferentes
laborat ó rios da Unesp, USP e das universidades federais de São Carlos (UFSCar) e do ABC (UFABC). A unidade também mantém parcerias com o Centro Especializado em Reabilitação Sorri-Bauru, a Associação de Pais e Amigos dos Excepcionais (Apae) e o Hospital Amaral Carvalho, presente em Bauru e em Jaú (SP).
“Hoje, os pesquisadores trabalham isolados, cada um cuida de seu projeto. Com o centro, nossa proposta é incentivar o intercâmbio e a cooperação entre especialistas de diversas á reas do conhecimento para fomentar a inovação”, diz o f ísico Carlos Roberto Grandini, da Faculdade de Ciências da Unesp de Bauru e diretor do CMDTA.
O projeto da prótese de bambu é um exemplo da cooperação apregoada por Grandini. Desenvolvido no Laboratório de Ergonomia e Interfaces da FAAC-Unesp, ele receber á recursos do CMDTA para a produção de protótipos que serão testados em pacientes do Sorri-Bauru.
Muitos dos projetos apoiados pelo CMDTA já estão em andamento nos laboratórios associados. Um exemplo é uma prótese transradial, para pessoas que passaram por amputação no braço, abaixo do cotovelo, produzida durante o mestrado do designer Bruno Borges Silva. Elaborada em processo de codesign – sistema em que o usuá rio participa da criação do produto –, utiliza a prototipagem r ápida, na qual o modelo é confeccionado com base em dados digitais e finalizado por meio de impressão tridimensional. A prótese é dotada de um sistema mioelé trico, em que sensores captam sinais naturalmente emitidos pelos músculos sobre a intenção de movimento do usuário. Essa informação é transmitida por bluetooth para a prótese completar o movimento, como segurar um copo ou abrir uma embalagem.
Prótese transtibial (à dir. e na página ao lado) feita a partir de fibras de bambu e resina de mamona
Protótipo de prótese transradial destinada a pessoas que sofreram amputação no braço
Pesquisador da Poli-USP trabalha em exoesqueleto robótico para membros inferiores
“Os sensores capturam o sinal da atividade elétrica muscular em um ponto anterior ao coto [ponto da amputação], no caso, no braço do usuário. É aí que eles são instalados”, informa o designer Luís Carlos Paschoarelli, professor de design da FAAC-Unesp. “A princípio, o sistema poderia captar os sinais diretamente do cérebro, mas isso exigiria novos estudos e investimentos.” Sensores e bluetooth, explica o pesquisador, formam um conjunto integrado à prótese.
Ocodesign, diz Paschoarelli, é uma estratégia inovadora no desenvolvimento de tecnologias assistivas e tem a capacidade de ampliar a aceitabilidade da prótese pelo usuário. Em artigo publicado em 2020 na revista Educação Gráfica, o pesquisador avalia a relação da estética de equipamentos assistivos e a autoestima de pessoas com deficiência. “A prótese customizada melhora a qualidade funcional do produto e atende também a desejos estéticos dos usuários, minimizando a rejeição e o abandono do dispositivo”, afirma o pesquisador.
A expectativa de Paschoarelli é que o intercâmbio entre as diferentes áreas de pesquisas impulsione o projeto por meio de sugestões sobre os materiais mais adequados para as próteses e outras tecnologias assistivas. O primeiro protótipo foi construído com ácido polilático (PLA), um termoplástico biodegradável de origem natural. “Esse material é ótimo para impressão 3D, mas se mostrou pesado para o dia a dia do usuário”, avalia.
JOELHO MECÂNICO E DESAFIOS
Outro projeto do CMDTA é o de um joelho mecânico monocêntrico, ou seja, com um único eixo de rotação, que agrega funcionalidades inexistentes nas próteses fornecidas pelo SUS. Entre as inovações há um sistema que permite ao usuário flexibilizar o movimento do joelho. Nas próteses tradicionais, o joelho, quando em marcha, está sempre estendido.
O novo modelo apresenta um sistema de bloqueio controlado pelo usuário, que pode optar entre travar a prótese no modo joelho estendido ou desbloquear e permitir que seja flexionado. “É um recurso que hoje só está disponível em joelhos mecânicos de alta performance, voltados para atletas”, diz o fisioterapeuta Guilherme Eleutério Alcalde, um dos idealizadores do projeto.
O joelho mecânico tem um mecanismo de mola que amortece os impactos durante a marcha, reduzindo dores no coto. “Esses dois sistemas que incorporamos ao equipamento geram conforto, naturalidade na marcha e permitem maior velocidade no deslocamento”, diz Alcalde.
A dissertação de mestrado apresentada em 2024 por Marcelo Alves de Macedo, um dos coautores do projeto, apresenta uma comparação entre idosos que utilizaram por seis meses a prótese tradicional e um grupo da mesma faixa etária que usou a nova
Alunas do Laboratório de Elasticidade e Biomateriais da Unesp realizam análise mecânica de liga biomédica usada em joelho monocêntrico
versão da equipe da Unesp. Os resultados indicaram que o novo protótipo favoreceu a redução do gasto energético, aumentando a eficiência na locomoção. Além disso, foi observada uma melhora na simetria da marcha, fator crucial para a diminuição do risco de quedas e lesões. Os usuários da nova prótese também conseguiram realizar atividades diárias com menor esforço e dor.
Segundo Grandini, que é coordenador do projeto, a estratégia para oferecer um produto com mais qualidade e preços compatíveis com os modelos tradicionais é a substituição da matéria-prima utilizada. Os joelhos mecânicos ofertados pelo SUS são produzidos 100% em aço inoxidável. O protótipo da Unesp é de aço inoxidável e polipropileno, mais barato. Uma nova versão, em liga de titânio, está em desenvolvimento. A composição da liga está sendo mantida em segredo até que um depósito de patente seja efetivado. “Nossa prótese deverá ter uma relação custo-benefício muito boa”, afirma o diretor do CMDTA.
A maior dificuldade para a criação de uma prótese que permita flexibilizar o joelho, explica o fisioterapeuta Rafael Oliveira, responsável pela construção do protótipo, é garantir que o seu tamanho seja semelhante ao da articulação humana e que ela tenha toda a tecnologia associada para garantir o caminhar com segurança e equilíbrio. “O controle mecânico para auxiliar a marcha depende principalmente de um sistema de amortecimento de impacto e resistência que permita a adequada flexão e extensão do joelho. Esses parâmetros variam de uma pessoa para outra, o que torna desafiador projetos de joelhos mecânicos”, diz.
Assim como ocorre em outras áreas de pesquisa, um desafio para os desenvolvedores de tecnologias assistivas no país é transpor a fase de projeto para o da industrialização. Um problema é o perfil das poucas empresas brasileiras dedicadas ao setor. “Predominam micro e pequenos fabricantes”, observa a economista Amanda Amorim Rodrigues, do Laboratório de Inovação de Tecnologia em Saúde da Escola Paulista de Medicina da Universidade Federal de São Paulo (Unifesp). Rodrigues é coautora de artigo publicado em 2024 no Jornal Brasileiro de Economia da Saúde que analisa as perspectivas econômicas do mercado de tecnologia assistiva. Nele, ela relaciona a escassez da oferta de produtos à falta de incentivo e financiamento no país para pesquisa, desenvolvimento e industrialização.
“Infelizmente, o que dispomos hoje em termos de tecnologia assistiva nacional é bastante tímido”, reconhece a médica fisiatra Linamara Rizzo Battistella, diretora do Instituto de Medicina Física e de Reabilitação (IMREA) do Hospital das Clínicas da Faculdade de Medicina da USP e ex-secretária estadual dos Direitos das Pessoas com Deficiência.
Battistella avalia que o Brasil tem centros de inovação capacitados e potencial para produzir e distribuir o que os pacientes precisam. Por outro lado, o SUS, com seu poder de compra, representa uma grande oportunidade para os fornecedores. “Ainda assim, em vários itens temos uma grande dependência de importação, seja de insumos ou de componentes”, diz a médica fisiatra.
Para a médica fisiatra, os centros de pesquisas brasileiros precisam estar alinhados com a indústria, para que a inovação e o desenvolvimento surgidos em seus laboratórios se transformem em produtos de mercado oferecidos pelo SUS. “Falta conversa entre o setor público e os representantes das empresas”, diz.
FOCO EM DEMANDAS REAIS
Realizar essa aproximação é uma das propostas do CTecvida, com sede na USP. “Queremos integrar os diferentes atores necessários para tornar viável uma produção de tecnologia assistiva de qualidade e competitividade”, diz o engenheiro Arturo Forner-Cordero, coordenador do Laboratório de Biomecatrônica da Escola Politécnica (Poli) da USP.
Além da Poli e do IMREA, o CTecvida agrega a Escola de Engenharia de São Carlos (EESC-USP), o Instituto de Pesquisas Tecnológicas (IPT), a Secretaria de Estado dos Direitos da Pessoa com Deficiência, o Instituto Mara Gabrilli, voltado para a inclusão de pessoas com deficiência, e a startup Voltta Fitness. “Vamos desenvolver tecnologias que atendam às reais demandas dos
usuários. E também queremos atrair os fabricantes que levarão esses equipamentos ao mercado”, diz Forner-Cordero.
Entre os projetos já em andamento do CTecvida abrigados na Poli e na EESC estão dois modelos de exoesqueletos robóticos para os membros inferiores, destinados a vítimas de acidente vascular cerebral (AVC), doença de Parkinson, lesão da medula espinhal, entre outras. Ao contrário dos equipamentos tradicionais de origem europeia e norte-americana – sistemas de grande porte que realizam todo o movimento para os usuários –, os exoesqueletos nacionais propõem estruturas enxutas e combinam o esforço do usuário com o apoio mecânico. Para isso, são dotados de softwares que interpretam a intenção de movimento e comandam o equipamento para que este complemente a ação necessária (ver Pesquisa FAPESP nº 301).
Agora, os cientistas do CTecvida estão empenhados em desenvolver exoesqueletos compostos de peças modulares, que permitam aos usuários adquirir o aparelho completo ou apenas os equipamentos necessários para sua principal deficiência, por exemplo, restrições de mobilidade no joelho, no tornozelo ou em ambas as articulações.
Forner-Cordero relata que o complemento da estratégia competitiva é garantir que as peças modulares sejam compatíveis, podendo ser usadas em estruturas de exoesqueletos de diferentes fornecedores. Para isso, planejam criar peças-padrão e normas produtivas, que deverão orientar o desenvolvimento e a fabricação dos módulos para que sejam intercambiáveis. Os requisitos para o design integrado de um exoesqueleto modular que geram segurança ao usuário foram apresen-
tados por For ner-Cordero em artigos publicados nos anais da 6ª IEEE International Conference on Biomedical Robotics and Biomechatronics, em 2016. Mais recentemente, os resultados de ensaios com o exoesqueleto foram divulgados na IEEE Transactions on Medical Robotics and Bionics. O CTecvida também trabalha na criação de cadeiras de rodas modulares que proporcionem mais conforto aos usuários e uma relação custo-benefício vantajosa. A tarefa está a cargo do Laboratório de Estruturas Leves da Unidade de Materiais Avançados (LEL-UNMA) do IPT, em São José dos Campos (SP), em parceria com o IMREA. O projeto está dividido em três etapas distintas.
A primeira, foco da atenção atual, prevê o desenvolvimento de uma cadeira de rodas convencional, com materiais mais anatômicos, mas preço final compatível com os valores pagos pelo SUS em suas aquisições do equipamento. O projeto prevê a substituição do encosto, acento e apoio do braço, fabricados hoje em formatos-padrão com materiais poliméricos. No lugar deles, serão usadas peças anatômicas feitas com espumas termomoldáveis produzidas com material compósito de base polimérica reforçado por fibras sintéticas ou naturais. “É uma solução que se adapta à geometria do corpo e proporciona conforto”, diz o engenheiro industrial Alessandro Guimarães, gerente técnico do LEL.
A princípio, a substituição da matéria-prima tradicional por materiais mais nobres levaria a um aumento de custo. A estratégia para contornar o problema é o uso da técnica de simulação estrutural para analisar o impacto dos carregamentos mecânicos na peça, a ser moldada sob medida. “Usaremos os materiais mais nobres nas partes da peça em que realmente tragam benefícios e vamos compor o restante com material mais econômico”, descreve o pesquisador.
Em um segundo momento, a equipe do LEL desenvolverá uma cadeira modular, que permita o uso do mesmo chassi para receber peças diferentes de acordo com a evolução do paciente. “Uma mesma estrutura poderá acompanhar as diferentes fases de crescimento de uma criança, gerando economia para os pais”, diz Guimarães.
A terceira etapa do projeto será integrar a cadeira de rodas aos exoesqueletos modulares da Poli e EESC, permitindo ao usuário intercambiar de forma autônoma um equipamento para outro. “Sentado em sua cadeira de rodas, o usuário poderá vestir seu exoesqueleto pela frente e fazer movimentos em pé. Cansado, poderá sentar e despir o exoesqueleto”, vislumbra Forner-Cordero. l
Os projetos, artigos científicos e o livro consultados para esta reportagem estão listados na versão on-line.
Cadeira de rodas modular projetada no IPT de São José dos Campos
Micro-ondas para caçar tumores
Nova geração de sistemas de imageamento pretende evitar a compressão dos seios e a radiação dos mamógrafos tradicionais
GISELLE SOARES
Com cuidado, o engenheiro de informação Bruno Sanches coloca sobre a mesa do Laboratório de Sistemas Integrados da Escola Politécnica da Universidade de São Paulo (Poli-USP) um aparelho de cor laranja e formato cônico, com 15 centímetros (cm) de diâmetro, parecido com o bojo de um sutiã. Não é sem razão. Trata-se do protótipo de uma nova geração de aparelhos projetados para fazer exames das mamas que se ajustam ao redor dos seios e fazem imagens em diferentes ângulos em busca de tumores que precisem ser eliminados. O Instituto Nacional do Câncer (Inca) estima que ocorram 73,6 mil novos casos de câncer de mama por ano no país entre 2023 e 2025. Trata-se do tumor mais comum entre mulheres em todas as regiões do Brasil, com taxas mais altas no Sul e Sudeste. Uma das principais características do novo sistema de imageamento, um projeto conjunto da Poli-USP e do Departamento de Engenharia Elétrica do Instituto Federal de São Paulo (IFSP), é funcionar por micro-ondas, uma nova rota tecnológica investigada também em universidades dos Estados Unidos, Canadá, Reino Unido, Suécia,
Itália, Japão e Austrália. Os aparelhos de mamografia hoje em uso para detectar tumores de mama operam por raios X, um tipo de radiação ionizante que pode trazer riscos à saúde.
Apesar de ser bem tolerado pela maioria das mulheres, o exame realizado por mamógrafos tradicionais pode causar desconforto e dor, causada pela compressão das placas do equipamento sobre os seios. O novo dispositivo projetado pelos pesquisadores paulistas se molda às mamas e evita o processo doloroso. Em 2023, 4,4 milhões de mamografias foram realizadas pelo Sistema Único de Saúde (SUS).
“Queremos oferecer uma alternativa complementar à mamografia”, comenta Sanches. Segundo o engenheiro, o aparelho poderia ser útil especialmente para mulheres com seios densos, para as quais a mamografia tem menor sensibilidade. A densidade dos seios, característica que independe de seu tamanho, é a proporção de tecido fibroso e glandular em relação ao tecido adiposo ou gordura.
Opadrão do Colégio Americano de Radiologia (ACR) para exames de imagem classifica as mamas em quatro densidades: predominantemente gordurosa e menos densa, mais fáceis de examinar pela mamografia; com áreas de tecido fibroglandular esparsas; heterogeneamente densa, o que pode dificultar a detecção de pequenos nódulos ou tumores; e extremamente densa, tornando a identificação de lesões na mamografia ainda mais difícil. O sistema proposto pode ser vantajoso nos casos de mamas densas, pois as propriedades eletromagnéticas dos tecidos envolvidos são discrepantes, sendo possível diferenciá-los.
“Quanto mais densa a mama, mais branca ela aparece na mamografia, dificultando a identificação dos tumores, que também são brancos”, explica o médico radiologista Almir Bitencourt, do A.C.Camargo Cancer Center, um dos principais centros nacionais de pesquisa, diagnóstico e tratamento nessa área. “Nessas situações, exames complementares, como ultrassonografia ou ressonância magnética, costumam ser recomendados.”
ONDAS DE RÁDIO
O protótipo da USP e do IFSP usa um dispositivo eletrônico que transmite e recebe sinais, o chamado transceptor de micro-ondas, com antenas embutidas. O transceptor emite ondas de rádio de banda ultralarga, com frequência central de 6,4 giga-hertz (GHz), que atravessam o tecido mamário e retornam ao aparelho ao encontrar estruturas internas mais densas, como possíveis tumores. Os sinais refletidos são processados por uma unidade
de processamento de imagem, que emprega um algoritmo para gerar um mapeamento detalhado da região (ver infográfico na página ao lado).
Atualmente, o sistema gera imagens bidimensionais reconstruídas da mama, mas a estrutura do hardware permite ajustes na posição vertical da plataforma, possibilitando a variação da localização das antenas. Com isso, o equipamento poderá realizar exames em diferentes cortes da mama, apresentando imagens tridimensionais.
Em testes feitos em um modelo artificial, o chamado phantom, com materiais que procuram replicar as propriedades elétricas dos tecidos mamários, os pesquisadores verificaram que o aparelho consegue detectar tumores com 1 cm de diâmetro e a 3 cm de profundidade, como detalhado em um artigo publicado em janeiro de 2023 na revista Biomedical Signal Processing and Control. A estrutura interna do phantom foi projetada para simular a anatomia da mama, com 0,2 cm de pele, 6 cm de tecido glandular e 8,6 cm de tecido adiposo. O câncer de mama é classificado em quatro estágios clínicos, conforme sua extensão e gravidade. Tumores com até 2 cm de diâmetro e que não atingiram os linfonodos encontram-se em estágio inicial e são os menos graves. Indicada para o diagnóstico de alterações suspeitas em qualquer idade, tanto em mulheres quanto em homens, a mamografia por raios X consegue identificar não só lesões menores de 1 cm, como também os primeiros sinais de câncer de mama, as chamadas microcalcificações. “Atualmente, nenhum outro método identifica microcalcificações com a mesma precisão”, relata Bitencourt, do A.C.Camargo.
O exame por micro-ondas, embora em sua versão atual menos preciso, poderia evitar a radiação ionizante dos aparelhos tradicionais. “Mamógrafos que usam raios X exigem ambientes blindados, enquanto a tecnologia baseada em micro-ondas não
Protótipo do sistema de imageamento por micro-ondas projetado na USP e no IFSP
Como funciona o novo exame
Aparelho é posicionado em diferentes ângulos ao redor do seio para obter a melhor imagem
Sutiã
Antena
Suporte para o hardware
1 O protótipo usa um transceptor de micro-ondas com antenas embutidas e um sutiã de borracha de silicone para acoplamento a seco, sem necessitar de gel condutor
Tecido adiposo
Ondas de rádio
Tecido fibroso Tecido glandular Tumor
2 O transceptor emite ondas de rádio de banda ultralarga, que atravessam o tecido mamário e retornam ao aparelho ao encontrar estruturas internas mais densas
3
Para gerar uma imagem mais completa e detalhada, o dispositivo é posicionado em diferentes partes do seio, sem precisar comprimi-lo
emite radiação ionizante, o que a torna mais segura e acessível”, ressalta a engenheira eletricista Fatima Salete Correra, também da Poli-USP, que não participou da pesquisa. Aparelhos portáteis e de baixo custo podem ser benéficos especialmente onde o acesso a exames de mamografia é mais difícil.
Aexperiência anterior da equipe paulista com o circuito integrado miniaturizado conhecido pela sigla Sampa (serialized analog-digital multi-purpose Asic), construído com apoio da FAPESP (ver Pesquisa FAPESP no 253), ajudou no desenvolvimento dos componentes integrados ao protótipo portátil. “O conhecimento sobre como projetar e fazer amplificadores muito sensíveis, conversores analógicos-digitais e processadores de sinais foi essencial para construirmos chips aplicados à área da saúde”, explica Sanches, da Poli. Criado por pesquisadores da USP, Unicamp e Instituto Tecnológico de Aeronáutica (ITA), o chip Sampa encontra-se em funcionamento desde 2020 em um dos quatro detectores de partículas do Grande Colisor de Hádrons (LHC), operado pela Organização Europeia para Pesquisa Nuclear (Cern), na fronteira entre França e Suíça.
O próximo passo da equipe paulista será avaliar o desempenho do protótipo em phantons com variados tamanhos de seios e diferentes tipos de tumor. Ainda não há empresas interessadas em colaborar com o projeto. Em outros países, aparelhos desse tipo já estão em estágios mais avançados de desenvolvimento. Em um artigo de revisão publicado em dezembro de 2024 na IEEE Access, os pesquisadores da USP e do IFSP compararam
4
Uma unidade de processamento trabalha os sinais refletidos e, com ajuda de um algoritmo próprio, gera um mapa bidimensional da região analisada
o desempenho de 12 protótipos e viram que eles apresentam níveis diferentes de sensibilidade (capacidade de identificar corretamente as pessoas com um tumor) e especificidade (capacidade de apresentar um resultado negativo em quem não tem um tumor).
Alguns mostraram alta precisão, como o aparelho da Universidade McMaster, no Canadá, que se revelou capaz de identificar tumores com 2,4 mm, embora o exame demore cinco horas (ver infográfico na versão on-line da reportagem). Um dos dispositivos mais avançados atende pelo nome de Maria (multistatic array processing for radio-wave image acquisition) e foi criado na Universidade de Bristol, na Inglaterra. Em um teste clínico com 389 mulheres com idade média de 47 anos, a sexta versão do aparelho conseguiu identificar corretamente 47% das lesões malignas, percentual ainda bastante aquém da mamografia convencional, que teve taxa de acerto de 92%, conforme detalhado em um artigo de janeiro de 2024 no British Journal of Radiology
Apesar de o exame ter sido bem avaliado pelas mulheres, os autores do estudo, liderados pelo radiologista Richard Sidebottom, do Royal Marsden NHS Foundation Trust, concluíram que ainda não é possível considerar o diagnóstico por micro-ondas plenamente eficaz. Do total de participantes, 94% preferiram esse procedimento à mamografia tradicional, principalmente pela ausência de compressão da mama e inexistência de radiação ionizante. Nove em cada 10 mulheres relataram mais conforto durante o diagnóstico. l
Os artigos científicos consultados para esta reportagem estão listados na versão on-line.
FONTE BRUNO SANCHES (USP)
Café renasce na Paraíba
Grãos maduros de um cafeeiro plantado em 2018 em um dos campos experimentais da UFPB
Com variedades selecionadas por pesquisadores, agricultores retomam aos poucos a produção em região serrana do estado
CARLOS FIORAVANTI, de Alagoa Grande e Areia (PB) fotos JHEYSON DANTAS / UFPB
Já aposentado, depois de uma vida profissional dedicada à computação, Guimarin Toledo começou em 2018, aos 60 anos, a segunda graduação, em agronomia, na Universidade Federal da Paraíba (UFPB), campus de Areia, município com 23 mil moradores a 130 quilômetros da capital. Durante o curso, ele soube dos planos de alguns professores de retomar o cultivo do café na região, quase um século depois de ter desaparecido, junto com outra base da economia agrícola na época, o algodão.
Toledo comprou 200 mudas que começavam a ser cultivadas nos canteiros experimentais da universidade e as plantou em uma área usada como pasto em sua propriedade rural no município vizinho de Alagoa Grande. Agora, como um recém-formado engenheiro-agrônomo, ele passeia entre as fileiras com 2 mil pés de nove variedades de café arábica (Coffea arabica), viçosos, quase todos carregados de frutos verdes.
“Vamos começar a colher neste ano, lá por julho ou agosto”, ele comemora. “Pretendo vender em pequenos lotes, para cafeterias.” Sua filha Laura, formada em 2022 em agronomia também em Areia, já cuida da divulgação do café pelas redes sociais. Por enquanto, a principal fonte de renda da propriedade é a venda dos ovos produzidos por 1.100 galinhas, mantidas em um pavilhão próximo ao cafezal, com direito a ciscar na mata próxima duas vezes por dia.
Ao lado dos Toledo, o engenheiro-agrônomo da UFPB Guilherme Silva de Podestá, um dos coordenadores do projeto de reintrodução da cafeicultura na região, examina as plantas, reconhece o zelo com que são tratadas – todo dia, recebem 10 mil litros de água – e comenta: “Diziam que o café arábica só crescia a pelo menos 700 metros [m] de altitude, mas aqui [em Alagoa Grande] estamos a 272 m. O crescimento foi
semelhante ao nosso, em Areia, a 570 m. Resta avaliar a produtividade”.
Três horas antes, era a vez de Podestá exibir um campo de testes, em uma das fazendas da universidade, com 250 cafeeiros de 21 variedades de café arábica plantados em 2018. Carregados de frutos verdes, alguns têm quase 3 m de altura.
“Dá certo plantar café nesta região”, ele atesta. “Conseguimos produzir 40 sacas [de 60 quilogramas] por hectare, quando a média nacional, no ano passado, foi de 27. Em 2023, a variedade catucaí 24/137 produziu 45 sacas por hectare.” Além dessa variedade, que também foi a que se destacou nas terras dos Toledo, outras três se mostraram bastante produtivas – catuaí vermelho 144, catuaí amarelo 62 e arara. Em um artigo publicado em junho de 2021 na Research, Society and Development e em outro em dezembro de 2024 na Revista de Agricultura Neotropical, o grupo da UFPB descreve a seleção e a produtividade das variedades cultivadas nas fazendas da universidade.
Se os experimentos avançarem, as plantas produzirem bem e os consumidores gostarem do resultado, a região poderá se tornar uma fornecedora de cafés especiais. Com aroma e sabor diferenciados, produzidos em quantidades pequenas, os cafés especiais hoje respondem por no máximo 10% do volume total produzido no país (ver Pesquisa FAPESP no 340). Os cafezais poderiam também ajudar a diversificar a economia agrícola do estado. Em 2017, data do mais recente Censo Agropecuário, os produtores rurais da Paraíba produziram 5,1 milhões de toneladas (t) de cana-de-açúcar, 79 mil t de mandioca, 39 mil t de banana e 46 milhões de unidades de coco-da-baía.
PRAGAS, CLIMA E SOLOS
Perguntar sobre pragas é inevitável, já que a derrocada da cafeicultura na região é atribuída à proliferação descontrolada dos insetos pequenos e vermelhos conhecidos como cochonilhas (Cero-
cocus parahybensis), somada à escassez de recursos para combatê-los. Especialista em doenças de plantas, Podestá não se abala: “As plantas têm pouca cochonilha, que combatemos com controle biológico”, diz.
Segundo ele, dois problemas realmente preocupantes são outro inseto, o bicho-mineiro-do-cafeeiro (Leucoptera coffeella), mariposa considerada praga dos cafezais em todo o mundo, controlada por meio de inseticidas industrializados, e o fungo Cercospora coffeicola, causador da doença conhecida como mancha de olho pardo, por causa das marcas que deixa nas plantas. A praga é combatida por meio de fungicidas e do monitoramento do estado nutricional das plantas.
Criado em cafezais da família em Cabo Verde, Minas Gerais, Podestá chegou a Areia como professor contratado em 2016 e logo começou a estudar as possibilidades de plantar café por ali. “Vi que o clima era favorável e havia uma história de produção”, conta.
Segundo ele, há relatos de que no final do século XIX e início do XX a região serrana mais próxima do litoral, conhecida como Brejo Paraibano, chegou a ter 6 milhões de pés de café.
Tanto o clima quanto o relevo jogam a favor da planta. “A umidade vem do litoral e, ao encontrar a serra de Alagoa Grande, antes de Areia, sobe e esfria”, descreve o também engenheiro-agrônomo da UFPB Raphael Beirigo, que participa da pesquisa. “Chove mais em Areia do que em outras serras mais a oeste.” Especialista em solos, ele conta que em Areia e em municípios próximos há manchas de latossolo húmico, rico em matéria orgânica, semelhante ao de regiões elevadas de São Paulo e Minas Gerais onde se cultiva café.
Atualmente, a Bahia concentra 97% da produção de café na região Nordeste e é o quarto maior produtor nacional, após Minas Gerais, Espírito Santo e São Paulo. Agricultores de outros estados da região voltam a reconsiderar o plantio da rubiácea. Em um artigo de setembro de 2023 na revista Turismo: Visão e Ação, pesquisadores da Universidade Federal do Ceará (UFC) registraram a revitalização, a partir de 2013, do plantio do café sombreado, entre árvores, na serra de Baturité, no centro-norte do estado. A retomada da cafeicultura, que havia sido trocada pelo cultivo de frutas a partir da década de 1930, resultou na mobilização do Serviço Brasileiro de Apoio às Micro e Pequenas Empresas (Sebrae), de cooperativas de agricultores e de órgãos públicos.
Para reconstituir a cafeicultura na Paraíba, Podestá conseguiu sementes com um produtor
Cafeicultores participam de colheita (acima) e seleção de grãos (na outra página) de um cafezal da UFPB em agosto de 2024. Ao lado, uma das variedades plantadas em 2019 que passa por testes de produtividade e qualidade
de Minas Gerais e colegas da Empresa de Pesquisa Agropecuária de Minas Gerais (Epamig) e da Fundação Procafé. As plantas brotaram e cresceram bem na região, animando o grupo para outras ações.
Em uma noite de quarta-feira, em maio de 2023, enquanto tomavam cerveja e comiam tripa de porco frita em um bar próximo à universidade, depois do trabalho, Podestá e Beirigo, então diretor de transferência e licenciamento tecnológico da Agência UFPB de Inovação Tecnológica (Inova), tiveram a ideia de criar uma marca que poderia facilitar a venda e a obtenção de financiamentos para a continuidade das pesquisas com o café que começava a ser produzido em caráter experimental na universidade.
Um refratômetro indica a proporção de açúcares nos grãos, que determina o ponto ideal de colheita
A designer de produto Angélica Acioly e outros professores da UFPB criaram a identidade visual da marca Grãos da Parahyba, lançada em setembro de 2024 – é bastante raro no Brasil as universidades criarem marcas para seus produtos. Assim que sair o registro no Ministério da Agricultura e Pecuária (Mapa) e na Associação Brasileira da Indústria de Café (Abic), a empresa Junior Coffee Solutions, em fase de constituição, poderá receber o dinheiro das vendas, a ser usado em novas pesquisas.
O grupo de pesquisa distribuiu 9 mil mudas em 2023 e 10 mil no ano passado para 35 produtores em sete municípios da região chamada Brejo Paraibano: Areia, Alagoa Grande, Alagoa Nova, Bananeiras, Pilões, Serraria e Matinhas. A previsão para este ano é que outras 18 mil mudas cheguem aos agricultores.
“Garantimos a compra da safra, ainda que seja muito pequena, de três, cinco sacas por produtor”, anuncia Frederico Dominguez, gerente nacional de marketing da São Braz Indústria e Comércio, um dos maiores grupos empresariais do setor de alimentos no estado. “Nos próximos anos, a produção ainda será muito pequena para ser
trabalhada industrialmente, mas podemos usar para blendar [compor] com produtos nossos.” Dominguez acompanha o trabalho dos pesquisadores, para os quais doou um torrador e um moinho, mantidos na sala do Núcleo de Estudos em Cafeicultura (Necaf), nos fundos de um dos prédios da UFPB, que é também um espaço de degustação do café macio, de gosto suave. Em outubro de 2024, na cidade de São Paulo, uma avaliadora certificada de cafés especiais identificou aromas de caramelo, especiarias e frutas vermelhas na bebida feita com os grãos de Areia, enquanto o sabor era de chocolate ao leite, caramelo, frutas cítricas e frutas secas. As duas amostras enviadas para avaliação obtiveram uma pontuação de 81,25 e 82,75.
Ocafé contribui para a formação dos alunos da universidade ao motivar nove trabalhos de conclusão de curso, já finalizados, e sete em andamento, um mestrado concluído e três em andamento e um doutorado em curso. Muitas pesquisas são feitas em outro campo experimental, com 2.500 plantas de 32 variedades de café, para as quais se buscam as formas de adubação e irrigação mais adequadas à região. Em um dos experimentos, Jheyson Dantas, no último ano do curso de agronomia, avalia as respostas de quatro variedades a diferentes tratamentos para induzir a resistência a pragas e doenças.
Correm também estudos de caracterização das variedades selvagens, remanescentes das plantas encontradas há décadas na região. Podestá e sua equipe as conheceram em meados de 2023, ao visitarem pela primeira vez o Quilombo Bonfim, em Cepilho, distrito de Areia.
Nas terras de um dos moradores do quilombo, o agricultor de 49 anos José Alves de Maria, os cafeeiros crescem entre bananeiras, limoeiros, laranjeiras e pés de mandioca. “Meu pai trouxe 30 pés da mata e plantou por aqui”, conta. Mostrando um cafeeiro, de quase 3 m de altura, ele diz, orgulhoso: “Este aqui deu 6 quilos de café. Passamos seis meses tomando”. Sob um grande cajueiro, ele próprio plantou uma muda, já bem alta. “Com um ano já botou [frutificou].”
A história é ainda mais antiga. A mãe dele, Inácia Alves, de 75 anos, recorda-se: “Desde criança via meu pai trazer da mata e plantar. Quando é tempo, eu mesmo torro na panela, com açúcar e rapadura, e depois pilo [mói no pilão]. Antes tinha bastante café, nas matas. Agora está safrejando [produzindo] de novo.” l
Os artigos científicos consultados para esta reportagem estão listados na versão on-line.
Ao lado, estátua A Justiça, situada em frente ao prédio do STF; abaixo, sessão plenária da Corte em fevereiro
Três pesquisadores realizaram recentemente um esforço para tentar identificar os fatores que influenciam as decisões do Supremo Tribunal Federal (STF), a mais alta Corte de Justiça do país. Em busca de respostas para problemas que desafiam os especialistas da área há décadas, eles reuniram informações sobre 2 milhões de votos individuais e 423 mil decisões tomadas pelo STF desde 1988 e criaram o banco de dados mais completo sobre o assunto já construído.
Formado por dois professores de direito do Insper, de São Paulo, Diego Werneck Arguelhes e Ivar Hartmann, e pelo cientista político Evan Rosevear, da Universidade de Southampton, do Reino Unido, o trio resolveu separar os casos mais controversos para observar melhor as diferenças entre os 11 ministros do Tribunal. Os pesquisadores se concentraram então nos 8 mil processos que mais dividiram a Corte, nos quais pelo menos dois ministros divergiram de colegas ao julgar.
Técnicas estatísticas foram usadas para avaliar efeitos associados a características pessoais dos magistrados, como trajetória profissional e gênero, regras do Tribunal e outros fatores que podem influir nos resultados dos julgamentos, sem considerar interpretações da lei e da jurisprudência da Corte. Elas confirmaram, por exemplo, uma hipótese antiga sobre o impacto da publicidade
das deliberações do STF, cujas sessões passaram a ser transmitidas ao vivo na televisão e no YouTube no início dos anos 2000. A análise mostrou que as divergências são mais frequentes nos julgamentos exibidos pela TV Justiça.
Surgiram evidências de que a trajetória profissional dos ministros também importa. Os que atuaram como juízes em outros tribunais antes do Supremo tendem a divergir mais, revelam os dados. Esse comportamento contraria expectativas criadas por trabalhos que examinaram Cortes constitucionais de outros países. O estudo apontou o desvio em julgamentos do plenário do STF, onde os 11 ministros votam, mas não nas duas turmas em que eles se dividem, onde julgam a maioria dos casos.
Há também indícios de que questões de gênero afetam o dia a dia da Corte. O trio descobriu que mulheres divergem menos do que colegas homens, e eles divergem menos nos casos que têm uma delas como relatora. No entanto, um estudo realizado por Werneck com outros pesquisadores no ano passado revelou que os homens interrompem suas colegas com frequência no plenário do Tribunal. Como apenas três mulheres chegaram ao STF até hoje e só uma continua lá, faltam elementos para compreender melhor essa dinâmica.
“Explicar o comportamento dos ministros de um tribunal como o STF é desafiador, porque são muitos os fatores em jogo”, diz Werneck. “Con-
Osso duro de roer
Volume de processos e múltiplas funções
tornam o STF um objeto de estudo desafiador
A carga de trabalho do STF é muito maior que a de outras cortes constitucionais
Estados Unidos*
A maior parte das decisões trata de recursos apresentados contra instâncias inferiores
Ações originárias, incluindo habeas corpus
Ações de controle de constitucionalidade
A maioria das decisões é tomada individualmente pelos ministros, sem consulta aos colegas
Quase todas as decisões colegiadas são tomadas
seguimos testar um grande número de hipóteses com uma base mais ampla do que as usadas em pesquisas anteriores, mas ainda há muito trabalho a fazer para entender o que os dados nos revelam.” Um artigo científico com os primeiros achados do trio foi publicado no ano passado no Journal of Law & Empirical Analysis
Pesquisadores dedicados ao estudo do Poder Judiciário têm investido cada vez mais em levantamentos quantitativos como esse para examinar o funcionamento do Supremo, que se fortaleceu após a promulgação da Constituição de 1988 e assumiu papel central no sistema político brasileiro. Eles defendem que só assim será possível ir além de pressupostos teóricos sobre a atuação dos ministros do Tribunal e desvendar padrões que expliquem suas decisões.
O STF é um objeto de estudo difícil por causa das múltiplas funções que desempenha e da grande carga de trabalho que elas impõem. A nova Constituição ampliou direitos e garantias dos cidadãos, o que aumentou a procura pelo Poder Judiciário e o número de casos no STF, onde deságuam os recursos contra decisões de instâncias inferiores. A Carta também ampliou o acesso ao Tribunal ao permitir que partidos políticos, associações de classe e outras organizações recorram a ele para questionar a constitucionalidade de leis e atos do Executivo e do Legislativo. Além disso, o STF é responsável por investigar, processar e julgar políticos e centenas de outras autoridades que têm direito a foro especial.
Mais de 40 mil novos processos foram distribuídos aos ministros do Supremo só no ano passado, período em que assinaram 115 mil decisões (ver gráfico ao lado). De cada cinco, quatro foram tomadas individualmente pelos ministros, sem que outros membros do colegiado opinassem, de acordo com as estatísticas disponíveis no site do Tribunal. A Suprema Corte dos Estados Unidos decide menos de uma centena de casos por ano, selecionados entre milhares de petições. A Corte Constitucional Federal da Alemanha resolve menos de 6 mil.
O interesse pelos estudos quantitativos é decorrência natural do grande número de ações, mas reflete também a preocupação dos estudiosos com o poder individual dos membros do STF, sem paralelo nas Cortes de outros países. “Nossos ministros se tornaram atores políticos de primeira grandeza e precisamos entender melhor como eles exercem seus poderes, porque isso afeta a legitimidade da Corte”, avalia o cientista político Rogério Bastos Arantes, da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de
Acima,
indígenas
acompanham
julgamento
da
tese do marco temporal, em 2023; à esquerda, a ministra Rosa Weber, que se aposentou naquele ano
São Paulo (FFLCH-USP) e coordenador do grupo de estudos Judiciário e Democracia.
Nos primeiros anos de vigência da Constituição de 1988, a prioridade dos pesquisadores da área era examinar a resposta do Tribunal à enxurrada de novas ações. Estudos realizados nesse período mostraram que o Supremo exerceu seu poder de veto sobre os atos de outros poderes em poucas situações, contrariando as expectativas dos especialistas. Com o tempo, o Congresso ampliou os poderes do STF, criando instrumentos para a Corte impor suas decisões a outras instâncias do Judiciário, e ela se tornou mais assertiva, o que deslocou a atenção dos acadêmicos para o comportamento individual dos ministros e seus cálculos estratégicos.
A socióloga Fabiana Luci de Oliveira, da Universidade Federal de São Carlos (UFSCar), foi uma das primeiras a percorrer essa trilha. Em trabalhos publicados a partir de 2002, ela analisou votos individuais em centenas de ações de inconstitucionalidade e recolheu evidências de que preferências políticas e trajetórias profissionais influenciavam os ministros. “Em alguns casos, eles mencionavam nos próprios votos sua preocupação com as repercussões políticas de suas decisões para o governo e a imagem do Tribunal”, diz Oliveira. Outro passo importante foi dado pela Escola de Direito da Fundação Getulio Vargas (FGV) no Rio de Janeiro em 2010, quando foi lançado o projeto Supremo em Números, liderado pelo professor de direito constitucional Joaquim Falcão, hoje aposentado. O grupo de estudos, do qual Werneck, Hartmann e outros pesquisadores
participaram, foi o primeiro a desenvolver um banco de dados abrangente sobre as decisões da Corte. Os achados foram divulgados em relatórios anuais publicados até 2020.
Arealização d esses levantamentos requer meses de trabalho. A maior parte das informações está no site do STF e pode ser extraída com ferramentas de raspagem de dados, programas de computador que copiam o que estiver disponível de forma automatizada. Os pesquisadores do Insper ainda precisaram criar um algoritmo para determinar o voto de cada ministro nos casos reunidos, porque os resumos no site do Tribunal só informam quais ministros ficaram vencidos nos julgamentos e não nomeiam os que se alinharam para formar a maioria. Manter os bancos de dados atualizados exige a repetição de vários procedimentos.
O grupo coordenado por Rogério Arantes na USP espera dar outro impulso aos estudos da área neste semestre, quando deve disponibilizar a pesquisadores um banco de dados com informações de todos os casos disponíveis no site do STF, incluindo os nomes das partes, as movimentações dos processos e os resumos das decisões. Em uma segunda etapa, o grupo pretende incluir na base de dados informações das sessões do plenário virtual da Corte, em que não há interação entre os ministros e onde a maioria das decisões é tomada atualmente.
Apesar das expectativas criadas pelo avanço dos estudos quantitativos, muitos pesquisadores da área veem limites que mesmo o mais completo banco de dados não teria como superar. “O Supremo é um Tribunal muito complexo e idiossincrático, com oscilações frequentes em suas posições sobre questões importantes”, diz Eloísa Machado
de Almeida, coordenadora do grupo Supremo em Pauta na Escola de Direito da FGV em São Paulo. “As estatísticas não captam nuances que só podemos compreender acompanhando as sessões e lendo os votos.”
Para Virgílio Afonso da Silva, professor de direito constitucional da Faculdade de Direito da USP, as pesquisas empíricas têm contribuído para um entendimento mais sofisticado do funcionamento do STF. Ele observa que o excesso de informação obriga os pesquisadores a fazer escolhas para separar os casos relevantes dos corriqueiros na montanha de processos com a qual a Corte lida, mas isso também pode introduzir vieses indesejáveis em suas análises.
Separar casos decididos sem unanimidade, como os pesquisadores do Insper fizeram, ou se concentrar nos que atraem a atenção da imprensa, como outros sugerem, são alternativas que podem excluir casos importantes para a compreensão da Corte. “Existem decisões unânimes e fora do radar da mídia que são relevantes também”, diz Silva. “Ainda estamos numa encruzilhada, buscando critérios para interpretar os dados, e parece difícil tirar conclusões muito taxativas.”
Entre 2011 e 2013, como parte de um projeto de pesquisa sobre o processo deliberativo do Tribunal, que teve apoio da FAPESP, Silva entrevistou 17 ministros, incluindo atuais integrantes do STF e aposentados. Vários indicaram, entre os fatores que influenciam suas decisões, elementos que os estudos empíricos dificilmente captam, como as preocupações que eles têm com críticas da academia e o impacto econômico das decisões do Supremo.
A emergência do plenário virtual como local em que a maioria das decisões é tomada criou outras complicações. Na plataforma, os ministros podem depositar votos escritos ou indicar se acompanham a opinião do relator do caso ou a de outro colega. Não há debates, mas qualquer um dos ministros pode interromper o julgamento com pedidos de vista, para analisar melhor o processo, ou pedidos de destaque, que remetem a discussão ao plenário físico, o que muda bastante os cálculos que os ministros costumam fazer ao decidir. O mais difícil tem sido identificar as motivações por trás dos cálculos dos ministros. Nos Estados Unidos, onde se desenvolveram muitos estudos que influenciam os especialistas dessa área, pesquisas apontam preferências políticas e ideológicas dos membros da Suprema Corte como fatores determinantes para explicar suas decisões e encontram forte associação entre as preferências dos juízes e os partidos dos presidentes que os nomearam. Mas tem sido difícil replicar esse
O ministro Luiz Fux preside sessão plenária por videoconferência em 2021 1
resultado no Brasil, por causa das diferenças entre os sistemas políticos dos dois países.
Em trabalho publicado há dois anos na Brazilian Political Science Review, Rogério Arantes e o cientista político Rodrigo Martins, da USP, propuseram uma tipologia para analisar as trajetórias profissionais dos ministros e verificar se elas influenciam suas decisões. Para testar a hipótese, examinaram uma centena de decisões tomadas durante o julgamento dos envolvidos no escândalo do mensalão, em 2012, e concluíram que as trajetórias profissionais dos ministros foram mais determinantes do que as filiações partidárias dos presidentes que os nomearam.
Juízes de carreira se mostraram mais inclinados a condenar, segundo os pesquisadores. Os oito ministros indicados por presidentes filiados ao Partido dos Trabalhadores (PT) e que participaram do julgamento se dividiram ao meio entre os que aplicaram punições severas e os que foram mais tolerantes com os acusados. Três se alinharam com o ministro Joaquim Barbosa, que foi relator do processo e votou pela condenação dos réus em 88% de suas decisões. Os outros votaram pela condenação em menos de 60% das vezes, alinhando-se a Ricardo Lewandowski, revisor do caso, que só votou para condenar em 36% de suas decisões. Ambos foram nomeados pelo presidente Luiz Inácio Lula da Silva.
“Se o modelo desenvolvido faz sentido para analisar o comportamento judicial, pode ser útil também para entender as escolhas que os presidentes fazem quando há vagas abertas na Corte”, afirma Arantes. “Diferentemente dos Estados Unidos, onde as escolhas são mais claramente unipartidárias, no Brasil os presidentes se afastam de opções francamente partidárias e olham a trajetória profissional dos candidatos a ministro, buscando elementos que ajudem a alcançar a aprovação da maioria no Senado e, quem sabe, influenciar os rumos do Tribunal.”
Em tese de doutorado defendida na Universidade Federal de Minas Gerais (UFMG) em 2024, Shandor Torok Moreira, procurador do estado de Mato Grosso do Sul, propôs outro modelo para
Ao lado, sessão de 2012 que deu início ao julgamento
determinar o efeito das preferências políticas dos ministros do STF. Na pesquisa, ele selecionou 465 casos julgados entre 2010 e 2018 e dividiu as decisões em dois grupos, classificando-as como conservadoras ou progressistas. Em seguida, verificou como os ministros se posicionaram em cada situação e estabeleceu suas preferências ideológicas.
Para classificar as decisões, o pesquisador analisou os temas em discussão nas ações e adotou diferentes critérios. Em processos criminais, por exemplo, decisões favoráveis aos réus foram classificadas como progressistas e as demais como conservadoras. Decisões a favor de grupos vulneráveis, consumidores e sindicatos foram consideradas progressistas. Em disputas tributárias, votos a favor de empresas e contribuintes foram carimbados como conservadores. Segundo a tese, muitos ministros tendem a se alinhar com posições conservadoras, alguns deles em mais de 60% dos casos, mas os resultados sugerem também que a maioria tem perfil moderado, oscilando entre posições de orientação ideológica diferente conforme o tema em discussão. “A visão de mundo dos ministros é um dos fatores que influem em suas decisões, e isso ajuda a tornar o seu comportamento mais previsível”, afirma Moreira. Alguns pesquisadores dedicados ao tema alimentam a expectativa de que os modelos estatísticos usados para interpretar os novos bancos de dados podem contribuir para prever as decisões do STF, o que ajudaria advogados e seus clientes
a avaliar melhor os custos e oS riscos de uma ação no Tribunal. Mas há limites nesse departamento também. “Existem algoritmos capazes de prever decisões com taxas de acerto elevadas, mas nenhum consegue antecipar o desfecho dos casos mais complexos e importantes”, afirma Hartmann, do Insper.
Em 2002, os cientistas políticos norte-americanos Andrew Martin, da Universidade Washington, e Kevin Quinn, de Harvard, associaram-se a dois professores de direito, Theodore Ruger, da Universidade da Pensilvânia, e Pauline Kim, também da Universidade Washington, para tentar prever os resultados de todos os casos discutidos pela Suprema Corte dos Estados Unidos durante um ano. Os dois primeiros usaram um modelo estatístico para suas previsões e os outros dois recorreram ao conhecimento acumulado por um grupo de especialistas, incluindo advogados e professores. Os resultados do experimento foram mistos. Os cientistas políticos acertaram o desfecho das ações em 75% dos 68 casos analisados e os especialistas em direito alcançaram êxito em 59%. Na previsão dos votos individuais dos ministros, os dois times empataram. O modelo estatístico acertou suas previsões em 67% dos votos e os juristas em 68%. O experimento de 2002 não foi repetido, mas outros pesquisadores desenvolveram novos algoritmos desde então, alcançando taxas de acerto superiores. No Brasil, ninguém tentou nada parecido até agora. l
O projeto e os artigos científicos consultados para esta reportagem estão listados na versão on-line.
do processo do mensalão
Jorge Amado, em 1972: traduzido em 49 idiomas, autor nunca foi unanimidade entre a crítica brasileira
“D
ona Flor: essa senhora vai indo. As últimas duas cenas da quarta parte saíram logo, a primeira facilmente, num dia, a segunda custando-me quatro dias: também era a chegada de Vadinho. Comecei na quinta parte, estou fazendo hoje a primeira cena, esta já escrita em bruto, faltando reescrever. Mas agora estou nos problemas dessa quinta parte que é fogo”. Assim o escritor baiano Jorge Amado (1912-2001), em carta de 1962 dirigida à sua esposa, a escritora Zélia Gattai (1916-2008), detalhou a elaboração de uma das cenas principais do romance Dona Flor e seus dois maridos (1966). “Quem vê a caudalosa obra de Amado pode pensar que ele foi um escritor intuitivo, descuidado de seu processo de criação”, observa Marcos Antonio de Moraes, professor de literatura brasileira da Universidade de São Paulo (USP). “Porém sua correspondência mostra o contrário: ele era disciplinado, gostava de maturar suas histórias, angustiava-se diante do texto em processo.”
Moraes é um dos 56 pesquisadores que escreveram verbetes para o recém-lançado Dicionário crítico Jorge Amado (Edusp), organizado pelos historiadores Marcos Silva (1950-2024), que foi professor da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP, e Nelson Tomelin Jr., da Universidade Federal do Amazonas (Ufam). Elaborado ao longo de 10 anos, o livro reúne textos produzidos por pesquisadores de diversas áreas do conhecimento, como de estudos literários e antropologia, que discutem a obra de Amado. É o caso dos 23 romances escritos pelo autor baiano desde a década de 1930, como Jubiabá (1935) e Gabriela, cravo e canela (1958). O dicionário traz também verbetes sobre elementos que ajudam a contar a trajetória do escritor, como o discurso que proferiu ao tomar posse na Academia Brasileira de Letras, em 1961.
Segundo Tomelin Jr., um dos objetivos da publicação, que teve apoio da Fundação de Amparo à Pesquisa do Estado do Amazonas (Fapeam), é contribuir para ampliar e renovar a leitura da produção literária de Amado e de seu contexto de época. “Ele possui incontáveis leitores no país e mundo afora devido, sobretudo, à força de sua escrita, ao
alcance temático e à capacidade de diálogo dos seus livros com o seu tempo histórico de criação, mas nem sempre teve uma recepção respeitosa por parte da crítica e de seus pares no Brasil”, comenta o pesquisador. Um dos motivos, suspeita Eduardo de Assis Duarte, professor aposentado da Faculdade de Letras da Universidade Federal de Minas Gerais (UFMG), estaria justamente em sua grande popularidade entre os leitores. “Parte da academia o considera um autor ‘fácil’, de folhetim, mas ele discutiu questões cruciais do Brasil já na década de 1930, como a infância em situação de rua em Capitães da areia [1937].”
De acordo com a jornalista e historiadora Joselia Aguiar, autora de Jorge Amado: Uma biografia (Editora Todavia, 2018), a fortuna crítica do escritor se inicia já nos anos 1930. “Nas primeiras décadas ele teve uma recepção muito positiva e recebeu críticas favoráveis de nomes como Oswald de Andrade [1890-1954] e Antonio Candido [1918-2017]”, conta Aguiar, que também defendeu tese de doutorado no Departamento de História da USP, em 2019, sobre o autor baiano. “Entretanto, a partir dos anos 1970, Amado passou a ser duramente rechaçado por uma abordagem da crítica mais concentrada em questões de gênero, como foi o caso de um artigo de Walnice Nogueira Galvão, da USP, com análise negativa do livro Tereza Batista cansada de guerra [1972], que reverberou na academia durante muito tempo.”
Além disso, prossegue Aguiar, com o fortalecimento do movimento negro, também no fim da década de 1970, autores que trataram da questão racial, como era o caso de Amado, passaram a ser mais questionados pela visão por vezes considerada excessivamente conciliatória. “Mas hoje percebe-se que mesmo nessas searas a sua obra vem sendo revista, resgatada e revalorizada”, afirma a pesquisadora. Isso acontece, por exemplo, em razão da ampliação do acesso de estudantes negros à universidade, sobretudo nos últimos 25 anos, fator responsável por trazer novos olhares à academia, e também pela reedição da obra de Amado pela editora Companhia das Letras a partir de 2008. “O que falta hoje é mais gente da própria literatura se debruçar sobre a obra dele para entender melhor seu sucesso, suas estratégias literárias”, opina.
Outra ressalva feita ao autor por críticos como Alfredo Bosi (1936-2021), da USP, é o tom excessivamente panfletário de algumas de suas obras escritas entre os anos 1930 e 1950. Ao se vincular ao Partido Comunista do Brasil (PCB) em 1931, Amado passou a fazer propaganda ideológica por meio de livros e panfletos encomendados pelo PCB, alguns nunca reeditados. É o caso de Homens e coisas do Partido Comunista (1946), que integra uma coleção publicada pela editora Horizonte, pertencente ao partido. Ao longo de 61 páginas, o título narra a trajetória de militantes comunistas considerados heroicos no combate ao fascismo no Brasil, durante o Estado Novo (1937-1945).
“Essa fase mais ideológica de Amado é muito malvista pela crítica literária não por sua adesão ao comunismo, mas por ele ter se tornado uma espécie de funcionário ativo da propaganda do Partido Comunista e da divulgação do socialismo internacional por meio do realismo socialista”, comenta o historiador Lincoln Secco, da FFLCH-USP, que assina o verbete a respeito de Homens e coisas do Partido Comunista . Entretanto, se as obras de propaganda partidária lhe custaram a animosidade da crítica especializada, também lhe renderam fama internacional. O romance biográfico O cavaleiro da esperança (1942) por exemplo, encomenda do PCB a Amado sobre a trajetória do líder político Luís Carlos Prestes (1898-1990), foi traduzido para 21 idiomas, como alemão, francês e japonês. “O movimento comunista gastava muito dinheiro em publicações para propagandear suas causas”, diz o pesquisador.
Em tese de doutorado defendida no ano passado na FFLCH-USP, com apoio da FAPESP, o historiador Geferson Santana investigou a atuação de Amado e outros dois intelectuais baianos, Edison Carneiro (1912-1972) e Aydano do Couto Ferraz (1914-1985), nos debates sobre raça e classe na primeira metade do século XX. “Na década de 1920,
o PCB negava a existência do racismo no país e chegou a corroborar a ideia de branqueamento da população brasileira”, conta o pesquisador. “Esses três intelectuais, que entram no PCB nos anos 1930, estão entre os principais responsáveis por alimentar a pauta racial no partido. Eles queriam combater o racismo e a intolerância religiosa, bem como ampliar a representação dos comunistas entre os trabalhadores negros.”
Afase literária fortemente pautada pela política durou até a década de 1950. Escrita no exílio na Europa, a trilogia Os subterrâneos da liberdade (1954) é considerada a última obra ideológica do autor. Os três volumes, intitulados Os ásperos tempos, Agonia da noite e A luz no túnel, traçam um painel da vida política brasileira às vésperas do golpe de Estado comandado por Getúlio Vargas, em 1937. Para Antonio Dimas, professor de literatura brasileira da FFLCH-USP, Os subterrâneos da liberdade seria uma espécie de atestado de dever cumprido direcionado ao Partido Comunista, do qual Amado se afastaria logo depois, em 1956. “É como se ele dissesse: ‘Com essa trilogia, meu recibo está definitivamente pago’.”
Alguns estudiosos da obra amadiana costumam definir Gabriela, cravo e canela , publicado em 1958, como um divisor de águas na carreira do escritor. É o caso de Dimas. Para o pesquisador, foi quando de fato Amado deixou de ser propagandista para se transformar em romancista. “É um outro Jorge, com mais humor e ironia. Depois desse livro, ele criaria grandes heroínas, como Tieta e Dona Flor”, afirma. “Mas é interessante observar que já no livro O país do Carnaval [1931], que escreveu aos 18 anos, as mulheres são mais ativas e resistentes que os homens, mesmo estando em segundo plano.”
Ao lado, a partir da esquerda, Zélia Gattai, os filósofos Jean-Paul Sartre e Simone de Beauvoir e Amado com Mãe Senhora (sentada), nos anos 1960, em Salvador. Acima, capas de Jubiabá e da edição norte-americana de Gabriela, cravo e canela
A partir do alto, dois registros de Amado (de pé ) nos anos 1960: em encontro com a presença do presidente João Goulart (à esq. da luminária) e na Academia Brasileira de Letras
Já Duarte, da UFMG, não vê rupturas signi ficativas na trajetória literária do escritor. É o que ele busca mostrar no recém-lançado Narrador do Brasil: Jorge Amado, leitor de seu tempo e de seu país (Fino Traço Editora, 2024). Em sua análise, o pesquisador defende que Amado tratou durante todo o seu percurso literário das questões de gênero, classe e raça. “Ele sempre escreveu sobre mulheres livres, donas da própria vida”, afirma. “E ainda teve a coragem de colocar duas prostitutas como protagonistas de suas histórias, em Tieta do agreste [1977] e Tereza Batista cansada de guerra .”
Graças a títulos como Gabriela, cravo e canela, Amado entrou em 1996 para o Guinness, o livro dos recordes, como o autor mais traduzido no mundo. A obra do escritor baiano foi vertida para 49 idiomas. Seus livros chegaram aos Estados Unidos a partir da década de 1940, principalmente devido à chamada Política de Boa Vizinhança do presidente Franklin D. Roosevelt (1892-1945) após a Segunda Guerra Mundial (1939-1945). Na ocasião, o Departamento de Estado norte-ame -
ricano passou a patrocinar, entre outras ações, a edição de autores estrangeiros naquele país. No caso de Amado, sua estreia se deu com Terras do sem-fim, que saiu no Brasil em 1943 e foi lançado dois anos mais tarde em inglês (ver Pesquisa FAPESP nº 317). A publicação esteve a cargo dos editores norte-americanos Alfred Knopf (1892-1984) e sua mulher, Blanche Knopf (1894-1966). “Em função da Política de Boa Vizinhança, o interesse inicial dos Knopf era editar autores que falassem sobre a história do Brasil em seus romances, como também era o caso de Érico Verissimo [1905-1975]”, conta a tradutora Marly Tooge, que no ano passado publicou artigo a respeito do episódio.
Com Gabriela, que foi lançado nos Estados Unidos em 1962, o escritor baiano ficou na lista dos best-sellers do jornal The New York Times por um ano. “Ao que tudo indica, o fato de Amado ter rompido com a ideologia marxista na década de 1950 contribuiu para sua inserção no mercado norte-americano. Mas a tradução também ajudou nesse sentido”, prossegue Tooge, cuja dissertação de mestrado, defendida em 2009 na FFLCH-USP, virou o livro Traduzindo o BraZil: O país mestiço de Jorge Amado (Humanitas, 2012), que saiu com apoio da FAPESP. A pesquisadora se refere aos tradutores James Taylor e William Grossman, que na versão para o inglês amenizaram as questões sociais e trouxeram o foco para a sensualidade da trama. “Essa suavização aconteceu também em outros títulos de Amado publicados nos Estados Unidos, como Dona Flor e seus dois maridos Além disso, os anúncios publicitários reforçaram o lado ‘exótico’ de suas histórias. Já na Europa, seus livros de maior sucesso foram aqueles da fase ideológica”, diz.
Além de escrever livros, Amado foi um grande missivista. Segundo Aguiar, o acervo de correspondências reunido pelo autor e por Gattai, hoje depositado na Fundação Casa de Jorge Amado, em Salvador, reúne cerca de 70 mil cartas. Em sua tese de doutorado, a pesquisadora se deteve na correspondência trocada pelo autor entre os anos 1950 e 1980 com escritores de língua hispânica, como o cubano Nicolás Guillén (1890-1954) e o chileno Pablo Neruda (1904-1973). “Nas cartas, Amado construiu uma rede ao mesmo tempo de afeto e fortalecimento cultural e político, defendendo que no caso da América Latina a literatura era uma forma de resistência ao imperialismo”, observa Aguiar. “Ele entendia que era preciso encontrar uma expressão nacional nessa escrita.” l
O projeto, o artigo científico e os livros consultados para esta reportagem estão listados na versão on-line.
O descobridor do efeito termodielétrico no laboratório de física da Universidade do Brasil
Fontes de eletricidade
O engenheiro e físico carioca Joaquim da Costa Ribeiro identificou em 1944 na cera de carnaúba um fenômeno de formação de corrente elétrica usado hoje em celulares e computadores
DANILO ALBERGARIA
Nas noites frias dos anos 1950 em Teresópolis, no Rio de Janeiro, o engenheiro e físico carioca Joaquim da Costa Ribeiro (1906-1960), com seus nove filhos, enrolados em cobertores no gramado do casarão onde passavam as férias de verão, tinha por hábito observar o céu estrelado. “O céu, descrito por ele de forma poética, era um infinito maravilhoso”, lembra a antropóloga Yvonne Maggie de Leers Costa Ribeiro, da Universidade Federal do Rio de Janeiro (UFRJ), ao se lembrar de como seu pai mostrava as constelações e explicava a origem de seus nomes (ver Pesquisa FAPESP no 295). Com cartas, fotos e filmes, o documentário Termodielétrico , lançado em outubro de 2024, dirigido e narrado pela cineasta Ana Costa Ribeiro,
uma de suas netas, retoma a trajetória pessoal e científica do avô, descobridor do fenômeno conhecido como efeito termodielétrico. Definida como a capacidade de alguns materiais gerarem corrente elétrica ao passarem de um estado físico para outro –do sólido para o líquido ou vice-versa –, essa propriedade foi identificada pela primeira vez na cera de carnaúba. Em consequência dessa transformação, produziam-se materiais com carga elétrica permanente, os chamados eletretos, empregados em componentes de aparelhos eletrônicos.
Costa Ribeiro não é tão conhecido quanto outros físicos brasileiros de sua época, como César Lattes (1924-2005) e Mário Schenberg (1914-1990) (ver Pesquisa FAPESP nos 307 e 340), embora tenha
1
contribuído para o avanço da pesquisa e a estruturação da ciência nacional. Um dos pioneiros na área atualmente chamada de física da matéria condensada, que estuda as propriedades da matéria e seus elementos, como átomos e elétrons, ele foi um dos fundadores do Centro Brasileiro de Pesquisas Físicas (CBPF), em 1949, e do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), em 1951, do qual foi o primeiro diretor científico.
Sua linhagem materna era de usineiros pernambucanos. Seu pai, paraibano, era da terceira geração de bacharéis em direito – o avô, de quem herdou o nome, foi desembargador. Costa Ribeiro iniciou em 1924 o curso de engenharia civil na Escola Politécnica da Universidade do Rio de Janeiro, renomeada como Universidade do Brasil em 1937 e Universidade Federal do Rio de Janeiro (UFRJ) em 1965. Em 1929, logo após terminar o curso, foi contratado como assistente da cadeira de física experimental da Politécnica. Em 1934, Costa Ribeiro se casou com a francesa Jacqueline de Leers (1911-1957), que havia imigrado ao Brasil em 1917. Para sustentar a família, além da Politécnica, dava aulas numa escola secundária, numa escola técnica na Universidade do Distrito Federal (UDF), extinta em 1939 ao ser anexada à Universidade do Brasil. No começo da carreira, ele mediu a radioatividade de minerais como a uranita ou pechblenda, na qual a física e química franco-polonesa Marie Curie (1867-1934)
Aparelho produzido por Costa Ribeiro e Luigi Sobrero para medir com precisão os ângulos de reflexão da luz (à esq.) e esquema de experiência para verificação do efeito termodielétrico
identificou pela primeira vez um elemento químico radioativo, o rádio. Costa Ribeiro colocava as amostras numa câmara de ionização e media a tensão elétrica, da qual extraía a corrente de ionização que indicava o índice de radioatividade do mineral.
No livro Costa Ribeiro: Ensino, pesquisa e desenvolvimento da física no Brasil (Livraria da Física, 2013), o físico e historiador da ciência Wanderley Vitorino da Silva Filho, da Universidade Federal do Amazonas (Ufam), conta que ele fez adaptações no método original e conseguiu medidas mais rápidas e precisas. Costa Ribeiro confirmou que a uranita continha altos teores de rádio e de outro elemento químico radioativo, o urânio, e publicou os resultados em junho e dezembro de 1940 na Annaes da Academia Brasileira de Sciencias.
No final dos anos 1930, na UDF e no Instituto Nacional de Tecnologia, o físico alemão Bernhard Gross (1905-2002) procurava alternativas à borracha para revestir cabos telefônicos, que se deterioravam facilmente. Materiais isolantes como borracha, vidro, cerâmica e plástico são chamados de dielétricos quando, sujeitos a uma voltagem elétrica acima de seu limite, tornam-se condutores de eletricidade. Gross tentava explicar anomalias em dielétricos, como quando são utilizados entre dois condutores em condensadores, chamados hoje de capacitores, e regeneram a carga elétrica mesmo depois de dissipada por um curto-circuito.
Outra alteração era a formação de eletretos, materiais com carga elétrica permanente. Um eletreto conhecido era a cera de carnaúba, produzida com um pó extraído de uma palmeira nativa do
Em frente à Faculdade Nacional de Filosofia da antiga Universidade do Rio de Janeiro, no início dos anos 1940: da esquerda para a direita, Alcântara Gomes, Elisa Frota-Pessoa, Jayme Tiomno, Costa Ribeiro, Sobrero, Leopoldo Nachbin, José Leite Lopes e Maurício Peixoto
Nordeste brasileiro. Nos anos 1920, físicos japoneses produziram eletretos aplicando carga elétrica em cera de carnaúba durante sua solidificação. Gross queria saber se a formação de eletretos estaria relacionada com a variação de temperatura e fazia experimentos com a cera em condensadores eletricamente carregados e aquecidos. Mais tarde, nos anos 1960 e 1970, ele contribuiu decisivamente para o desenvolvimento do microfone de eletretos, um dos dois tipos de microfones usados nos telefones celulares.
Em 1943, Costa Ribeiro começou a investigar o papel da radioatividade nesse fenômeno. Para sua surpresa, amostras de cera de carnaúba misturada a elementos radioativos apresentaram carga elétrica no mesmo nível que as amostras puras. Ele notou que não precisava aplicar um campo elétrico externo para produzir um eletreto. “Ele derreteu a cera, deixou-a solidificar e viu que ficou muito carregada eletricamente”, diz Silva Filho. Intrigado com a origem daquela carga, decidiu medir a tensão da cera durante a solidificação. O equipamento registrou corrente elétrica. “Então fez o contrário: derreteu a cera e, durante a fusão, mediu a corrente elétrica, que apareceu de novo”, ele conta. Costa Ribeiro repetiu o processo com outros dielétricos, como a parafina e o naftaleno (ou naftalina), dois derivados do petróleo, e o breu, extraído de pinheiros, e observou novamente o surgimento de eletricidade durante a mudança de estado.
Costa Ribeiro observando as propriedades de materiais dielétricos
“Sérgio [Mascarenhas, 1928-2021] e eu ajudávamos Costa Ribeiro nas medidas, sem bolsa nem remuneração”, conta a física Yvonne Mascarenhas, professora aposentada do Instituto de Física de São Carlos da Universidade de São Paulo (IFSC-USP) e primeira mulher de Sérgio, também físico (ver Pesquisa FAPEP n os 258 e 305). “Qualquer medida precisava de alguém para olhar na escala e tomar notas. Para fazer um experimento par-
Alguns membros da comissão de criação do CNPq, a partir da esquerda:
César Lattes, Costa Ribeiro, Mário Abrantes da Silva Pinto e Mário Saraiva
ticipavam duas ou três pessoas. Aprendi muito conversando com ele, sempre muito atencioso.”
Os experimentos revelaram relações físicas fundamentais nos materiais dielétricos. A intensidade da corrente elétrica se mostrou proporcional à velocidade da mudança de estado: quanto mais rápida, maior a carga elétrica, que também é proporcional à quantidade do material que passa de um estado a outro. Além disso, o fenômeno é reversível: a carga que surge durante a fusão tem a mesma intensidade da que aparece durante a solidificação. Por causa da relação entre o calor e a carga elétrica em dielétricos, Costa Ribeiro chamou o fenômeno de termodielétrico e o apresentou na Academia Brasileira de Ciências (ABC) em 1944. Os resultados completos vieram na tese “Sobre o fenômeno termodielétrico”, que ele defendeu em 1945 para assumir a cátedra de física na então Universidade do Brasil.
Orgulhosos do primeiro fenômeno físico inteiramente descoberto e descrito por um brasileiro, no Brasil, membros da ABC passaram a chamá-lo de efeito Costa Ribeiro e o nome pegou por aqui. Embora tenha apresentado os trabalhos
O coro da vida
A fonoaudióloga paulista Elisabete Carrara-Angelis luta pela diversidade da voz
Comecei a trabalhar no A.C.Camargo Cancer Center, em São Paulo, em 1996. Há quase 30 anos, portanto. Mas a minha primeira lembrança desse hospital, assim como meu interesse pela reabilitação da voz em pacientes oncológicos, vem de muito antes.
Nasci na capital paulista e cresci no bairro do Campo Belo. Minha mãe matriculou os quatro filhos em aulas de violão, mas só eu segui estudando o instrumento. Cheguei a me formar em um curso livre de violão clássico. Aos 9 anos, visitei o A.C.Camargo pela primeira vez, para tocar violão em uma apresentação natalina para as crianças que estavam internadas. Gosto de pensar que esse episódio foi a semente de um projeto que criaria anos depois: o coral Sua Voz.
O coral surgiu em 2011, em uma data também próxima ao Natal. Toquei violão na primeira apresentação e não parei
mais. O grupo é formado por pacientes do A.C.Camargo em processo de reabilitação. Hoje, com 23 cantores, de vários gêneros e diversas idades, nosso coral busca ser um grupo de apoio para os pacientes e disseminar a ideia da diversidade da voz. Além disso, é um canal para falar sobre a prevenção do câncer, principalmente o de laringe.
Tumores na cabeça e no pescoço podem afetar funções como respirar, comer e falar. Em alguns casos, o tratamento exige a remoção parcial ou total da laringe (o que inclui a retirada das cordas vocais) e da língua. Com a fonoterapia, essas pessoas voltam a se comunicar, mas com a voz um pouco diferente, geralmente mais grave. Por conta disso, muitas se isolam do convívio social. Foi esse o ponto de partida para a criação do coral. A música permite exercitar a melodia e as pausas respiratórias, aspectos importantes no processo de reaprendizagem da fala dos pacientes oncológicos.
Esse é um tema pelo qual me interesso desde a graduação em fonoaudiologia. Estudei na Escola Paulista de Medicina da Universidade Federal de São Paulo [Unifesp] e, antes de terminar o curso, em 1988, fiz um estágio com pacientes em reabilitação de câncer de cabeça e pescoço. Era o que pretendia estudar no mestrado, mas na época os programas de pós-graduação em oncologia eram exclusivos para médicos. Então, segui estudando os distúrbios da voz, só que no campo da neurologia. No mestrado e no doutorado, concluídos, respectivamente, em 1994 e em 2000, também na Unifesp, analisei os distúrbios da voz e da deglutição em pacientes com a doença de Parkinson. Nesse período, nasceu meu primeiro filho, Eduardo.
Logo que terminei o doutorado, fui chamada para integrar a Comissão de Pós-graduação do A.C.Camargo. Desde então, atuo também como docente e na orienta-
A partir da esquerda, Carrara-Angelis (ao violão) com o coral Sua Voz, na Sala São Paulo, em 2021, e no A.C.Camargo Cancer Center
ção de pesquisas nos programas de mestrado e doutorado desse centro médico.
Pouco depois, em 2004, tive minha segunda filha, Gabriela, que nasceu com a síndrome de Down. Minha trajetória de pesquisadora me ajudou a lidar com um quadro de apraxia de fala que ela apresentava, a intervir e a repassar esse conhecimento para outras pessoas. Isso porque a maioria dos clínicos naquela época considerava que a apraxia afetava apenas os adultos. Em crianças com síndrome de Down era comum associar a dificuldade de articular os sons com algum tipo de deficiência intelectual. Ao acompanhar o desenvolvimento da minha filha, questionei esse paradigma. Costumo dizer que se não tivesse uma mãe fonoaudióloga e cientista, Gabriela não falaria.
Hoje o conceito de apraxia de fala na infância está consolidado. Em 2007, a Sociedade Americana de Fonoaudiologia [Asha] adotou o termo CAS [Childhood Apraxia of Speech], que abrange todas as apraxias que se manifestam na infância como um distúrbio neurológico, no qual a precisão e a consistência dos movimentos relativos à fala estão prejudicados. Pelo fato de o distúrbio estar ligado a uma questão motora da fala, a fonoterapia ensina a produzir o som das letras, em um processo parecido com a terapia de indivíduos que tiveram que retirar a laringe ou a língua. Foi o que fizemos com a Gabriela e obtivemos ótimos resultados.
Para ajudar outras famílias que enfrentavam questões parecidas, criei em 2010 o projeto Fala Down no Hospital
Infantil Darcy Vargas, vinculado à Secretaria de Estado da Saúde de São Paulo e que atende pelo Sistema Único de Saúde [SUS]. Por quase 10 anos atendemos crianças com apraxia da fala e orientamos seus responsáveis. O projeto foi interrompido pouco antes da pandemia, em 2019.
Nesse mesmo ano, Eduardo, à época com 20 anos, foi diagnosticado com um tumor no cérebro. Em poucos meses, ele entrou em coma. No entanto, para que pudesse receber tratamentos mais eficazes, Eduardo teria que estar consciente. Então, passei a estudar técnicas de neuromodulação. Propus à equipe médica do A.C.Camargo, onde ele ficou internado, que adotasse o procedimento para ajudar no processo de recuperação do meu filho. A resposta foi muito positiva e, ao longo dessa fase do tratamento, percebi o potencial da neuromodulação na fonoaudiologia.
Coral
Sua
Voz
MAIS
Eduardo faleceu em novembro de 2019. Após um período afastada do trabalho e da pesquisa, a paixão pela voz prevaleceu. Em 2021, depois de fazer uma formação no Núcleo de Assistência e Pesquisa em Neuromodulação [Rede Napen], em São Paulo, passei a utilizar a estimulação elétrica transcraniana [TDCS], uma das técnicas da neuromodulação, tanto na reabilitação de pacientes oncológicos quanto em crianças com
síndrome de Down e com transtorno do espectro autista.
No procedimento, que dura 20 minutos, dois eletrodos são colocados na cabeça do paciente. A estimulação provocada pela corrente elétrica de baixa intensidade cria sinapses que auxiliam um indivíduo sem língua ou sem as cordas vocais a reaprender a falar utilizando o esôfago, órgão do aparelho digestivo. É como se o corpo se reinventasse. Recentemente, finalizamos um projeto de pesquisa sobre isso no A.C.Camargo. Testamos o uso de neuromodulação em pacientes que precisaram remover a língua para tratar o câncer. Um dos casos foi descrito em artigo publicado no ano passado.
Atualmente, estou finalizando o projeto de um curso de mestrado na área de neuromodulação em síndrome de Down, em parceria com o Programa de Pós-graduação em Neurociência e Cognição da Universidade Federal do ABC [UFABC]. Além disso, estou elaborando com a Rede Napen um projeto para disponibilizar esse tratamento via SUS. A neuromodulação tem sido utilizada desde a década de 1960 em áreas como saúde mental e fisioterapia, mas na fonoaudiologia é algo novo. Há muitos desafios, mas com excelentes perspectivas. l
DEPOIMENTO CONCEDIDO A
SAIBA
Batalha de narrativas
WALDENYR CALDAS
Canção sertaneja e política agrária durante a ditadura militar
Marcela Telles Elian de Lima
Editora UFMG
224 páginas
R$ 54,00
Olivro de Marcela Telles Elian de Lima, resultado de sua tese de doutorado na Universidade Federal de Minas Gerais (UFMG), apresenta pesquisa e análise muito bem-feitas ao dar conta das relações entre a música sertaneja, a política agrária e o período da ditadura militar (1964-1985) em nosso país. Para isso, Lima foi às origens desse importante produto da nossa cultura lúdica, percorrendo toda sua trajetória até chegar aos nossos dias. Como diz a própria autora, “foi necessário suspender as certezas e percorrer parte significativa do repertório sertanejo por meio do levantamento discográfico de seus principais compositores e intérpretes”. Isso diz muito da originalidade do seu trabalho e dos critérios metodológicos para realizar a pesquisa empírica, como se percebe durante toda a leitura.
Já no primeiro capítulo, com um subtítulo muito preciso, “A tradição da moderna canção sertaneja”, Lima mostra as transformações ocorridas no início do século XX na música caipira, um segmento do cancioneiro brasileiro que ainda se mantém como elemento de sociabilidade e agregador das populações rurais nos momentos lúdicos e na produção econômica. Ao tratar da política agrária, um aspecto ganha destaque: a reação organizada por diversas entidades patronais tinha o objetivo de desestabilizar o governo de João Goulart (1961-1964) e evitar que a reforma agrária pudesse de fato ser realizada. Esse grupo antigoverno estaria preparado para uma intervenção armada, o que seria um golpe a mais contra presidentes no Brasil. O fato se consumou e a autora o coloca muito bem em seu trabalho: “Afinal, o golpe civil-militar que entregou a direção do país às Forças Armadas, ao longo desses 20 anos, recebeu o apoio entusiasmado dos grandes produtores paulistas, mineiros e paranaenses”.
Havia ainda a militância política de um segmento da Igreja Católica representada pela Tradição, Família e Propriedade (TFP), instituição bastante conservadora, tendo naquela ocasião como seu líder Plínio Corrêa de Oliveira, defensor declarado do status quo, em um contexto social em que a distribuição da riqueza era até mais díspar do que vemos atualmente. Em contrapartida, a
atuação da instituição católica Comissão Pastoral da Terra (CPT) denunciava a repressão aos trabalhadores do campo, que bem caracterizou aquela época sombria da nossa história.
Com o início da ditadura militar em 1964, os compositores sertanejos passariam a explorar mais em suas canções as relações com a política. Esse é um tema recorrente em todo o cancioneiro brasileiro, no qual se inclui a canção sertaneja. Lembremos de Alvarenga e Ranchinho com suas sátiras políticas ao governo de Getúlio Vargas durante o Estado Novo (1937-1945). A política agrária, a inflação e o desemprego eram sempre mencionados. Porém o AI-5 de 1968 não deu espaço para nada senão para a repressão e a tortura. Um discurso contestatório poderia significar a morte, como efetivamente ocorreu no país.
Com esse quadro político, a canção sertaneja arrefeceu seu discurso. Em seu lugar, triunfaria a narrativa ufanista, apologética, presente em muitas canções sertanejas, sobretudo durante o governo Médici (1969-1974). Um bom exemplo está na letra da canção “Lei agrária”, de 1971, interpretada por Davi e Durval. Esse é também o caso da canção “Minha pátria amada” (1971), de Leo Canhoto e Robertinho. Da mesma dupla, “Meu carango”, de 1970, traz uma temática alienada que se reporta à cultura jovem do meio urbano-industrial, algo muito próximo do movimento da Jovem Guarda. Não por acaso, em 1969 essa dupla lançou um LP intitulado Os hippies do mundo sertanejo
Como mostra o livro, uma parte dos compositores sertanejos incorporou em seu repertório a “perspectiva das modernas elites agrárias” e a reproduziu para a grande massa de admiradores desse estilo musical. Mas o oposto a isso estava na obra de quem contestava o regime militar. A dupla Nonô e Naná, por exemplo, se desfez porque a partir de 1970 seu repertório incluía canções antigoverno e as gravadoras temiam registrar o discurso contra o establishment. Já Tião Carreiro e Pardinho gravaram em 1975 a canção “Levanta patrão”, cujo texto poético alude com clareza à luta de classes, algo que não agradaria aos militares.
O sociólogo Waldenyr Caldas é professor da Escola de Comunicações e Artes da Universidade de São Paulo (ECAUSP).
PRESIDENTE
Marco Antonio Zago
VICE-PRESIDENTE
Carmino Antonio de Souza
CONSELHO SUPERIOR
Antonio José de Almeida Meirelles, Helena Bonciani Nader, Herman Jacobus Cornelis Voorwald, Marcílio Alves, Maria Arminda do Nascimento Arruda, Mayana Zatz, Mozart Neves Ramos, Pedro Luiz Barreiros Passos, Pedro Wongtschowski, Thelma Krug
CONSELHO TÉCNICO-ADMINISTRATIVO
DIRETOR-PRESIDENTE
Carlos Américo Pacheco
DIRETOR CIENTÍFICO
Marcio de Castro Silva Filho
DIRETOR ADMINISTRATIVO
Fernando Menezes de Almeida
pesquisafapesp
ISSN 1519-8774
COMITÊ CIENTÍFICO
Luiz Nunes de Oliveira (Presidente), Américo Martins Craveiro, Ana Claudia Torrecilhas, Ana Maria Fonseca de Almeida, Carlos Américo Pacheco, Carlos Graeff, Celio Haddad, Dario Simões Zamboni, Daniel Scherer Moura, Deisy de Souza, Douglas Zampieri, Eduardo Zancul, Eduardo Magalhães Rego, Fernando Menezes de Almeida, Fabiana Cristina Komesu, Flávio Henrique da Silva, Flávio Vieira Meirelles, Gustavo Dalpian, Helena Lage Ferreira, João Pereira Leite, José Roberto de França Arruda, Liliam Sanchez Carrete, Luiz Vitor de Souza Filho, Marcio de Castro Silva Filho, Mariana Cabral de Oliveira, Marco Antonio Zago, Maria José Giannini, Marta Arretche, Michelle Ratton Sanchez Badin, Nina Stocco Ranieri, Paulo Schor, Reinaldo Salomão, Richard Charles Garratt, Rodolfo Jardim Azevedo, Sergio Costa Oliveira, Sydney José Lima Ribeiro, Sylvio Canuto
COORDENADOR CIENTÍFICO
Luiz Nunes de Oliveira
DIRETORA DE REDAÇÃO
Alexandra Ozorio de Almeida
EDITOR-CHEFE
Neldson Marcolin
EDITORES Fabrício Marques (Política Científica e Tecnológica), Carlos Fioravanti (Ciências da Terra), Marcos Pivetta (Ciências Exatas), Maria Guimarães (Ciências Biológicas), Ricardo Zorzetto (Ciências Biomédicas), Ana Paula Orlandi (Humanidades), Yuri Vasconcelos (Tecnologia)
REPÓRTERES Christina Queiroz e Sarah Schmidt
ARTE Claudia Warrak (Editora), Júlia Cherem Rodrigues e Maria Cecilia Felli (Designers), Alexandre Affonso (Editor de infografia)
FOTÓGRAFO Léo Ramos Chaves
BANCO DE IMAGENS Valter Rodrigues
SITE Yuri Vasconcelos (Coordenador), Jayne Oliveira (Coordenadora de produção), Kézia Stringhini (Redatora on-line)
MÍDIAS DIGITAIS Maria Guimarães (Coordenadora), Renata Oliveira do Prado (Editora de mídias sociais), Vitória do Couto (Designer digital )
VÍDEOS Christina Queiroz (Coordenadora)
RÁDIO Fabrício Marques (Coordenador) e Sarah Caravieri (Produção)
REVISÃO Alexandre Oliveira e Margô Negro
REVISÃO TÉCNICA Ana Maria de Almeida, Angela Krabbe, Celio Haddad, Daniel Scherer de Moura, Diogo Coutinho, Douglas Zampieri, Fabiana Komesu, Jean Ometto, José Roberto Arruda, Gustavo Romero, Paulo Boggio e Reinaldo Salomão, Rita Tostes Passaglia
CIRCULAÇÃO Aparecida Fernandes (Coordenadora de Assinaturas)
OPERAÇÕES Andressa Matias
SECRETÁRIA DA REDAÇÃO Ingrid Teodoro
É PROIBIDA A REPRODUÇÃO TOTAL OU PARCIAL DE TEXTOS, FOTOS, ILUSTRAÇÕES E INFOGRÁFICOS SEM PRÉVIA AUTORIZAÇÃO
TIRAGEM 28.230 exemplares
IMPRESSÃO Plural Indústria Gráfica
DISTRIBUIÇÃO RAC Mídia Editora
GESTÃO ADMINISTRATIVA FUSP – FUNDAÇÃO DE APOIO À UNIVERSIDADE DE SÃO PAULO PESQUISA FAPESP Rua Joaquim Antunes, nº 727, 10º andar, CEP 05415-012, Pinheiros, São Paulo-SP FAPESP Rua Pio XI, nº 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP
Secretaria de Desenvolvimento Econômico, Ciência, Tecnologia e Inovação GOVERNO DO ESTADO DE SÃO PAULO
IVO KARMANN
Que bonito (“O geólogo do vazio”, edição 349). É ciência, mas parece poesia.
Ana Câmara
Aquele ser que dá vontade de conhecer e bater a maior prosa. Esse tem história para contar.
Alesson Guirra
RETRATAÇÕES DE ARTIGOS
Isso nos faz questionar tanto o autor (obviamente) quanto a gestão editorial da revista (“Retratações em cascata”, edição 349).
Gern Genu
FLORESTAS CONTÍNUAS
Áreas florestadas contínuas estão menos expostas a efeitos de borda (“Manchas grandes de floresta têm mais biodiversidade do que fragmentos menores somados”, disponível apenas no site). Contudo, a conclusão do estudo não deve servir como argumento para menosprezar a importância da preservação dos fragmentos menores. A Mata Atlântica hoje resume-se a fragmentos isolados de tamanhos variados, dada sua intensa devastação. Não se deve, assim, deixar de perseguir instrumentos para preservar seus remanescentes florestais, que incluem, sem dúvida, estabelecer
ASSINATURAS, RENOVAÇÃO E MUDANÇA DE ENDEREÇO
Envie um e-mail para assinaturaspesquisa@fapesp.br
PARA ANUNCIAR
Contate: Paula Iliadis E-mail: publicidade@fapesp.br
EDIÇÕES ANTERIORES
Preço atual de capa acrescido do custo de postagem. Peça pelo e-mail: assinaturasrevista@fapesp.br
LICENCIAMENTO DE CONTEÚDO
Adquira os direitos de reprodução de textos e imagens de Pesquisa FAPESP E-mail: redacao@fapesp.br
corredores e trampolins ecológicos, que conectem os remanescentes e sirvam de trânsito para dispersores.
Monique Freitas
MATA ATLÂNTICA
De que adianta ter um bioma protegido no papel, que na verdade não tem proteção efetiva? Isso ocorre com praticamente todas as áreas “protegidas” no Brasil (“Mata Atlântica perde área de floresta madura maior que a cidade de São Paulo”, disponível apenas no site).
Gustavo Schmidt
VÍDEOS
Que baita aula (“Desvendando o transtorno bipolar”). Muito esclarecedor. Regina Sanches
Muito boa a explicação.
Victor Damm
Sua opinião é bem-vinda. As mensagens poderão ser resumidas por motivo de espaço e clareza.
Sua pesquisa rende fotos bonitas? Mande para imagempesquisa@fapesp.br Seu trabalho poderá ser publicado na revista.
Juventude prolongada
Eles são transparentes, nadam no fundo do rio e não chegam a 3 centímetros de comprimento. Nessa aparente insignificância, os peixes do gênero Priocharax são uma importante peça ecológica ao se alimentarem de larvas de insetos e serem comida para filhotes de outros tipos de peixe, além de carregar um enigma evolutivo: permanecem em formato juvenil.
Imagem enviada por George Mattox , pesquisador no Departamento de Biologia da Universidade Federal de São Carlos, campus de Sorocaba Na fotografia acima, os ossos da nadadeira peitoral de P. rex foram dissecados e tingidos e aparecem em rosa, com a cartilagem em azul – e é essa a surpresa. Em peixes adultos de outros gêneros, a nadadeira se ossifica e ganha raios ósseos. P. rex é a maior espécie entre as 10 já descritas no gênero – sete delas pelo biólogo George Mattox.