Foto: Antonio Scarpinetti
CHIPS DO FUTURO 3
O pós-graduando Omar Florez durante pesquisa no Departamento de Eletrônica Quântica, no IFGW: experimentos foram feitos com nanofio de sílica
Pesquisa desenvolvida por sete cientistas do Instituto de Física Gleb Wataghin (IFGW) e publicada na Nature Communications, em junho, demonstra que é possível controlar a interação entre a luz e as vibrações elásticas em nanoestruturas fotônicas. Segundo o professor Paulo Dainese, um dos autores do trabalho, o entendimento e o controle da interação permitirão, no futuro, o desenvolvimento de chips de computadores que integrem eletrônica e fotônica.
Jornal daUnicamp www.unicamp.br/ju
Campinas, 27 de junho a 3 de julho de 2016 - ANO XXX - Nº 661 - DISTRIBUIÇÃO GRATUITA
Futuro sem praia? 4 e5
Estudo internacional sobre mudanças climáticas projeta que o nível do mar, na cidade paulista de Santos (foto), pode subir entre 27 cm e 45 cm até 2100. Os professores Luci Hidalgo Nunes e Roberto Greco, do Instituto de Geociências (IG), integram a equipe de cientistas.
MALA DIRETA POSTAL BÁSICA 9912297446/12-DR/SPI UNICAMP-DGA
CORREIOS
FECHAMENTO AUTORIZADO PODE SER ABERTO PELA ECT Foto: Antonio Scarpinetti
Dilemas morais dos carros inteligentes Efeito placebo domina ‘treinamento cerebral’ ‘Nature’ publica edição temática sobre a China
TELESCÓPIO
2
11 9 6 e7 Unicamp amplia estímulo à pesquisa Crise na Petrobras afeta toda a cadeia produtiva
Enzima deixa batata frita mais saudável
2 Campinas, 27 de junho a 3 de julho de 2016
TELESCÓPIO
CARLOS ORSI carlos.orsi@reitoria.unicamp.br Foto: ESA - AOES Medialab/Divulgação
Ilustração mostra a sonda europeia Venus Express em órbita do planeta Vênus, cuja atmosfera tem um intenso campo elétrico
Ventos elétricos em Vênus As camadas superiores da atmosfera de Vênus têm um campo elétrico muito mais intenso que a região equivalente da atmosfera terrestre. O campo venusiano é capaz de acelerar íons de oxigênio a altas velocidades e expulsá-los para o espaço, o que ajuda a explicar a ausência de vapor d’água no planeta, diz artigo publicado no periódico Geophysical Research Letters. “Reportamos a descoberta e as primeiras medições quantitativas extraterrestres de um campo do tipo no planeta Vênus”, diz o trabalho. “Inesperadamente, e a despeito da gravidade comparável, demonstramos que o campo é cinco vezes mais forte que o presente na ionosfera similar da Terra”. Acredita-se que Vênus tenha mantido oceanos em sua superfície no passado, mas um efeito estufa catastrófico, que hoje sustenta temperaturas de mais de 400º C no planeta, fez com que toda a água evaporasse. Esse aquecimento, no entanto, não explica ausência de vapor na atmosfera. As hipóteses mais aceitas para dar conta do fenômeno especulavam que o hidrogênio, sendo um elemento leve, se perdeu para o espaço, enquanto que o oxigênio teria sido fixado nas rochas. Agora, a descoberta dos “ventos elétricos” da ionosfera oferece um novo mecanismo: a ejeção dos íons de oxigênio, por meio desse “sopro”. “Determinamos que é possível que planetas percam íons pesados para o espaço totalmente por meio de forças elétricas em suas ionosferas”, escrevem os autores, que trabalharam com base em dados colhidos pelo instrumento Aspera-4, a bordo da sonda europeia Venus Express.
Roubo via seguro Prestadores de serviço que acreditam que o cliente será reembolsado por um seguro ou empresa tendem a jogar seus preços para cima, realizando serviços desnecessários e de forma desonesta. Essa impressão, que parece ser universal, foi confirmada por um estudo publicado no periódico PNAS.
Os autores, de instituições da Áustria e da Alemanha, compararam os custos de conserto de computadores em 61 oficinas austríacas. Parte das oficinas foi informada de que o reparo seria pago por uma seguradora e parte, pelo próprio cliente. O estudo encontrou um ágio de até 80% nos consertos feitos “pelo seguro”. Os autores detectaram que a cobrança excessiva era causada pela substituição desnecessária de peças e pelo sobrepreço na mão-de-obra. “No geral, nossos resultados sugerem fortemente que a cobertura de seguro aumenta bastante a extensão da desonestidade em importantes setores da economia, com custos potencialmente altos para consumidores e a economia em geral”, escrevem.
Mudança climática extingue mamífero O roedor Melomys rubicola, usualmente encontrado na ilha de Bramble Cay, no norte da Austrália, foi considerado extinto nesse hábitat. De acordo com relatório da Universidade de Queensland, ele pode ser considerado o primeiro mamífero a desaparecer por causa da mudança climática causada pelo homem. “O principal fator responsável na extirpação dessa população foi quase com certeza a inundação da ilha baixa, muito provavelmente seguidas vezes, durante a última década, causando dramática perda de hábitat e talvez mortalidade direta de indivíduos”, diz o relatório. “Dados disponíveis sobre a elevação do nível do mar e a frequência e intensidade elevadas de eventos climáticos causadores de níveis da água extremos e tempestades (...) apontam a mudança climática, induzida por seres humanos, como a raiz da perda dos Melomys”. O relatório aponta que é possível que ainda haja exemplares da espécie, ou de uma espécie muito próxima, em PapuaNova Guiné.
Moral ambígua para carros Carros autônomos, controlados por algoritmos, vêm sendo desenvolvidos há vários anos, e já foram testados em condições reais diversas vezes. No entanto, seu uso em larga escala requer a definição de algumas prioridades morais – por exemplo, caso um acidente seja inevitável, a inteligência do carro deve adotar a conduta que maximiza a segurança dos passageiros, ou a dos pedestres ao redor? Na revista Science, pesquisadores da França e dos Estados Unidos revelam o resultado contraditório de uma série de pesquisas de opinião pública sobre o tema: a maioria das pessoas prefere que os outros comprem carros programados para poupar pedestres, em prejuízo dos passageiros – mas a maioria também diz que preferiria andar num carro que preserva a vida dos passageiros a qualquer custo. Se ambos os tipos de veículo entrarem no mercado, especulam os autores, o modelo “altruísta” provavelmente será eliminado pela competição “egoísta”. Já uma regulamentação que obrigue todos os carros a serem “altruístas” poderá levar ao fracasso do produto. O artigo ainda lembra que dilemas morais mais complexos – por exemplo, onde o resultado final da ação do veículo no bem-estar humano não é claramente previsível – terão de ter soluções discutidas e pactuadas antes que esses carros cheguem ao grande público. “À medida que nos preparamos para dotar milhões de veículos de autonomia, uma consideração séria da moralidade algorítmica nunca foi mais urgente”, escrevem.
Placebo cognitivo Estudo publicado no periódico PNAS mostra que muitos dos resultados apresentados pela chamada indústria do “treinamento cerebral” – que oferece jogos e atividades capazes, de supostamente, aumentar a memória e a inteligência – na verdade podem ser apenas efeitos placebo. “Demonstramos clara evidência de efeitos placebo após uma rotina curta de treinamento cognitivo que levou a ganhos significativos de inteligência fluida”, escrevem os autores. “Nossa meta é enfatizar a importância de se excluir explicações alternativas antes de atribuir efeitos às intervenções”. O trabalho consistiu no uso de dois tipos de panfletos para recrutar voluntários para um exercício de treinamento cerebral. Um dos panfletos foi escrito em tom entusiástico, de modo a estimular uma resposta placebo, enquanto o outro descrevia o experimento de modo neutro. No final, testes de inteligência mostraram que os voluntários que participaram do treinamento após receber o convite-placebo se saíram muito melhor que os que fizeram o treinamento com base no estímulo neutro.
Agricultura duas vezes A agricultura foi inventada de modo independente por duas populações no Oriente Médio, e então exportada para a Europa, África e Ásia, diz levantamento genético publicado no repositório de artigos de ciências biológicas bioRxiv. Os autores analisaram o genoma de 44 indivíduos da pré-
história, separados por milhares de anos, e concluíram que as populações que viviam na região atual de Israel e Palestina eram geneticamente diversas das da região do Irã. Essa evidência genética se soma a indícios arqueológicos de que os caçadorescoletores neolíticos do sul do Levante e do Irã desenvolveram práticas agrícolas diversas e de modo independente. Membros das duas populações – e suas tecnologias – teriam depois se encontrado na Turquia, e daí emigrado para a Europa, já como o “kit neolítico” completo. Evidências também sugerem que o grupo iraniano teria levado seu conhecimento à Índia e ao Paquistão, e o levantino, para a África.
Especial ciência chinesa A revista Nature dedica uma seção especial de sua edição mais recente a um panorama na ciência na China. Em comentário escrito para o periódico, Wei Yang, presidente da Fundação Nacional de Ciências Naturais da China, diz que a produtividade chinesa cresceu, mas que é preciso aumentar o impacto das publicações e reduzir os casos de má-conduta científica, como fraude e plágio. “A má conduta – incluindo falsos autores e falsos revisores – tem se disseminado, como fica evidente na série de retratações de artigos de autores chineses em periódicos da BioMed Central, Elsevier e Springer nos últimos dois anos”, escreve ele. Seu olhar crítico se estende, ainda, ao papel da ciência chinesa na economia e aos níveis de investimento. “O progresso científico e tecnológico contribuiu com apenas 55% do crescimento econômico na China em 2015, comparado com 88% nos Estados Unidos no mesmo período. E a China gasta relativamente pouco de seu orçamento total de pesquisa e desenvolvimento (público, industrial e privado) em pesquisa básica”, aponta.
China supera EUA Pela primeira vez, os Estados Unidos deixam de ser o país com a maior capacidade instalada de supercomputação. A coroa, agora, pertence à China. O país asiático não só possui o supercomputador mais rápido do mundo, Sunway TaihuLight, com performance máxima de 93 quadrilhões de cálculos por segundo (petaflops/s, ou apenas Pflop/s), como a capacidade total de seus 167 supercomputadores de alto nível chega a 211 Pflop/s, bem acima dos 173 Pflop/s dos 165 melhores supercomputadores dos Estados Unidos. Já Europa fica com meros 115 Pflop/s. O avanço chinês, nota o site da revista Science, não tem impacto apenas nas áreas de ciência e tecnologia, mas também no comércio: a China já detém 34% do mercado mundial de supercomputação. O país asiático espera romper a barreira dos exaflops – 1 quintilhão de operações por segundo – até 2020. Máquinas de exaflops podem trazer avanços importantes na simulação da mudança climática e na compreensão do cérebro humano, entre outras áreas.
UNICAMP – Universidade Estadual de Campinas Reitor José Tadeu Jorge Coordenador-Geral Alvaro Penteado Crósta Pró-reitora de Desenvolvimento Universitário Teresa Dib Zambon Atvars Pró-reitor de Extensão e Assuntos Comunitários João Frederico da Costa Azevedo Meyer Pró-reitora de Pesquisa Gláucia Maria Pastore Pró-reitora de Pós-Graduação Rachel Meneguello Pró-reitor de Graduação Luís Alberto Magna Chefe de Gabinete Paulo Cesar Montagner
Elaborado pela Assessoria de Imprensa da Universidade Estadual de Campinas (Unicamp). Periodicidade semanal. Correspondência e sugestões Cidade Universitária “Zeferino Vaz”, CEP 13081-970, Campinas-SP. Telefones (019) 3521-5108, 3521-5109, 3521-5111. Site http://www.unicamp.br/ju e-mail leitorju@reitoria.unicamp.br. Twitter http://twitter.com/jornaldaunicamp Assessor Chefe Clayton Levy Editor Álvaro Kassab Chefia de reportagem Raquel do Carmo Santos Reportagem Carlos Orsi, Carmo Gallo Netto, Isabel Gardenal, Luiz Sugimoto, Manuel Alves Filho, Patrícia Lauretti e Silvio Anunciação Fotos Antoninho Perri e Antonio Scarpinetti Editor de Arte Luis Paulo Silva Editoração André da Silva Vieira Vida Acadêmica Hélio Costa Júnior Atendimento à imprensa Ronei Thezolin, Gabriela Villen, Valerio Freire Paiva e Eliane Fonseca Serviços técnicos Dulcinéa Bordignon Impressão Triunfal Gráfica e Editora: (018) 3322-5775 Publicidade JCPR Publicidade e Propaganda: (019) 3383-2918. Assine o jornal on line: www.unicamp.br/assineju
3 Campinas, 27 de junho a 3 de julho de 2016
Grupo desvenda interação entre a luz e as vibrações mecânicas Pesquisa do IFGW, que gerou artigo publicado na Nature Communications, traz novas contribuições para a compreensão do fenômeno Fotos: Antonio Scarpinetti
MANUEL ALVES FILHO manuel@reitoria.unicamp.br
rupo formado por sete cientistas do Instituto de Física Gleb Wataghin (IFGW) da Unicamp publicou, em 11 de junho último, artigo na Nature Communications que traz novas contribuições para o entendimento e controle da interação entre a luz (fótons) e as vibrações elásticas (fônons) em nanoestruturas fotônicas, efeito conhecido na literatura como Espalhamento Brillouin. Os cientistas demonstraram, por meio de experimentos com um nanofio de sílica, que é possível controlar minuciosamente esta interação de modo que, mesmo na presença de vibrações de altíssimas frequências, a luz viaje através do nanofio sem sofrer perturbação alguma, como se o efeito fosse de repente apagado. “Atingir o cancelamento do espalhamento da luz por vibrações elásticas significa entender mais profundamente como a luz interage com a matéria nestas estruturas. No futuro, este entendimento nos permitirá desenvolver novos dispositivos como chips de computadores que integram eletrônica e fotônica ou mesmo sensores ópticos”, afirma o professor Paulo Dainese, um dos autores do trabalho. De acordo com o docente, o artigo é resultado de vários anos de pesquisa de diferentes grupos do IFGW, que atuam de forma cooperativa. Participaram do estudo professores e pesquisadores dos departamentos de Eletrônica Quântica e Física Aplicada. “Um aspecto importante a se ressaltar é que tudo foi feito na Unicamp, desde a concepção do experimento até as simulações computacionais, fabricação das amostras e os sistemas experimentais. Estas ferramentas nos ajudam a criar independência científica”, informa Dainese, que cita ainda o apoio do Centro de Componentes Semicondutores (CCS). O Espalhamento Brillouin, explica o professor do IFGW, foi descrito teoricamente em 1922 pelo físico francês Léon Nicolas Brillouin. Entretanto, o efeito só pôde ser observado experimentalmente a partir dos anos 1960, com a invenção do laser. Durante muito tempo, o tema foi amplamente aplicado em fibras ópticas, tanto em sistemas de comunicações como também em sensores de temperatura e deformação. Há cerca de 10 anos, o assunto sofreu uma revolução e despertou o interesse de muitos cientistas no mundo todo. O fato ocorreu principalmente porque o homem aprendeu a fabricar estruturas em escala nanométrica, o que lhe permitiu controlar as propriedades dos campos eletromagnéticos e dos campos elásticos como nunca antes, e o resultado disso foi uma ampla possibilidade de se fazer engenharia da interação da luz com a matéria. A partir de então, conforme o professor Dainese, diversos grupos de pesquisa passaram a utilizar o efeito tanto em estudos fundamentais, quanto no desenvolvimento de produtos tecnológicos, como os já citados sensores e geradores de sinais de radiofrequência. Ocorre que nestas estruturas nanométricas, como é comum em vários fenômenos físicos, os efeitos de superfície passaram a ficar mais relevantes. “Agora, vibrações na superfície do material causam um efeito na luz que compete diretamente com aqueles causados por vibrações no interior, no corpo do material. Existe uma disputa entre vibrações internas e vibrações de superfície. Durante um bom tempo, prevaleceu a dúvida se este segundo tipo de vibração realmente interessava ou não”, relata.
Atualmente, continua o docente do IFGW, a informação é processada pela eletrônica e depois convertida para a fotônica. “No futuro, isso estará presente dentro do chip, de forma integrada. A eletrônica continuará fazendo o processamento, mas o fluxo dos dados será tratado pela fotônica. Com os novos conhecimentos que estamos adquirindo, nós passaremos a fazer com os fótons o que já fazemos com os elétrons, ampliando imensamente a capacidade de transmissão”, antevê o físico. Além dele, também assinam o artigo publicado pela Nature Communications os seguintes cientistas: Gustavo Wiederhecker, Thiago Alegre, Cristiano Cordeiro e os alunos de pós-graduação Yovanny Espinel, Paulo Felipe Jarschel e Omar Florez.
COOPERAÇÃO Em seus experimentos, os cientistas da Unicamp utilizaram um nanofio de sílica, com o qual obtiveram o cancelamento mútuo das vibrações que ocorrem no interior e na superfície da estrutura
Os cientistas do IFGW demonstraram com seu experimento não apenas que o segundo efeito é importante e comparável ao primeiro, mas também que ambos podem se anular mutuamente. O novo efeito foi batizado como “Brillouin scattering Self-Cancellation”, termo em inglês que significa “autocancelamento” e que vem exatamente do fato de que uma única onda acústica causa as perturbações internas e de superfícies, as quais cancelam uma a outra. “Não é que o nanofio deixa de vibrar, é simplesmente que os efeitos da vibração da superfície cancelam os efeitos das vibrações internas. O resultado é que a luz não “vê” nenhuma vibração”, pontua o docente. Mas qual a importância, afinal, de se ampliar o conhecimento e o controle sobre a interação da luz com as vibrações mecânicas? O professor Dainese responde. “Primeiro, porque não é possível fugir dessas vibrações. Ao inserir a luz em uma estrutura fotônica (um guia de onda ou uma cavidade), o próprio campo eletromagnético gera as ondas acústicas, tanto no interior quanto na superfície. A luz não tem massa, mas tem o que classificamos de ‘momento’. Ou seja, quando atinge a estrutura e muda de direção, a luz transfere impulso para o material, fazendo-o vibrar. Por analogia, é como se ocorresse o ricocheteio de uma bola de bilhar que bate em outra”, compara o docente.
Segundo, continua o físico, porque ao controlar essa interação, os cientistas têm como manipular as suas propriedades e aplicá-las no aperfeiçoamento de dispositivos práticos. Um exemplo é utilizar o espalhamento Brillouin para gerar algumas funcionalidades básicas que já existem em chips eletrônicos, mas que para chips fotônicos são mais difíceis. Por exemplo, gerar sinais de referência de altas frequências, gerar filtros ressonantes, criar fusíveis ópticos, gerar moduladores de polarização, criar um amplificador óptico e outros. “No fim, é um efeito importante que pode ajudar os chips fotônicos a chegarem mais perto da realidade”. Dainese lembra que, enquanto a eletrônica controla o fluxo de elétrons, a fotônica controla a luz. A combinação de ambas é fundamental para o avanço de diversas áreas, a da comunicação óptica em especial. “Nós já utilizamos lasers e fibras ópticas para transmitir informações. Por ano, são vendidos no mundo cerca de 300 milhões de quilômetros de fibras ópticas, o que daria para cumprir duas vezes a distância entre a Terra e o Sol. E por que é interessante usar a luz no lugar da corrente elétrica para fazer esse tipo de transmissão? Porque a capacidade de transmissão da luz é muito maior”, pormenoriza.
Para o professor Paulo Dainese, um dos autores do trabalho, entender melhor os mecanismos da interação entre a luz e as vibrações mecânicas permitirá, no futuro, o desenvolvimento de chips que integrem eletrônica e fotônica
Com o natural processo de renovação do quadro docente da Unicamp, por causa principalmente das aposentadorias, algumas unidades de ensino e pesquisa da Universidade passaram a abrigar um contingente expressivo de jovens professores. É o caso do IFGW. Todos os autores do artigo em questão ingressaram recentemente na instituição. “Ficamos contentes em contribuir para trazer ainda mais energia para as pesquisas em Física”, diz Dainese. Três dos docentes autores do artigo coordenam projetos financiados pelo programa Jovens Pesquisadores, mantido pela Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp). De acordo com Dainese, graças ao apoio da Fapesp e da Financiadora de Estudos e Projetos (Finep), todos contam com laboratórios bem equipados e prestes a serem transferidos para um novo prédio que está em fase de finalização. O edifício terá como foco pesquisas na área de fotônica, e abrigará pesquisas em materiais, em fabricação de nanoestruturas fotônicas, sistemas de caracterização e aplicações. O grupo destaca-se por ter tanto cientistas do Instituto de Física como da Faculdade de Engenharia Elétrica e de Computação (FEEC). “Como nossas pesquisas têm um forte caráter colaborativo, a concentração dos laboratórios num único espaço facilitará ainda mais essa interação”, analisa o professor do IFGW. Além de gerar conhecimento novo e abrir a possibilidade para o desenvolvimento de produtos tecnológicos, as investigações conduzidas pelo grupo, assinala Dainese, são fundamentais para incrementar a formação de recursos humanos qualificados, que mais tarde estarão trabalhando tanto na indústria quanto no segmento acadêmico. “Como procuramos buscar respostas próprias para os vários problemas que surgem durante uma pesquisa, nossos estudantes aprendem a empregar esse olhar sistêmico e interdisciplinar na vida profissional. É importante colocar problemas desafiadores para nossos alunos, problemas que eles sabem que terão que competir com grupos de renome do mundo todo. Isso cria um ambiente produtivo, aumenta a confiança de nossos estudantes em se arriscarem mais e, no final, acaba ajudando a formar lideranças que estarão atuando em diferentes esferas do mundo do trabalho”, pontua o docente. O trabalho em torno do Espalhamento Brillouin, assim como outros 10 artigos de autoria do grupo mais amplo de fotônica da Unicamp, foi apresentado em junho na maior conferência da área, que ocorreu em San Jose, na Califórnia [Conference on Lasers and Electro-Optics 2016]. “A participação da Unicamp foi bastante forte neste ano, o que ajuda a inserir o grupo no cenário internacional”, observa Dainese.
4 Campinas, 27 de junho a 3 de julho de 2016
Estudo projeta impacto das Fotos: Antonio Scarpinetti
Cenário mais pessimista prevê 45 cm de elevação do nível do mar até 2100 SILVIO ANUNCIAÇÃO silviojp@reitoria.unicamp.br
m estudo de âmbito internacional em andamento, conduzido por pesquisadores da Unicamp e de outras instituições e centros de pesquisa, traz uma série de dados inéditos sobre o impacto das mudanças climáticas na zona costeira do município de Santos, no litoral sul de São Paulo. Conforme a pesquisa, que envolveu também uma cidade do Reino Unido e um condado dos Estados Unidos, a elevação do nível do mar no município paulista pode aumentar 18 centímetros até 2050 e 36 cm até 2100, num cenário médio. Associada a eventos climáticos extremos, entre os quais ressacas e marés altas, esta elevação poderia causar prejuízos cumulativos da ordem de R$ 1,3 bilhão para a comunidade santista até 2100, segundo as projeções do trabalho. O estudo de caso brasileiro sobre o município de Santos envolveu a participação dos professores Luci Hidalgo Nunes e Roberto Greco, do Instituto de Geociências (IG) da Unicamp. Além deles, o projeto internacional conta com a participação de cientistas da Universidade de São Paulo (USP), Centro de Monitoramento de Desastres Naturais (Cemaden), Instituto Geológico de São Paulo e Instituto Nacional de Pesquisas Espaciais (Inpe). Também participam pesquisadores da University of South Florida, dos Estados Unidos, do King’s College London, da Inglaterra, e gestores e técnicos da Prefeitura Municipal de Santos. A Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) financia a iniciativa, desenvolvida no âmbito de um acordo de cooperação com o Belmont Forum, mantido pela International Group of Funding Agencies for Global Change Research (IGFA). O IGFA é formado por algumas das principais agências financiadoras de projetos de pesquisa sobre mudanças ambientais no mundo. O responsável geral pelo projeto de pesquisa, intitulado Metrópole, é o climatologista José Marengo, chefe da Divisão de Pesquisas do Cemaden, localizado em Cachoeira Paulista (SP). “A pesquisa envolve três estudos de casos, um nos Estados Unidos, na região da Flórida, outro no Reino Unido, e o caso brasileiro. Nos Estados Unidos, as projeções são para o condado de Broward; e no sul do Reino Unido, para o balneário de Selsey. No Brasil, Santos foi o município escolhido pela relevância estratégica para o país, já que a cidade abriga o porto mais importante do hemisfério sul”, situou a professora Luci Hidalgo, especialista em clima e que atua no Departamento de Geografia do IG. Ainda de acordo com a docente, o município paulista possui dados importantes para a pesquisa, como as medições de tabuas de marés. “As informações que tínhamos até então, do IPCC [Intergovernmental Panel on Climate Change], eram globais, muito abrangentes. Esse foi o grande desafio, ou seja, obter informações locais e mais realísticas”, avaliou. O professor Roberto Greco acrescenta que as previsões de elevação do nível do mar envolveram três cenários: “um mínimo, mais conservador, outro médio e um mais extremo.” No cenário conservador, o nível do mar pode elevar 13,5 centímetros até 2050, e 27 cm até 2100. No cenário médio, a elevação seria de 18 centímetros até 2050 e de 36 até 2100. E, no pior cenário, haveria uma elevação de 22,50 centímetros para 2050 e 45 para 2100. “Em comum, o que estas projeções mostram é que parte do município de Santos pode ficar inundada pela entrada de água do mar e pela água dos canais que deveriam drenar a ilha de Santos. Pode ocorrer também
alagamento. Além disso, as estruturas dos prédios e demais construções podem ser bastante afetadas”, dimensiona Roberto Greco. Dados da pesquisa informam que, de 1945 até o início da década de 1990, o nível do mar em Santos subiu, em média, 1,3 milímetro ao ano. A partir de 1993 até 2014, o índice dobrou, pulando para 2,7 mm ao ano. Considerando apenas o período de 2004 a 2013, os pesquisadores informam que o índice chegou a 3,6 mm ao ano, número parecido à média global calculada pelo IPCC. A partir desses dados foi possível chegar às projeções de elevação do nível do mar para 2050 e 2100.
PARTICIPAÇÃO DA COMUNIDADE Além dos dados, a pesquisa envolve a participação da comunidade local (sociedade civil, empresas públicas, privadas e organizações não governamentais) e do poder público no sentido de apontar intervenções para que o município se adapte às mudanças climáticas. O estudo avaliou o custo benefício das principais propostas da comunidade em relação aos impactos projetados para a elevação do nível do mar em Santos.
A professora Luci Hidalgo Nunes: “O grande desafio foi obter informações locais e mais realísticas”
O professor Roberto Greco: “As projeções mostram que parte do município de Santos pode ficar inundada”
“Um elemento inovador desse projeto foi a apresentação para a comunidade de imagens que visualizam o mapa da cidade e põem em evidência as áreas que serão mais afetadas para o aumento do nível do mar e os danos para os imóveis naquelas áreas. Essa é uma metodologia inovadora que se quis testar e avaliar para observar como afeta a propensão dos cidadãos a tomar medidas de adaptação. O objetivo no futuro será comparar os dados e análises entre os três países participantes da pesquisa”, explicou Roberto Greco. No caso de Santos, entre alternativas apontadas pela população, estão os serviços de dragagens para remover os sedimentos dos canais; a construção de diques; de muros de contenção; implementação de sistemas de comporta e estações de bombeamento; recolocação de areia nas praias – o chamado “engordamento”; e a recuperação de manguezais. Em conjunto com a população, os estudiosos concluíram que tais medidas de adaptação são bastante apropriadas, sobretudo com relação ao custo. Na comparação com os eventuais prejuízos que poderiam ser causados pelos eventos climáticos, o investimento nestas obras e serviços de adaptação às mudanças climáticas seria bem menor. Conforme os pesquisadores, o custo das medidas de adaptação consumiria aproximadamente R$ 240 milhões, evitando R$ 1,1 bilhão de prejuízos causados, se nada for feito. Estas projeções foram feitas para um período correspondente até 2100. “Antes se falava muito em medidas de mitigação dos eventos extremos e do aquecimento global. Hoje, é preciso falar de adaptação porque as mudanças já estão entre nós. É relevante, portanto, encontrar soluções para conviver da melhor maneira possível com estas alterações, não se esquecendo das mudanças de comportamentos da sociedade, da redução dos padrões de consumo e consequente diminuição da poluição para alterar este cenário no longo prazo”, explica a docente Luci Hidalgo. A professora da Unicamp informa que para estabelecer os cenários apresentados à população de Santos, entidades e poder público, os pesquisadores usaram uma plataforma chamada COAST (Coastal Adaptation to Sea Level Rise Tool), desenvolvida por uma empresa americana em parceria com universidades e centros de pesquisa do país. A ferramenta permite que os usuários respondam perguntas com relação aos custos e benefícios de ações e estratégias para evitar danos causados pelo aumento do nível do mar e inundações costeiras. “Esta plataforma mostra, dentro das projeções que nós fizemos para Santos, o que pode acontecer em termos de avanço de água e qual o impacto disso para as construções. Todos esses cálculos dos danos e
5 Campinas, 27 de junho a 3 de julho de 2016
mudanças climáticas em Santos das medidas de adaptação, nós fizemos empregando a plataforma COAST. Essas projeções envolveram as regiões sudeste e noroeste de Santos, de caráter bastante distintos”, complementa Luci Hidalgo. De acordo com ela, a região sudeste compreende o bairro nobre do Boqueirão
até a Ponta da Praia. Ali estão localizadas as construções de maior valor imobiliário. Já a região noroeste é uma das mais pobres do município, com algumas construções em palafitas. “O estudo aponta o quanto o nível do mar pode afetar em termos de números de edifícios e quanto isso
pode custar. Os cálculos de danos levaram em consideração apenas o valor venal dos edifícios.” Luci Hildago esclarece que as estimativas de prejuízos financeiros são bastantes conservadoras porque levam em conta apenas o valor venal dos imóveis. Segundo
a professora, não foram considerados os valores de automóveis, equipamentos e infraestrutura pública existente no local. Além disso, o valor venal dos imóveis estabelecido pela Prefeitura está, quase sempre, desatualizado com relação ao preço de mercado das propriedades.
Pesquisa mensura emissão de gases em plataformas no mar Fotos: Divulgação
LUIZ SUGIMOTO sugimoto@reitoria.unicamp.br
indústria de petróleo e gás é uma das maiores responsáveis pela emissão de dióxido de carbono e metano (gases de efeito estufa) na indústria, devido à alta intensidade energética exigida nos processos de produção, refino e transporte de hidrocarbonetos. Dissertação de mestrado do engenheiro Victor Leonardo Acevedo Blanco traz um diagnóstico das emissões destes gases em plataformas offshore FPSO – que são geralmente navios de grande porte, sem sistemas de propulsão – amplamente utilizadas em águas profundas e ultra-profundas (2.200 metros) e, portanto, preferenciais no caso do pré-sal brasileiro. A pesquisa foi orientada pelo professor Waldyr Luiz Ribeiro Gallo, na Faculdade de Engenharia Mecânica (FEM). Victor Blanco explica que focou seu trabalho em plataformas FPSO (Floating Production Storage and Off-loading), que produzem, processam, armazenam e descarregam petróleo e gás. “As plataformas possuem sistemas de tratamento que deixam os hidrocarbonetos prontos para exportação às refinarias através de gasodutos e de navios aliviadores. O Brasil é um exemplo no uso de FPSO’s devido ao desenvolvimento de grande parte da produção (92,5% em 2014) em águas profundas e ultra-profundas – e a descoberta de reservas provadas de 16,2 bilhões de barris tornam essas plataformas importantes soluções para extração nas bacias de Santos e de Campos, área do pré-sal.” Segundo o autor da dissertação, o Ibama tem estabelecido várias normativas em torno das emissões de GEE na produção de petróleo e gás, especialmente na prática de técnicas como o flaring e o venting. “O flaring é a queima do gás produzido em tocha (flare), que corresponde a sistemas de alívio de pressão em vasos e outros equipamentos, como medida de segurança operativa. O venting resulta de liberações para a atmosfera de gases de baixo poder calorífico (grande quantidade deles inertes) e que não precisam ser queimados. Existem ainda as emissões fugitivas, causadas por vazamentos de gás natural em válvulas, flanges, conectores e outros equipamentos.” O engenheiro observa que os desafios ambientais desta indústria variam de acordo com o projeto, condições geográficas, profundidade do poço e viscosidade dos fluidos, entre outras características intrínsecas ao tipo de produção. “O perfil de emissões de GEE difere conforme o desenvolvimento do poço de produção. Em plataformas offshore, por exemplo, a energia para o processamento de hidrocarbonetos pre-
Plataforma FPSO em alto mar: navios de grande porte que não possuem sistema de propulsão
ainda não instaladas (mas idênticas, denominadas replicantes), com dados de projeto fornecidos pela BG Group. O foco principal do trabalho é realizar um inventário inicial das emissões das plataformas como parâmetro base, visando implementar as ações em eficiência energética em diferentes processos.”
METODOLOGIAS
Victor Leonardo Acevedo Blanco (à esq.), autor da dissertação, e o professor Waldyr Luiz Ribeiro Gallo, orientador: várias frentes de pesquisa
cisa ser gerada no local, através de turbinas a gás ou motores de combustão interna (o que representa maiores emissões).” A profundidade do poço, prossegue Victor Blanco, determina a quantidade de energia requerida para extrair o petróleo do reservatório, em alguns casos com a necessidade de injeção de água ou gás. “Maiores profundidades exigem maiores quantidades de energia na injeção. Da mesma forma, maior viscosidade do óleo representa maior consumo de energia para o sistema de tratamento do hidrocarboneto. Enfim, a energia utilizada no processo afeta diretamente as emissões de efeito estufa na plataforma, por conta principalmente das turbinas a gás utilizadas para a geração de energia elétrica.” O autor informa que sua pesquisa sobre emissões é parte de um projeto de análise de eficiência energética e emissões de dióxido de carbono (CO 2 ) em plataformas FPSO, financiado pela empresa BG Group Brasil, que junto com a Petrobras instalará oito delas na área pré-sal na bacia de Santos. “Vale ressaltar que a análise foi realizada em plataformas
De acordo com o engenheiro, o gás produzido no reservatório da bacia de Santos tem como característica principal o alto conteúdo de CO2 , que deve ser separado do gás destinado à exportação, o que representa um desafio adicional nas plataformas analisadas – o CO 2 separado do gás é reinjetado no poço. “As emissões são calculadas por meio de metodologias estabelecidas pelo API (American Petroleum Institute), IPCC [sigla em inglês para Painel Intergovernamental sobre Mudança Climática] e EPA (Agência de Proteção Ambiental dos Estados Unidos). São obtidos dados de produção da plataforma, requerimentos energéticos e quantidades de gás queimado.” Blanco explica que para o diagnóstico de emissões de GEE são realizadas classificações de equipamentos segundo as maiores fontes de emissão na indústria de óleo e gás. “Como a análise se deu em plataformas que ainda não estão em operação, os resultados obtidos são baseados em dados estimados de produção detalhados no sistema de processamento e comparados com desenvolvimentos similares de FPSO’s já em operação. Segundo as análises, as emissões por combustão apresentam entre 94% e 95% do total das emissões, principalmente pelas turbinas a gás encarregadas de gerar a energia elétrica consumida na plataforma. As emissões fugitivas representam 0,19% e o restante (entre 4% e 5%) é por venting.” Entre os resultados da dissertação, o autor destaca que os indicadores de emissão obtidos permitem comparar as plataformas analisadas com outras instaladas no mundo, algumas nas jazidas do pré-sal
Emissões antropogênicas globais de GEE Processos Industriais (6%)
Dissertação: “Diagnóstico de emissões de gases de efeito estufa em plataformas FPSal” Autor: Victor Leonardo Acevedo Blanco Orientador: Waldyr Luiz Ribeiro Gallo Unidade: Faculdade de Engenharia Mecânica (FEM)
1%
4% 7%
Agricultura (11%) Energia (69%)
Exploração de Petróleo e Gás Natural 38%
CO2 (90%)
2013
Refino de Petróleo Produção de Carvão Mineral Transporte de Gás Natural Produção de Álcool
48%
CH4 (9%) N2O (1%)
Fonte: IEA 2014
Publicação
Emissões de CO2e na produção de combustíveis, por atividade 2%
Outros (14%)
no Brasil. “A análise ocorreu em três etapas do processo na plataforma: de alta produção de hidrocarbonetos, alta produção de água e alta produção de água e CO2 . As etapas iniciais de alta produção de hidrocarbonetos apresentam as menores emissões e consumo de energia por toneladas de hidrocarbonetos produzidos, registrando-se o caso contrário para a última etapa, em que se espera o decréscimo na produção de petróleo e gás e o aumento na produção de água e CO2 , com altos consumos de energia inclusos.” O engenheiro ressalta, também, que as emissões por conta do flaring (queima do gás em tocha) nas plataformas analisadas são significativamente menores em comparação às plataformas instaladas em nível mundial. “Isso mostra o importante impacto das regulações estabelecidas pelo Ibama em termos de queima de gás em flare”. Nas conclusões da dissertação, o autor afirma que a composição e a quantidade do gás produzido são determinantes nas emissões gerais de GEE na plataforma, por requererem maior carga de energia no processamento de hidrocarbonetos. “Altos teores de CO 2 no gás produzido exigirão altas quantidades de energia para sua compressão e posterior reinjeção nos poços do reservatório. O principal desafio para redução das emissões está na geração de energia elétrica na plataforma: é a operação que responde por aproximadamente 60% das emissões totais de GEE, como mostram os três casos estudados.” Victor Blanco observa, finalmente, que a geração de energia é um tema que abre várias possibilidades de pesquisa para o desenvolvimento destas plataformas offshore, buscando-se opções com menores impactos na atmosfera. “O dimensionamento dos equipamentos para os casos de máxima produção influencia, em grande medida, as emissões nas etapas produtivas posteriores. O funcionamento de compressores, turbinas e bombas, particularmente em cargas parciais, traz um aumento no consumo de energia. A melhoria da eficiência energética no acionamento destas cargas indica para uma redução nas emissões de GEE.”
Fonte: SEEG 2015
Produção de Carvão Vegetal
6
Campinas, 27 de jun
Unicamp incrementa Fotos: Antoninho Perri
CARLOS ORSI carlos.orsi@reitoria.unicamp.br
riado em 2003, o Fundo de Apoio ao Ensino, à Pesquisa e à Extensão (Faepex) da PróReitoria de Pesquisa (PRP) da Unicamp passou por mudanças e expansão nos últimos anos, tornando-se acessível a um número maior de docentes. Em 2015, pela primeira vez, o montante de recursos superou os R$ 10 milhões. “O objetivo do fundo é financiar as atividades de pesquisa, ensino e extensão, injetando recursos que não puderam ser obtidos por meio de outras agências de fomento”, disse o professor Fernando Antonio Santos Coelho, assessor da PRP, cuja titular é a professora Glaucia Pastore. “O Faepex financia, por exemplo, parte dos custos de viagem (passagens e diárias) para participação em eventos científicos, auxilia alunos que estão concluindo dissertações e teses, trabalhos de campo em projetos de pesquisa, entre outras atividades”, disse. Esse valor per capita era de R$ 4 mil no início de 2013. O teto atual é de R$ 5 mil por docente, ao ano. “Há uma série de atividades contempladas, todas elas fortemente relacionadas às três áreas de atuação da Universidade: ensino, pesquisa e extensão. O objetivo é oferecer um recurso adicional, complementar, para fazer com que as diversas atividades possam ser executadas de modo adequado”. Coelho faz questão de enfatizar o caráter de complementaridade do fundo: “A ideia central é estimular o professor ou o pesquisador a buscar recursos para o financiamento da pesquisa de todas as agências possíveis”, afirmou. “Por que isso? Porque, normalmente, os recursos da Universidade são limitados”. O docente ou pesquisador se habilita a obter financiamento desde que atenda aos critérios de complementariedade. Ela pode envolver um projeto de pesquisa em andamento, financiado por alguma agência externa à universidade, como a Fapesp ou o CNPq; a titularidade de uma bolsa de pesquisador nível 1 ou 2 do CNPq; a demonstração de um bom histórico de captação de recursos ao longo dos últimos cinco anos, ou ter tido projetos, financiados por agências externas, encerrados nos 12 meses anteriores à solicitação. As regras completas e os formulários para uso do fundo podem acessados no site da Unicamp, a partir do endereço http:// www.prp.gr.unicamp.br/faepex . “O fundo tem uma característica de premiar, ou incentivar, a pesquisa e a qualidade entre os professores”, disse Coelho. “Por exemplo, o que significa ser CNPq nível 1 ou 2? É um reconhecimento nacional da sua competência na área de trabalho. Posso dizer que mais ou menos 70% dos docentes da Universidade estão aptos a solicitar recursos ao Faepex”. O acesso dos pesquisadores nível 2 ao fundo foi uma mudança recente nas regras, disse Coelho. “A evolução do tempo mostrou que há uma grande competição pelo nível 2. Então, a obtenção dessa categoria de bolsa
Pesquisadores em laboratório do Centro de Componentes Semicondutores (CCS) da Unicamp: todas as áreas do conhecimento têm acesso ao fundo
acaba também sendo um mérito que qualifica a pesquisa e o pesquisador da universidade que a desenvolve”. “O pesquisador nível 2, normalmente, é o pesquisador mais jovem. Com essa mudança, permitimos que esses pesquisadores tenham chance na acirrada disputa por recursos”, acrescentou o professor Douglas Soares Galvão, também assessor da PRP. “Então você dá oportunidade também a esse jovem pesquisador, que geralmente não tem um currículo tão competitivo quanto o de um professor mais sênior. Com isso, aumentamos também a inclusão dos professores mais jovens”. Todas as áreas de conhecimento acessam o fundo, de acordo com os assessores da PRP. “A obtenção de recursos no Faepex é baseada em mérito. Se o docente ou pesquisador atende aos critérios de complementaridade e de mérito, ele pode conseguir o recurso solicitado”, disse Coelho. “O que acontecia no passado, e que a gente fez um esforço enorme nos últimos tempos para mudar? Muitas vezes, não havia como atender o pleito por completo – o professor tinha um projeto qualificado pelos assessores e obtinha em média apenas 75% do valor solicitado ao Faepex. Em algumas situações, o valor obtido podia inviabilizar a execução da proposta. Atualmente, a média obtida chega a quase 95% do valor solicitado”. O professor acrescenta que essa taxa faz do fundo “um parceiro confiável para a grande maioria dos docentes e pesquisadores da Unicamp”.
CONGRESSOS CIENTÍFICOS
Outra alteração recente nas regras do fundo, adotada em 2014, passou a permitir o financiamento, também em caráter complementar, da realização de congressos científicos nos campi da Unicamp. “Esse foi um programa que fez muito sucesso”, disse Coelho. “Originalmente, seriam duas chamadas de R$ 300 mil cada, para atender até dez projetos por chamada, ou seja, R$ 30 mil cada. Entretanto, na primeira chamada recebemos 199 pedidos, que ultrapassaram o total de R$ 900 mil. As solicitações encaminhadas atendiam a congressos em todas as áreas de conhecimento. Esse edital aumentou consideravelmente a quantidade de congressos que acontecem hoje na Universidade”. Nos anos de 2014 e 2015, os editais de Congressos auxiliaram na organização 94 eventos em todos os campi da universidade, e em todas as áreas de conhecimento.
Frente à grande demanda e à limitação de recursos – os R$ 300 mil previstos originalmente foram complementados até chegar a R$ 400 mil, e houve uma segunda chamada, de R$ 200 mil – a solução encontrada foi fazer o que Coelho chamou de “distribuição nãolinear” dos recursos. “Olhamos todos os projetos aprovados pelos assessores e atribuímos um volume de recursos que viabilizasse as diferentes etapas do evento científico. Por exemplo, alguns eventos precisavam de dinheiro para pagar passagem – eles tinham conseguido outras coisas, mas não a passagem do convidado internacional. Então, o Faepex financiava a passagem aérea. Conseguimos atender muitas solicitações em todos os campi da universidade”, declarou. Uma exigência dessa modalidade é que o congresso ocorra num campus da Unicamp. “Um professor da Universidade que esteja envolvido na organização de um evento fora não tem acesso a esses recursos”.
Evolução da Linha Pesquisa do Faepex no quadriênio 2012-2015 Linha de pesquisa
2012
2013
2014
2015
Valor investido (R$)
4.677.146,19
3.859.589,73
5.686.599,65
5.253.441,66
% Projetos aprovados
70
92
96
96
% Valor solicitado
56
98
88
94
Linha Pesquisa: auxílio concedido por modalidade 2015
Evolução das verbas do Faepex Tipo de auxílio
Nº de concessões
Valores concedidos (R$)
Auxílio Ponte
29
50.850,00
Ciência e Arte nas Férias
102
396.000,00
2012
Ciência e Arte no Inverno
15
45.000,00
2011
Bolsa de Mestrado/PAPDIC
62
702.000,00
Bolsa de IC/ PAPDIC
26
73.200,00
Docentes e Pesquisadores-Pq Início de Carreira
116
1.684.440,68
Jovem Pesquisador
54
902.115,06
2006
Projeto de Pesquisa
115
404.895,82
2005
Pré-Temático/Apoio aos Projetos Temáticos
29
310.000,00
2004
Jovem Pesquisador/FAPESP
9
47.000,00
2003
Viagens Internacionais
370
1.179.068,40
Viagens Nacionais
198
347.510,76
Total Pesquisa
1.125
6.142.080,72
2015 2014 2013
2010
Dotações Orçamentárias
2009
Taxas de Convênios
2008
Aplicações
2007
2002 0,00
2.000.000,00
4.000.000,00
6.000.000,00
8.000.000,00
10.000.000,00
12.000.000,00
7
nho a 3 de julho de 2016
estímulo à pesquisa A professora Glaucia Pastore, pró-reitora de Pesquisa: em 2015, pela primeira vez, os recursos liberados superaram os R$ 10 milhões
A PRP observou um aumento na circulação de pesquisadores de fora da Unicamp dentro da Universidade. “Isso facilita e aumenta o intercâmbio, favorece que os alunos tenham contato com pesquisadores internacionais de bom nível, abre os canais tanto para futuras colaborações científicas quanto para a mobilidade de estudantes, por meio de estágios e bolsas sanduíche na pósgraduação”, disse.
NOVO PROFESSOR
Em 2014, também houve a ampliação dos recursos oferecidos, via Faepex, a docentes e pesquisadores recém-contratados pela Universidade. “Já havia um programa, implementado em outras gestões, que permitia aos professores que estavam chegando à Univer-
O professor Fernando Antonio Santos Coelho, assessor da PRP: “O objetivo do fundo é financiar as atividades de pesquisa, ensino e extensão, injetando recursos que não puderam ser obtidos por meio de outras agências de fomento”
sidade solicitar recursos ao Faepex. Essa solicitação era condicionada à submissão, pelo novo docente ou pesquisador, de um projeto de pesquisa para ser financiado por uma agência de fomento”, descreveu Coelho. “Inicialmente esse programa concedia até R$ 8 mil, depois esse valor foi alterado para R$ 12 mil. Em 2014, alteramos para R$ 15 mil. Além disso, após a aprovação do financiamento do projeto por uma agência de fomento, o docente ou pesquisador poderia obter uma bolsa de mestrado. Esse pacote de benefícios foi ampliado, ainda, com a inclusão de uma bolsa de iniciação científica”, disse. “No momento em que o novo docente tem o protocolo de submissão de um projeto a uma agência de fomento, por exemplo,
Distribuição dos Valores Concedidos por Àrea Linha Pesquisa Faepex 2015
25%
32%
Biomédicas Exatas Humanas Tecnológicas
20% 23%
Distribuição dos Valores Concedidos por Àrea Linha Ensino Faepex 2015
24% Biomédicas
40%
Exatas 15%
Humanas Tecnológicas
21%
Distribuição dos Valores Concedidos por Àrea Linha Extensão Faepex 2015
11%
16% Biomédicas Exatas
48%
25%
Humanas Tecnológicas
O professor Douglas Soares Galvão, assessor da PRP: “Você dá oportunidade também ao jovem pesquisador, que geralmente não tem um currículo tão competitivo quanto o de um professor mais sênior”
ele vem ao Faepex e solicita o recurso dentro do programa de início de carreira. E pode levar até R$ 15 mil. Nos últimos anos, nós temos feito um grande esforço para liberar R$ 15 mil. O que significa isso? Significa que o novo docente ou pesquisador tem recursos para iniciar o seu trabalho de pesquisas, seja comprando um computador, mobiliário para escritório, pequenos equipamentos e reagentes”. “Um docente novo que chega a um programa de pós-graduação estabelecido, dependendo de como o programa esteja organizado, vai ter extrema dificuldade de conseguir uma das bolsas institucionais administradas pelos programas”, disse Coelho. “Então, é difícil conseguir o primeiro aluno de mestrado, o primeiro aluno de iniciação científica. A partir do momento que o Faepex disponibiliza para ele recursos para o financiamento de um aluno de mestrado por 24 meses e uma bolsa de iniciação científica por 12 meses, damos condições reais a esses novos colegas de montar o grupo de pesquisa dele e começar formalmente a sua carreira acadêmica, independentemente na Unicamp”. Esse programa auxilia a consolidação dos programas de Pós-graduação, principalmente os mais novos.
O FAEPEX ONLINE
Nos últimos três anos, a PRP, com apoio do Centro de Computação da Unicamp (CCUEC), vem trabalhando para transferir todas as atividades do Faepex, realizadas anteriormente em papel, para o sistema digital. “As famosas pastas amarelas do Faepex se transformaram em pastas digitais”, disse Coelho. “Todos os teores atendidos pelo Faepex já estão online desde o início do mês de março desse ano, fechando um ciclo que moderniza as relações do Faepex com a comunidade”. O professor acrescenta que estudos para a implantação de assinatura digital para os termos de outorga também estão em andamento. “Com a complementação desse trabalho, o sistema Faepex será completamente digital, e tanto as solicitações quanto a assinatura do termo de outorga poderão ser feitas sem que o docente ou pesquisador saia do seu escritório”, assinalou. Outras ações administrativas foram implementadas com a Funcamp, com o objetivo de aumentar a eficiência na gestão de todo o sistema. “Essas ações estão em consonância com o compromisso assumido pela professora Gláucia Pastore, pró-reitora de pesquisa, de colocar a PRP como uma facilitadora das atividades de pesquisa desenvolvidas na Universidade”. Coelho acrescenta que uma integração digital entre os sistemas de gerenciamento do Pibic-EM (Programa Institucional de Bolsas de Iniciação Cientifica – Ensino Médio), do Programa Ciência & Arte nas Férias (CAF) e do Programa Ciências & Arte no Inverno (CAFin) também está em andamento e será disponibilizado nos próximos meses. “Essas ações devem contribuir para o aumento da eficiência no atendimento prestado pela PRP, abrindo espaço para outras ações”.
ESTÍMULO À PUBLICAÇÃO
Desde 2013, a PRP trabalha para conhecer e qualificar a pesquisa científica e tecnológica desenvolvida na Unicamp. “Os levantamentos constantemente realizados pela PRP em bancos de dados internacionais mostram que a pesquisa desenvolvida
pela Unicamp está nos patamares mais altos quando comparada com outras universidades brasileiras, russas e sul-africanas, entre os países do BRICS”, disse Coelho. “Entretanto, nosso desempenho fica um pouco comprometido quando comparado com outros países do BRICS, China e Índia”. “Além disso, ele ainda não pode ser comparado ao de universidades mais tradicionais da Europa, América do Norte e da Ásia, com ênfase no Japão”, acrescentou o assessor. “Esses levantamentos mostram claramente que a pesquisa da Unicamp é de boa qualidade em várias áreas, mas também mostram que as nossas publicações, em sua maior parte, não têm um impacto muito elevado. Em outras palavras, sofremos de um mal que aflige a ciência brasileira. Publicamos muito, mas com qualidade apenas moderada”. A PRP vai lançar dois novos programas, que serão administrados através de editais anuais. O primeiro tem por objetivo incentivar a internacionalização de títulos publicados na Unicamp. “Vários desses periódicos científicos apresentam regularidade, têm corpo editorial qualificado, utilizam o sistema de revisão pelos pares, mas precisam de recursos para publicar os seus artigos em língua estrangeira”, explicou o professor. “Esse edital visa atender essa demanda e dará outras providências, visando termos periódicos editados na Universidade que sejam indexados em diferentes bases de dados internacionais”. O outro edital pretende premiar os autores da Unicamp que publicam os seus artigos científicos em periódicos indexados com índice de impacto igual ou superior a 6. Esse programa teve origem em avaliação, realizada pela assessoria da PRP, que mostra que a maioria dos periódicos com elevado índice de impacto se situa na área multidisciplinar. “Esse edital tem por objetivo também estimular as interações entre as diferentes áreas de conhecimento da Universidade, com o objetivo direto de aumentar ainda mais a qualidade da pesquisa desenvolvida na Unicamp, mas também a sua visualização internacional”, disse Coelho. “Os recursos serão utilizados para o financiamento de itens de pesquisa dos docentes e pesquisadores contemplados. O lançamento desse edital também deve ocorrer no início do segundo semestre de 2016”.
BALANÇO
Nos últimos anos, o Faepex tem mantido um orçamento da ordem de R$ 8 milhões, constituído por recursos próprios da Unicamp e, também, por uma cota de 3% descontada de todos os recursos externos trazidos por contratos para a realização de projetos de pesquisa na Universidade. “Essa cota corresponde a 35% de todos os recursos do Faepex, ou cerca de R$ 2 milhões”, declarou Coelho. “Costumo dizer que o Faepex tem um poder distributivo muito relevante”, afirmou. “A Universidade é muito heterogênea na sua composição. Existem docentes e pesquisadores que realizam pesquisas capazes de levantar grandes volumes de recursos de empresas e de outras instituições, entretanto isso não é verdade para todas as áreas de pesquisa da Universidade. As áreas mais básicas não conseguem arrecadar muitos recursos, de empresas privadas, com tanta facilidade“.
8 Campinas, 27 de junho a 3 de julho de 2016
Procura tardia pelo serviço odontológico está entre os motivos
Estudo identifica causas de perda dentária em adultos Foto: Divulgação
CÉSAR MAIA Especial para o JU
esquisa desenvolvida na Faculdade de Odontologia de Piracicaba (FOP) da Unicamp identificou que, num período de quatro anos, entre 2011 e 2015, mais de um terço de 143 adultos avaliados teve perda dentária, sendo que os molares (dentes posteriores), fundamentais para mastigação, foram os mais atingidos. “A procura tardia pelo serviço odontológico, motivado por dor, presença de cárie não tratada e o avanço da idade determinaram a perda dentária”, destaca Manoelito Ferreira Silva Junior, autor da dissertação de mestrado apresentada na FOP. O estudo foi orientado pela professora Maria da Luz Rosário de Sousa e coorientado pela docente Marília Jesus Batista, e teve como objetivo avaliar os fatores de risco para perda dentária e os principais motivos para a extração dentária em adultos no município de Piracicaba. O tema trata da continuidade do trabalho de doutoramento da professora Marília que, em 2011, constatou que os adultos do município apresentavam elevado índice de dentes perdidos. “Quando fiz a pesquisa, a maioria da população apresentava a necessidade de restauração e/ou tratamento de canal. Neste novo estudo, quatro anos depois, os mesmos indivíduos não passaram por nenhum tratamento e, na sua maioria, tiveram os dentes extraídos. No estudo ficou evidenciado que as pessoas só buscam o serviço quando a cárie já está instalada e em fase avançada, a ponto de não ter mais condições de promover o tratamento”, explica Marília. Pelo estudo, a dor teria sido o principal motivo relatado pelos adultos para a escolha da extração dentária, principalmente, devido à falta de outra opção de tratamento no momento da busca pelo serviço odontológico. Outro aspecto importante foi o relato do alto custo dos serviços odontológicos necessários para recuperação dos dentes.
Manoelito Ferreira Silva Junior, autor da dissertação, durante entrevista em Piracicaba: estudo longitudinal
No primeiro estudo, em 2011, participaram da pesquisa 248 voluntários, de 30 setores censitários sorteados, os quais foram distribuídos em 23 bairros do município. Destes, foram contempladas onze residências de cada setor censitário e um adulto de cada residência passou por exame bucal. A pesquisa contou com apoio da Fapesp nos dois momentos, e envolveu adultos na faixa etária entre 20 e 64 anos, em 2011. Em 2015, durante a pesquisa realizada por Manoelito Silva Junior, houve uma perda da amostra, que passou a contar com 143 indivíduos. “A diminuição se deu por motivos como a mudança de endereço, óbito, entre outros fatores”, explica Silva Junior. Em 2011, entre os 248 adultos avaliados, a dor foi o principal motivo relatado por 37,5% dos voluntários para escolha da extração dentária. Para 52%, a opção da ex-
tração ao invés de recuperação do dente, ocorreu, principalmente, pela falta de outro possível tratamento no momento da procura pelo serviço odontológico. Em quatro anos de acompanhamento, 51 adultos (35,7%) apresentaram pelo menos uma perda dentária e, somados, tiveram 130 dentes perdidos. ‘‘Apesar de ocorrer a perda dentária, o número de dentes cariados permaneceu inalterado, o que demonstra que outros dentes foram acometidos pela cárie e podem, assim, continuar sendo perdidos por esse motivo’’ afirma Silva Junior. Os resultados apontados na pesquisa remetem para a importância da prevenção de doenças bucais, sobretudo da cárie dentária, doença de maior prevalência no mundo e que tem impactado na perda dos dentes. Os pesquisadores avaliam que, além da ampliação de acesso aos serviços odontológicos, a melhora nos hábitos de saúde e escolhas saudáveis na alimentação e o uso de cremes dentais fluoretados são fundamentais. Outro destaque da pesquisa é o estudo longitudinal realizado em dois momentos. Segundo Manoelito Junior, é a primeira vez no Brasil que se realiza uma pesquisa populacional de saúde bucal em adultos compreendida em um período tão longo. ‘’Estudos longitudinais com exames clínicos, que avaliam os mesmos indivíduos, são pouco explorados no Brasil, ainda mais em se tratando de uma população adulta”. Estudos epidemiológicos, em geral, são realizados com crianças ou idosos e, neste caso, a faixa etária de adultos foi estendida, de 20 a 64 anos. O fato de a pesquisa ser realizada em quatro anos possibilitou o acompanhamento dos mesmos indivíduos e verificou as principais alterações de saúde bucal. A perda dentária é um processo que ocorre, principalmente, na população adulta. No entanto, alerta Silva Junior, “o envelhecimento não é fator determinante para a perda dentária. Se o indivíduo cuidar da condição bucal permanecerá com os dentes até o final da vida”.
Em 2015, entre os 143 adultos, o estudo mostra que a média de dentes perdidos foi de 3,94 para os adultos jovens (entre 20 e 44 anos em 2011) e de 16,27 para adultos mais velhos (com 45 a 64 anos em 2011). “Deve-se observar que estamos avaliando uma amostra com ampla faixa etária, e os indivíduos obtiveram realidades diferentes em relação à experiência de políticas públicas de saúde bucal no Brasil”, esclarece Silva Junior. Em sua opinião, os indivíduos mais velhos apresentaram um efeito cumulativo de perdas dentárias, que pode ser um reflexo da baixa procura dos serviços pela forma de atendimento odontológico mutilador no passado, e ainda acrescenta sobre o baixo conhecimento das formas de prevenção das doenças bucais. Outro fator significativo do estudo é que, quando se avaliam apenas os adultos jovens, observou-se maior número de dentes restaurados. “Esse resultado significa que adultos mais novos procuraram mais os serviços odontológicos, quando comparados com os adultos mais velhos. Deve-se observar, também, que os indivíduos de 20 a 44 anos provavelmente se beneficiaram mais com as novas políticas de saúde públicas disponibilizadas, como presença de flúor na água de abastecimento e cremes dentais, além de maior oferta de serviço público odontológico”, avalia Silva Junior.
Publicação Dissertação: “Estudo longitudinal sobre a perda dentária em adultos e fatores associados” Autor: Manoelito Ferreira Silva Junior Orientadora: Maria da Luz Rosario de Sousa Coorientadora: Marília Jesus Batista Unidade: Faculdade de Odontologia de Piracicaba (FOP)
Múltiplas faces de uma Justiça POR NAUBER GAVSKI DA SILVA naubergs@yahoo.com.br
coletânea organizada por Ângela de Castro Gomes e Fernando Teixeira da Silva, intitulada A Justiça do Trabalho e sua história, publicada em 2013 como parte da coleção Várias Histórias da Editora da Unicamp, apresenta resultados de trabalhos diversos em história do trabalho – e do direito correspondente – envolvendo a instituição da Justiça do Trabalho no Brasil. Composta por 11 capítulos, além da introdução, é resultado da contribuição de 12 pesquisadores da História e do Direito, que compartilham de olhar aguçado sobre a instituição e as fontes por ela produzidas, até há pouco inacessíveis ou ignoradas pela historiografia do trabalho. Como demonstram os organizadores, trata-se de um “primeiro balanço da produção recente sobre o tema”, demonstrando as possibilidades de análise abertas pelo cruzamento de depoimentos orais com processos judiciais. O conjunto dos estudos cobre uma ampla gama de temporalidades da história do Brasil republicano. Além de uma introdução aos primeiros movimentos de instalação desse ramo da Justiça no país, com os primeiros debates sobre a regulação oficial do trabalho ainda na Primeira República, é possível observar os atores envoltos com aquele poder nas décadas de 1940, 1950 e 1960, período bastante estudado e por muito tempo chamado de fase do “populismo”. Outra importante contribuição da coletânea são as abordagens, maioria no livro, referentes
SERVIÇO
Título: Título: A Justiça do Trabalho e sua história: Os direitos dos trabalhadores no Brasil Organizadores: Ângela de Castro Gomes e Fernando Teixeira da Silva Editora da Unicamp Páginas: 528 Área de interesse: História Coleção Várias Histórias Preço: R$ 60,00 www.editoraunicamp.com.br
ao ambiente da ditadura civil-militar iniciada em 1964, contexto ainda pouco explorado pela historiografia do trabalho. Além disso, alguns estudos não se detêm em marcos tradicionais ou comumente analisados: é possível acompanhar a “luta por direitos” dos anos 1940 aos 1980 em uma mesma cidade; e mesmo depois, com abordagens referentes aos anos 1990 e 2000, marcados pela onda neoliberal. O caráter plural da coletânea se reflete, da mesma forma, nos diversos espaços do território brasileiro em que a Justiça do Trabalho foi se capilarizando desde meados do século passado. Podemos adentrar tanto no mundo urbano industrializado da capital e do interior paulista ou da Grande Porto Alegre, passando pelo mundo das minas de carvão e chegando ao trabalho rural – e não apenas rural – do Nordeste. A escala do olhar dos pesquisadores varia. É possível observar uma operária indo ao trabalho e eventualmente parando para amamentar em uma casa ao lado da oficina; acompanhar os trabalhadores realizando trabalho doméstico e familiar, lembrando o tempo das primeiras manufaturas inglesas; encarar o incômodo e constante frio de uma câmara frigorífica no interior paranaense; escutar o experiente militante comunista argumentando em assembleia depois do golpe de 1964; seguir a dinâmica de uma vila operária ao lado de empresa mineradora de carvão; imaginar as dificuldades enfrentadas pelos trabalhadores rurais para acessar o escritório da Justiça situado na cidade; sentir a tensão das relações de trabalho em engenho de açúcar em região com forte mili-
tância de trabalhadores; acompanhar a atuação de sindicatos demandando direitos coletivos no estado mais industrializado do país; em diversas localidades, assistir às disputas entre advogados e à atuação de magistrados nas Juntas de Conciliação e Julgamento (depois, nas Varas do Trabalho) e nos Conselhos Regionais (a seguir, Tribunais), por vezes chegando ao nível superior daquela Justiça; e ainda nas Delegacias Regionais do Trabalho; finalmente, podemos ouvir juízes, desembargadores e ministros pensando sobre a superexploração do trabalho sobretudo no Norte, no Nordeste e no Centro-Oeste do Brasil. Como marca da renovação dos estudos históricos das últimas décadas, fenômeno ao menos ocidental se não mundial, existe uma preocupação presente em todas essas múltiplas abordagens, que poderiam parecer desconectadas se não houvesse uma instituição como pano de fundo para o livro de Gomes e Silva. De forma simplificada, podemos afirmar que se trata de entender como operam as racionalidades dos diversos sujeitos históricos vivendo em relação, a partir de suas posições sociais e práticas culturais. Aplicada ao estudo da história da Justiça do Trabalho no Brasil, essa perspectiva possibilita a constatação de que não podemos pensar nas “pessoas comuns”, mesmo sem instrução formal, como desprovidas de estratégias e táticas diante dos grupos com mais poder ou mesmo diante do Estado. Nauber Gavski da Silva é doutor em História pela UFRGS e professor substituto do Departamento de História da UFSC.
9 Campinas, 27 de junho a 3 de julho de 2016
Efeito dominó
guintes até 2013. “Na verdade, temos uma recuperação do investimento, em alguns momentos até maiores que no período de auge da economia (2006-2008). Mas, analisando setorialmente, constatamos que esta recuperação se deveu quase que totalmente aos investimentos da Petrobras no âmbito do présal, ou seja, não foi regra geral. A petroleira, também por ser uma empresa de controle estatal, não seguiu a lógica da iniciativa privada e acabou segurando a variável do investimento em patamar mais elevado.” O economista ressalta que seus dados se encerram em 2013, pois com a operação Lava Jato, tudo ficou comprometido para a Petrobras. Em relação à Vale, informa que o auge de investimentos da mineradora coincide com o período de auge da economia em geral, ficando bem acima das outras 72 indústrias selecionadas. “A Vale é dominante dentro do seu setor no país e um ator muito importante no cenário internacional. Em 2007-2008, com o boom das commodities, foi quando seus investimentos mais cresceram, mesmo em uma fase ruim para a economia global.” O pesquisador chama de “aquisição líquida de ativo imobilizado” o acréscimo de investimento, descontadas as vendas de ativos fixos e a depreciação. Em grande parte dos demais setores, conforme o autor da tese, o indicador é negativo ou muito próximo de zero ao longo do período estudado. “Houve mais investimento para modernização ou substituição de ativo produtivo do que, propriamente, acréscimo de capacidade produtiva capaz de gerar empregos. Mesmo no setor de alimentos e bebidas, que até 2005 foi o que mais investiu depois de Petrobras e Vale, o indicador é negativo de lá para cá, em que pese a grandeza de uma Ambev, empresa inclusive internacionalizada. No auge da economia com o governo Lula (2006-2008), poucos setores apresentaram indicadores positivos e, ainda assim, bastante tímidos.” Loural acrescenta que há uma distância muito grande entre os outros setores industriais e Petrobrás e Vale – comparativamente, seria algo como um acréscimo de investimento de 5% dos primeiros contra 30% das duas empresas. “Podemos dizer que no Brasil, historicamente, as empresas nacionais investem pouco – os dados corroboram esta ideia corrente. Há anos em que a Vale também supera a soma de investimentos das demais que vêm abaixo. A conclusão é que Petrobras e Vale seguem lógicas diferentes e distorcem os dados obtidos ao se analisar simplesmente o investimento agregado do setor industrial.” Uma última questão abordada por Marcelo Loural é o financiamento do investimento, que envolve grandes montantes de capital para um retorno futuro. “Muitas vezes é preciso recorrer a fontes externas de financiamento e o ideal é que esses empréstimos sejam de longo prazo, a fim de que a maturação do investimento ocorra. Daí a importância do BNDES [Banco Nacional de Desenvolvimento Econômico e Social] nos anos 2000, embora nem todos os setores da indústria consigam utilizar os recursos do banco. Em grandes empresas que são ‘menores’, como no setor têxtil e de vestuário e calçados, uma das fontes de financiamento é o empréstimo de curto prazo, o que dificulta a realização de investimentos com longo tempo de maturação.”
Tese mostra a importância da Petrobras para a indústria do país; para autor, Lava Jato deve impactar toda a cadeia produtiva Foto: Tania Rego/Agência Brasil
LUIZ SUGIMOTO sugimoto@reitoria.unicamp.br
mbora não tenha sido elaborada com este propósito específico, tese de doutorado defendida no Instituto de Economia (IE) mostra que o revés da Petrobras, por conta do escândalo da Lava Jato, pode ter efeitos muito mais impactantes do que se imagina na economia brasileira. Em “Investimentos industriais no Brasil: uma análise setorial do período 1999-2013”, o economista Marcelo Sartorio Loural constata que no último ano da pesquisa (2013), por exemplo, a Petrobras respondeu pelo dobro dos gastos em investimentos produtivos da Vale e de mais 72 indústrias nacionais de grande porte, somados. A tese foi orientada pelo professor Célio Hiratuka. “O investimento é uma variável importante da economia, tanto para o progresso técnico como para a geração de empregos. Em torno da Petrobras há toda uma cadeia de indústrias, como a naval e de máquinas e equipamentos, que também seria prejudicada por sua paralisia”, observa Marcelo Loural. “Os dados a partir de 2014 não estão em minha pesquisa, mas já confirmam acentuada queda da dinâmica econômica – e o revés da petrolífera talvez responda por isso. A tese mostra a relevância da Petrobras para o investimento no país, primeiramente no auge mais recente desta variável em nossa economia, de 2006 a 2008, e depois na crise internacional, segurando o nível de investimento do setor industrial.” O pesquisador informa que, em 2013, os gastos da Petrobrás com investimentos foram superiores a R$ 90 bilhões, contra menos de R$ 25 bilhões da Vale e pouco mais de R$ 20 bilhões das demais empresas. “No período anterior ao pré-sal, a disparidade não era tão grande: R$ 25 bilhões da Petrobras e menos de R$ 20 bilhões das demais somadas, excluindo a Vale. De 2009 em diante, a petrolífera continuou expandindo seus investimentos, ao passo que as outras indústrias retraíram seus gastos em virtude do cenário de crise. Como esta variável econômica visa uma renda futura, dependendo de expectativas quanto aos ganhos, as empresas não investem.”
Integrantes da Polícia Federal e da Receita Federal em operação na 30ª fase da Lava Jato, na zona portuária do Rio de Janeiro
Marcelo Loural afirma que a variável do investimento geralmente é estudada por uma abordagem macroeconômica e, por isso, o diferencial de sua tese de doutorado está na desagregação por setores da indústria brasileira e mesmo por empresas. “É como adotar uma visão de lupa para identificar diferenças entre os setores. Conceitualmente, o investimento é um gasto realizado (no caso pelo empresário) visando ao aumento da riqueza, a uma renda futura. O investimento que tratamos em economia é aquele que gera capacidade produtiva, promovendo mudança estrutural e progresso técnico; e, principalmente, respondendo pela dinâmica da geração de empregos e impactando diretamente na vida cotidiana.” O autor da tese escolheu o período de 1999 a 2013, primeiramente, por um fator metodológico, que é a disponibilidade de dados. “Os balanços das empresas foram minha fonte principal, sendo que só obtemos dados confiáveis de empresas de capital aberto. Nesse período temos um maior número de empresas deste tipo. Analisei ainda os dados setoriais fornecidos pela PIA (Pesquisa Foto: Antoninho Perri
Industrial Anual), do IBGE. Outro motivo é que 1999 marcou o início de uma receita política pautada no câmbio flutuante, na busca pelo resultado primário positivo pelo governo (superávit primário) e, sobretudo, no regime de metas de inflação. Ocorreram mudanças neste tripé econômico, em especial como resposta à crise, mas ele está presente até hoje nas discussões de política econômica.” Segundo Loural, de 2006 a 2008 ocorreu no Brasil um ciclo positivo de investimentos, o que não se observava desde final dos anos 1970, quando se começou a desenhar um contexto diferente do capitalismo, com predominância das finanças em relação à produção. “Nos anos 2000, em particular após 2003, experimentamos um período de crescimento econômico que perdurou até os primeiros impactos da crise internacional ao país nos últimos meses de 2008. O crescimento não chegou ao patamar de outras épocas, mas de 2004 a 2008 o Brasil apresentou taxas de aumento médio do PIB de 5% ao ano, o que não ocorria desde a crise da dívida no início dos 80.”
DISTORCENDO A MÉDIA
O pesquisador selecionou setores industriais como de alimentos e bebidas, têxtil, vestuário e calçados, metalurgia e siderurgia, máquinas e equipamentos e indústria química. “A ideia de olhar com lupa para o investimento foi com objetivo de buscar disparidades, que no início não imaginava tão grandes. Consegui captar informações de 74 empresas de capital aberto e a conclusão é de que duas delas determinam a dinâmica geral. Embora as outras empresas sejam todas de grande porte, seu peso ao investimento agregado é muito menor que de Petrobras e Vale. Por sua enorme representatividade, ambas acabam distorcendo a média resultante da análise dos dados agregados.” De acordo com Marcelo Loural, a não ser em 2009, quando a crise mundial chegou efetivamente ao Brasil, não se vê uma queda significativa do investimento nos anos se-
Publicação Tese: “Investimentos industriais no Brasil: uma análise setorial do período 1999-2013” Autor: Marcelo Sartorio Loural Orientador: Célio Hiratuka Unidade: Instituto de Economia (IE)
Volume de gastos com aquisição de ativo imobilizado - Petrobras, Vale e demais empresas do painel - 1999 a 2013 - em milhões de reais de 2012 100.000 80.000 60.000 40.000 20.000
O economista Marcelo Sartorio Loural, autor da pesquisa: “Podemos dizer que no Brasil, historicamente, as empresas nacionais investem pouco”
0 1999
2000
2001
2002
2003
Petrobras Fonte: Elaboração própria a partir de dados da Economática
2004
2005
Vale
2006
2007
2008
2009
Demais empresas
2010
2011
2012
2013
10 Campinas, 27 de junho a 3 de julho de 2016
Painel da semana
Painel da semana Bioeconomia - Acontece nos dias 28 e 29 de junho o pri-
meiro grande evento aberto ao público organizado pelo Agropolo Campinas-Brasil: o workshop “Bioeconomia, uma oportunidade para o Brasil: de uma economia baseada em recursos fósseis rumo à bioeconomia”, no anfiteatro do Instituto Agronômico de Campinas (IAC). Inscrições, programação e outras informações no site http://www.iac. sp.gov.br/agropolocampinasbrasil/pppbio. Software ToonTalk - No dia 1 de julho, às 9 horas, no Auditório do Instituto de Economia (IE), o professor Dr. Ken Kahn, da University of Oxford, fala sobre a sua experiência em desenvolvimento do software ToonTalk, um ambiente de programação para crianças. O encontro é organizado pelo Núcleo Interdisciplinar de Planejamento Energético (NIED) da Unicamp. Mais detalhes sobre o sistema estão disponíveis em: http://toontalk.com. O público-alvo do evento são educadores e interessados no assunto. Outras informações podem ser obtidas pelo telefone 19-3521-4351 ou e-mail tamiel@unicamp.br
Eventos futuros Ciência & Arte no Inverno - A Pró-Reitoria de Pesquisa
(PRP) da Unicamp, em parceria com a Secretaria de Educação da Prefeitura Municipal de Campinas, organiza a segunda edição do Programa Ciência & Arte no Inverno (CAFin). O evento, marcado para ocorrer de 6 a 22 de julho, trará ao campus universitário, 110 estudantes do Ensino Fundamental da Rede Municipal. A abertura oficial ocorre às 9 horas, no Auditório da Faculdade de Ciências Médicas (FCM). Na Universidade, eles desenvolverão oficinas de pesquisa, em diversas unidades, sob a orientação de docentes, monitores e colaboradores. O objetivo do Ciência & Arte no Inverno é possibilitar o contato dos alunos com a vida acadêmica e com os profissionais que compõem o ambiente universitário, bem como estimular a vocação para a pesquisa científica e artística, envolvendo-os com os atuais desafios da Ciência e da Arte. O Programa é apoiado pelo Fundo de Apoio ao Ensino, à Pesquisa e Extensão (Faepex). Mais detalhes podem ser obtidos pelo e-mail ciencianoinverno@reitoria.unicamp.br ou telefones 19-3521-2973/ 4614. Aprendizagem autorregulada e motivação - Seminário internacional ocorre de 6 a 8 de julho, na Unicamp. Intitulado Desafios e aplicações no contexto educativo, a programação completa pode ser consultada no link https://www.fe.unicamp.br/aprendizagem-autorregulada/paginas/programacao.html. Outras informações pelo e-mail aprendizagemautorregulada2016@gmail.com. Escolas de inverno do IFGW - As Escolas de Inverno do Instituto “Gleb Wataghin” (IFGW) da Unicamp acontecem de 18 a 29 de julho. Para a edição de 2016 serão oferecidos três cursos: “Tecnologia quântica”, “Interações da radiação com a matéria” e “Magnetismo: pesquisa de fronteira e novas aplicações”. Eles são abertos à
Teses da semana
participação de alunos de graduação e de pós-graduação (de qualquer instituição) em final de curso. O coordenador-geral do evento é o professor Eduardo Granado Monteiro da Silva, da Coordenadoria de Pós-graduação do IFGW. Mais informações no link http://sites.ifi. unicamp.br/escolasdeinverno/ Workshop em Microfluídica - Evento será realizado de 20 a 22 de julho de 2016, no Centro de Convenções da Unicamp. Jovens pesquisadores e estudantes de Ensino Superior podem enviar trabalhos para serem apresentados durante o evento. O envio dos resumos para a seleção se encerra no dia 10 de julho. Saiba como participar acessando o link http://pages.cnpem.br/workshopmicrofluidica Seminário Nacional do CMU - Com o tema “Memória e acervos documentais. O Arquivo como espaço produtor de conhecimento”, o VIII Seminário Nacional do Centro de Memória (CMU) da Unicamp acontece de 26 a 28 de julho, no Centro de Convenções, com conferências, mesas-redondas, diversas oficinas, além de treze grupos de trabalho com diferentes recortes temáticos, abertos a pesquisadores de todo o país. O tema escolhido privilegia as relações entre memória e arquivo, buscando aprofundar a compreensão das funções, usos e potencialidades que essa aproximação permite.O encontro tem como público-alvo profissionais, pesquisadores e estudantes envolvidos com arquivos e acervos documentais, memória, história e temas correlatos. A programação completa pode ser acessada na página eletrônica www.cmu.unicamp.br/viiiseminario. Mais informações: telefone 19-3521-5243 ou e-mail seminariocmu2016@gmail.com Cerimônias do PIBIC-EM - A Pró-Reitoria de Pesquisa (PRP), em conjunto com o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), organiza no dia 29 de julho, às 9 horas, no Centro de Convenções da Unicamp, a cerimônia de encerramento da 9ª turma e a de recepção da 10ª turma dos alunos do Programa Institucional de Bolsas de Iniciação Científica do Ensino Médio (PIBIC-EM). A finalidade do Programa é atrair jovens talentos do ensino médio da rede pública de Campinas e região, para o desenvolvimento de atividades de iniciação científica, sob a orientação de professores e pesquisadores da Unicamp. Isenção da taxa do Vestibular - A Comissão Permanente para os Vestibulares (Comvest) da Unicamp divulga, dia 29 de julho, a lista dos contemplados com a isenção da taxa de inscrição. Leia mais http://www.comvest.unicamp.br/vest2017/isencao/inscricao.html Saberes universitários - O Conselho Editorial da Revista Saberes Universitários recebe, até 30 de julho, trabalhos de profissionais vinculados a Universidades brasileiras e do exterior para a sua segunda edição. Ela será publicada em setembro deste ano. A publicação aceita colaborações em português, inglês e espanhol para todas as seções: Artigos, Revisões, Comunicações, Debates, Relatos de Experiência e Resenhas. Os textos serão avaliados por membros do Conselho Editorial e pareceristas. Leia mais no link http://www.sbu.unicamp.br/seer/ojs/index.php/saberes
Teses da semana Artes: “Estratégias de um desenho nas mitopoéticas do homo-
cephalopoda” (mestrado). Candidato: Rafael Scheibe Coutinho. Orientadora: professora Marta Luiza Strambi. Dia 28 de junho de 2016, às 9h30, na sala 2 da CPG do IA.
Eventos futuros
“O artista e a paisagem: uma correspondência entre a natureza do artista e a natureza” (doutorado). Candidata: Maria Carolina Duprat Ruggeri. Orientadora: professora Lucia Arcuri Elul. Dia 1 de julho de 2016, às 9 horas, no IA. Ciências Médicas: “Fatores trombofílicos em mulheres inférteis” (doutorado). Candidata: Adriana de Góes e Silva Soligo. Orientador: professor Ricardo Barini. Dia 28 de junho de 2016, às 9 horas, no anfiteatro do Caism. “Relação entre padrões de sono, concentrações de vitamina D, obesidade e resistência à insulina” (doutorado). Candidata: Liane Murari Rocha. Orientador: professor João Ernesto de Carvalho. Dia 29 de junho de 2016, às 9 horas, na sala PB10 da FCM. Economia: “Regulação do trabalho no Quênia: limites e possibilidades” (mestrado). Candidato: Alex Mwangi Thuita. Orientadora: professora Magda Barros Biavaschi. Dia 29 de junho de 2016, às 15 horas, na Sala 23 dp pavilhão da Pós-graduação do IE. “O mercado de trabalho na construção civil: o subsetor da construção de edifícios durante a retomada do financiamento habitacional nos anos 2000” (mestrado). Candidata: Melissa Ronconi de Oliveira. Orientadora: professora Mariana de Azevedo Barretto Fix. Dia 1 de julho de 2016, às 10 horas, na sala 3 da Congregação do IE. “Flexibilização e precarização nos serviços públicos: o caso do IBGE” (mestrado). Candidata: Ana Carla Magni. Orientador: professor José Dari Krein. Dia 1 de julho de 2016, às 14h30, na sala 20 do pavilhão da Pós-graduação do IE. Educação Física: “A gestão das artes visuais através da Bienal de São Paulo: pode entrar sem medo que é só arte” (doutorado). Candidata: Verena Carla Pereira. Orientador: professor José Eduardo Ribeiro de Paiva. Dia 27 de junho de 2016, às 14 horas, na sala de defesa de teses do IA. “A performance como modo de existência: relato a partir do interior das coisas” (doutorado). Candidata: Ludmila Castanheira. Orientadora: professora Verônica Fabrini. Dia 30 de junho de 2016, às 8 horas, no IA. Engenharia Civil, Arquitetura e Urbanismo: “Impactos da adoção de BIM na avaliação de energia incorporada e emissões de GHG do ciclo de vida de edificações” (mestrado). Candidata: Natália Nakamura Barros. Orientadora: professora Vanessa Gomes da Silva. Dia 30 de junho de 2016, às 14 horas, na sala de defesa de teses 2 do prédio de aulas da FEC. “Análise do uso da abordagem de Living Lab para inovações em logística urbana no Brasil” (mestrado). Candidata: Maria de Lourdes Ferreira Cassiano Dias. Orientador: professor Orlando Fontes Lima Junior. Dia 1 de julho de 2016, às 14 horas, na sala de defesa de teses 2 do prédio de aulas da FEC. Engenharia de Alimentos: “Biotransformação enzimática de resíduos de vinificação de uvas tinta e branca e seus efeitos antioxidante e anti-inflamatório in vitro” (doutorado). Candidata: Isabela Mateus Martins. Orientadora: professora Gabriela Alves Macedo. Dia 29 de junho de 2016, às 14 horas, na sala de videoconferência da FEM. “Desenvolvimento de doce de amendoim adicionado de proteína de soro de leite e frutooligossacarídeo: entendendo a experiência sensorial do consumidor e a percepção de alegações de nutrição” (mestrado). Candidata: Bianca Larossi Toledo. Orientador: professor
Destaque do Portal
Jorge Herman Behrens. Dia 30 de junho de 2016, às 14 horas, no auditório 2 DTA da FEA. Engenharia Elétrica e de Computação: “Redução da complexidade de decodificação de códigos convolucionais e turbo baseada em limiares de confiabilidade” (doutorado). Candidato: Luís Otávio Mataveli. Orientador: professor Celso de Almeida. Dia 27 de junho de 2016, às 14 horas, na FEEC. “Fluxos de cálcio carreados por diferentes transportadores em miócitos atriais humanos” (doutorado). Candidato: Jair Trapé Goulart. Orientador: professor José Wilson Magalhães Bassani. Dia 30 de junho de 2016, às 14 horas, na CPG da FEEC. “Análise de impactos técnicos provocados pela penetração massiva de veículos elétricos em redes de distribuição de energia elétrica” (mestrado). Candidato: Vitor Torquato Arioli. Orientador: professor Walmir de Freitas Filho. Dia 1 de julho de 2016, às 14 horas, na sala PE12 da FEEC. Engenharia Química: “Métodos estatísticos e redes neurais aplicados a modelos preditivos em digestor contínuo de celulose de kraft de eucalipto” (doutorado). Candidato: Flávio Marcelo Correia. Orientador: professor José Vicente Hallak d’Angelo. Dia 30 de junho de 2016, às 14 horas, na sala de defesa de teses do bloco D da FEQ. Filosofia e Ciências Humanas: “Religião e demanda: o fenômeno religioso em escolas públicas” (doutorado). Candidato: Milton da Silva Santos. Orientador: professor Ronaldo Romulo Machado de Almeida. Dia 28 de junho de 2016, às 14 horas, na sala de defesa de teses do IFCH. “Judeus da Etiópia” e o Estado de Israel: reflexões sobre judaicidades e negritudes na sociedade israelense” (doutorado). Candidata: Paula Barbosa da Silva Fontanezzi Leonel Ferreira. Orientador: professor Ronaldo Romulo Machado de Almeida. Dia 29 de junho de 2016, às 9 horas, na sala multiuso IFCH. Física: “Interações magnetostáticas em rede de agulhas magnéticas: inclusão da expansão multipolar” (mestrado). Candidato: Murilo Ferreira Velo. Orientadora: professora Fanny Béron. Dia 30 de junho de 2016, às 14 horas, no auditório do DFMC do IFGW. Linguagem: “Senário iâmbico em Plauto: efeitos em Persa e Estico” (doutorado). Candidato: Beethoven Barreto Alvarez. Orientadora: professora Isabella Tardin Cardoso. Dia 27 de junho de 2016, às 9 horas, na sala de videocoonferência do IEL. “Uma Autoria Anonymous: dizeres de um autor sem nome” para o “Identidade e Autoria no ciberespaço: dizeres de um autor sem nome”” (mestrado). Candidato: Paulo Noboru de Paula Kawanishi. Orientadora: professora Maria José Rodrigues Faria Coracini. Dia 28 de junho de 2016, às 14 horas, na sala de defesa de teses do IEL. Odontologia: “Fatores sociodemográficos associados ao grau de conhecimento em saúde bucal de gestantes de uma unidade básica de saúde de São Paulo - SP” (mestrado profissional). Candidato: Wander Barbieri. Orientadora: professora Karine Laura Cortelazzi Mendes. Dia 29 de junho de 2016, às 8h30, na sala da Congregação da FOP. “Influência da adição de sal de ônio na diminuição do amarelamento e nas propriedades de cimentos resinosos experimentais” (doutorado). Candidata: Kamila Menezes Guedes de Andrade. Orientadora: professora Giselle Maria Marchi Baron. Dia 1 de julho de 2016, às 8h30, na sala da congregação da FOP.
Destaque do Portal
‘Arte, Ciência e Cultura’ em Perspectivas Unicamp 50 Anos entrelaçamento entre “Arte, Ciência e Cultura” foi o tema de mais uma edição da série Perspectivas Unicamp 50 Anos, com duas mesas-redondas: “Virtualidade e ubiquidade na construção da memória cultural” e “Criatividade em arte e ciência: desafios do século XXI”. O evento realizado no último dia 15, no Centro de Convenções, teve como convidados internacionais o historiador francês Roger Chartier, professor e pesquisador da Escola de Altos Estudos em Ciências Sociais e professor do Collège de France, e o norte-americano Michael Arbib, professor da Universidade do Sul da Califórnia e um dos precursores do conceito de inteligência artificial. Entre outras questões, a primeira mesa discutiu como a criação de novas tecnologias para distribuição massiva e compartilhada de informação muda o modo como construímos a nossa memória; e se os cerca de 50 bilhões de dispositivos móveis, conectados à Internet na próxima década, modificarão a nossa visão de mundo. Da discussão participaram os professores Roger Chartier, Lúcia Santaella (PUC de São Paulo), Mariana Claudia Broens (Unesp/Marília) e Ricardo Ribeiro Gudwin (Unicamp/FEEC). Esta primeira mesa foi coordenada por Ataliba Teixeira de Castilho, professor do Instituto de Estudos da Linguagem (IEL) da Unicamp, que atentou para ubiquidade (onipresença) da tecnologia moderna em todas as partes do mundo. “Hoje, podemos dispor de qualquer informação de qualquer lugar, nossa memória não está mais localizada em uma grande biblioteca ou em um grande arquivo. Esse material todo vem sendo digitalizado, mesmo aqui no Brasil, de modo que as pessoas tenham acesso a
Fotos: Antonio Scarpinetti
O historiador Roger Chartier, professor do Collège de France: debatendo as relações entre história e memória
tudo. Com isso, temos uma memória de certa forma virtual, na nuvem. É isto o que vamos discutir.” Diante da questão da memória cultural, Roger Chartier adiantou que, como historiador, falaria da relação entre história e memória. “Esta relação pode ser de concorrência ou de cooperação, relações que têm características diferentes, mas ainda assim têm em comum a ideia de fazer presente o passado. Meu segundo tema é um pouco mais paradoxal: a ideia de que o esquecimento pode ser considerado como uma condição da memória, e que o apagamento pode ser considerado como uma condição do arquivo, neste mundo digital.” O professor Jônatas Manzolli, coordenador do Núcleo Interdisciplinar de Comunicação Sonora (Nics) da Unicamp, conduziu a mesa da tarde, que tratou dos
O professor Ataliba Teixeira de Castilho: “Hoje, podemos dispor de qualquer informação de qualquer lugar”
desafios, diálogos e perspectivas possíveis que se descortinam na pesquisa atual sobre a criatividade em arte e ciência. “Vamos discutir como os processos criativos, tanto na música e artes em geral, como na ciência, se entrelaçam e podem intervir para entendermos a realidade que nos cerca. De minha parte, vou apresentar o trabalho do Nics, a interação que temos em comunicação sonora, usando música, arte e inclusive modelos matemáticos para produzir arte e ciência.” Manzolli destacou a presença na mesa de Michael Arbib, que vem pela primeira vez ao Brasil e é considerado um dos mais importantes neurocientistas dos Estados Unidos, tendo estudado com Marvin Minsky, um dos idealizadores do conceito de inteligência artificial. “Nos últimos anos, o professor Arbib vem trabalhando na interação com as
O professor Jônatas Manzolli: “Os processos criativos, tanto na música e artes em geral, como na ciência, se entrelaçam”
artes e, desde um encontro em Frankfurt, temos abordado juntos a interação entre música, linguagens e cérebro.” Da mesma segunda mesa participou o professor Paul Verschure, do Catalan Institute of Advanced Studies (Espanha), falando sobre a utilização de métodos de imersão e a interação com objetos virtuais para o entendimento do cérebro e reabilitação de lesões cerebrais, bem como da interação desses métodos com a música. E ainda a professora Diana Domingues, da UnB, que é uma das pioneiras na área de interação entre arte e tecnologia no Brasil, abordando seu trabalho e a proposta dos “Novos Leonardos” – projeto visando a junção de ideias entre arte, ciência e tecnologia para a construção de um novo ideário de desenvolvimento do conhecimento. (Luiz Sugimoto)
11 Campinas, 27 de junho a 3 de julho de 2016
Em busca da batata frita mais saudável
Redução de substância nociva ocorre depois de tubérculo in natura ser tratado com enzima Fotos: Antonio Scarpinetti
CARMO GALLO NETTO carmo@reitoria.unicamp.br
lém das condenáveis gorduras, a batata frita tem ainda um produto potencialmente tóxico e cancerígeno: a acrilamida. Com efeito, a batata crua é rica em um aminoácido chamado L-asparagina. Quando esse tubérculo é frito, ou mesmo processado a temperaturas mais altas, esse aminoácido reage com açúcares redutores nele presentes, dando origem à acrilamida, através da conhecida reação de Maillard, que confere sabor e aroma aos alimentos fritos, assados e torrados. Se a acrilamida formada quando certos alimentos são torrados, assados, cozidos ou fritos constitui uma substância tóxica e cancerígena, seria desejável que ela fosse eliminada antes de seus processamentos, embora a mesma reação que leva à sua formação também possa originar paralelamente produtos agradáveis quanto à cor e ao sabor, como no caso da batata frita. Esse foi o escopo principal da pesquisa desenvolvida pela engenheira de alimentos Fernanda Furlan Gonçalves Dias junto à Faculdade de Engenharia de Alimentos (FEA) da Unicamp, orientada pela professora Hélia Harumi Sato, do Departamento de Ciência de Alimentos. E ela efetivamente conseguiu o que pretendia utilizando uma das enzimas L-asparaginases, que catalisam a hidrólise do aminoácido L-asparagina, formando ácido aspártico e amônia. O ácido aspártico não se transforma em acrilamida. Nesse processo em que a batata crua é submetida ao tratamento com a enzima, em que ocorre a transformação do aminoácido L-asparagina, a redução da acrilamida presente na batata frita é de 72%. Trata-se de uma excelente notícia para os consumidores de batatas. O trabalho desenvolvido é muito mais complexo do que pode ser equivocadamente inferido deste breve resumo. Ele envolveu primeiramente a seleção da melhor enzima fúngica, o estudo para sua efetiva produção, a purificação do produto, certamente a etapa mais complexa e trabalhosa, a caraterização bioquímica do composto obtido e sua aplicação na batata. Paralelamente, a pesquisadora estudou ainda o efeito da enzima no ataque a células cancerígenas, pois há mais de três décadas as L-asparaginases têm sido utilizadas em tratamentos quimioterápicos de doenças malignas do sistema linfático, tais como leucemia linfoblástica aguda infantil, linfoma, linfossarcoma de Hodgkin e melanossarcoma. Além desse uso clínico, as L-asparaginases têm sido empregadas com êxito na inibição da formação de acrilamida em alimentos amiláceos aquecidos a elevadas temperaturas.
A ACRILAMIDA A acrilamida é considerada como provável carcinógeno em humanos segundo a Agência Internacional de Pesquisa sobre o Câncer, além de tóxica ao sistema nervoso e reprodutivo em determinadas doses. Em vista disso, a Organização Mundial da Saúde e a Organização das Nações Unidas para Alimentação e Agricultura recomendam a redução de sua concentração em alimentos. Uma publicação, de 2015, da Autoridade Europeia em Segurança Alimentar, mostra que a ingestão de acrilamida aumenta potencialmente o risco de desenvolvimento de cânceres em todos os grupos etários.
Publicação Tese: “Produção, caracterização bioquímica e aplicação de L-asparaginase fúngica” Autora: Fernanda Furlan Gonçalves Dias Orientadora: Helia Harumi Sato Unidade: Faculdade de Engenharia de Alimentos (FEA)
A acrilamida, substância presente na batata frita, é considerada tóxica e cancerígena
Com base no conhecimento dos mecanismos de formação de acrilamida, vários parâmetros relacionados ao seu nível em alimentos já foram investigados, mas os métodos mais eficazes envolvem a remoção de seus precursores como o aminoácido L-asparagina. Apesar das L-asparaginases revelarem-se promissoras para reduzir o aminoácido L-asparaginase e, consequentemente a acrilamida, a sua aplicação ainda é dispendiosa em comparação com outras estratégias que possam ser utilizadas. Daí a necessidade de reduzir os custos de produção das L-asparaginases com vistas ao seu emprego na segurança dos alimentos produzidos em países que não são autossuficientes nestas enzimas. A aplicação no Brasil de uma L-asparaginase nativa, sem tecnologia de clonagem, poderia aumentar a possibilidade de reduzir os custos decorrentes da importação dessas enzimas. Frise-se que em alguns países, inclusive o Brasil, apenas a L-asparaginase de Aspergillus oryzae é permitida para utilização em alimentos pela Agência Nacional de Vigilância Sanitária (Anvisa).
CAMINHO SEGUIDO
Diante deste quadro, o caminho seguido pela pesquisa foi o de inicialmente selecionar entre oito linhagens de fungos aquele que se revelasse a melhor produtor de L-asparaginase para, depois, estudar a otimização de sua produção, determinar as características bioquímicas do produto obtido, purificar a enzima a partir do fungo selecionado, para então aplicá-la em batatas cruas para verificar a capacidade de reduzir a formação de acrilamida e, paralelamente, avaliar a L-asparaginase purificada quanto ao potencial antiproliferativo de células tumorais. Em consequência, o trabalho se iniciou com o estudo da produção de L-asparagina por oito linhagens de fungos Aspergillus, sendo selecionada para a pesquisa a linhagem A. oryzae CCT 3940 devido às características bioquímicas da enzima obtida. Para comparar a eficácia da redução da enzima obtida com sua versão comercial, amostras de batatas cortadas na forma de cubos foram submetidas à imersão, por 30 minutos a 50 graus Celsius, em três tratamentos: em apenas água destilada, em água destilada com L-asparaginase purificada e em água destilada com a enzima comercial. A L-asparaginase purificada promoveu uma redução de 72% na formação de acrilamida, enquanto que a enzima comercial apresentou 92% de redução em comparação com o sistema controle. No trato sobre células cancerígenas selecionadas a L-asparagina purificada apresentou atividade antiproliferativa contra várias linhagens de células tumorais humanas sem inibir completamente o crescimento de linhagens não tumorais.
Segundo a autora, os resultados indicam que a enzima L-asparaginase de A.oryzae CCT 3940 possui características bioquímicas e atividades biológicas atrativas para as indústrias de alimentos e farmacêuticas.
EXPLICAÇÕES NECESSÁRIAS
Em relação às células cancerígenas, Fernanda explica que através da administração endovenosa a enzima retira as asparaginas do sangue inviabilizando a sobrevivência das células doentes, enquanto as células sadias têm capacidade de produzi-las para se manterem vivas, o que torna a enzima bem seletiva. Para teste de eficiência da enzima produzida a pesquisadora, em parceria com o CPQBA, se valeu de uma gama de células tumorais. E de fato, no estudo in vitro, ela conseguiu reduzir e inibir a formação das células doentes. Em geral os medicamentos utilizam enzimas de origem bacteriana, mas a utilizada por ela é de origem fúngica. Embora as conclusões dependam de maiores estudos, existem indícios da possibilidade de que os medicamentos que utilizassem enzimas de origem fúngica possam produzir menos efeitos colaterais. Estes se manifestam principalmente por causa de uma atividade chamada de glutaminase, pois a enzima bacteriana atua em outro aminoácido chamado glutamina, e quando o faz pode causar alergias e uma série de efeitos colaterais. A enzima empregada pela pesquisadora não apresentou atividade de glutaminase. Por outro lado, a aplicação da L-asparaginase na batata não afetou os níveis de glutamina, diferentemente do que ocorre com o
emprego da enzima comercial utilizada para comparação, embora esta leve à maior redução da acrilamida (92%). Outra grande vantagem do emprego da L-asparagina é a de não afetar as propriedades sensoriais da batata. A redução da acrilamida poderia ser conseguida em uma batata geneticamente modificada, ou com menor conteúdo de açucares redutores ou com menos L-asparagina, mas isso levaria a um produto de perfil sensorial alterado. Outra alternativa seria fritar a batata em temperaturas e em tempos menores, mas certamente poucos se interessariam por um alimento menos crocante. Os procedimentos foram realizados em escala de bancada, fazendo-se agora necessário um estudo para mensurar a viabilidade comercial. Para cumprir a etapa seguinte a pesquisadora vai, durante o pós-doutorado, ampliar a escala, passando a utilizar reator de bancada. Destaque-se, ainda, que essa pesquisa básica abre caminho para outros trabalhos que podem conduzir a resultados práticos muito significativos para a indústria de alimentos com vistas a torna-los mais saudáveis. Fernanda conclui: “Conseguimos selecionar o microrganismo produtor, otimizar sua produção aumentando-a em mais de 200%, purificá-lo, comprovar sua atuação efetiva em batatas fritas reduzindo-lhe em 72% o teor de acrilamida. Ele se mostrou também antiproliferativo quando aplicado em células tumorais como as leucêmicas. Essas são as duas principais conclusões, embora nosso enfoque maior fosse a redução da formação de acrilamida durante o processamento de alimentos”.
A engenheira de alimentos Fernanda Furlan Gonçalves Dias: promovendo a seleção da melhor enzima fúngica
12 Campinas, 27 de junho a 3 de julho de 2016
ISABEL GARDENAL bel@unicamp.br
arafona, meretriz, mulher de vida fácil, messalina, piranha, cortesã, garota de programa, bagaxa, concubina, mulher de vida dupla, adúltera, rapariga, profissional do sexo, perdida, cocote e tantos outros termos da língua portuguesa se prestam a nomear a prostituta. Ela está presente no imaginário popular, permeia o imaginário masculino, mas é real. É vista com preconceito, sofre ataques, mas é real. Foi posta à margem da sociedade, vive em comunidades segregadas, mas é real. A construção do imaginário sobre a prostituta acabou por delimitar o seu espaço e a sua circulação na cidade, sua liberdade e seu dizer, concluiu a linguista Karine de Medeiros Ribeiro em sua dissertação de mestrado, desenvolvida no Instituto de Estudos da Linguagem (IEL). “Procuramos resgatar esse grupo para dar luz a essa voz e à prostituição”, comentou. Ao abordar os perigos e prazeres da prostituição no século 19, Karine analisou o funcionamento desse discurso na literatura oitocentista do Rio de Janeiro, então a capital do Brasil. Segundo ela, esse tipo de literatura não era apartada da sociedade e, por isso, estabeleceu uma relação do discurso literário com outros que estavam em circulação na época. “A literatura também possui uma forma de autoridade diferenciada do discurso médico e do jurídico – o estatuto do literato”, revelou. Escorou-se na Análise do Discurso (AD), teoria linguística de origem francesa, cuja maior expressão é Michel Pêcheux. Entendeu a história sob uma perspectiva foucaultiana e se apoiou em autoras como Margareth Rago e Magali Engel, que falam sobre a condição da prostituição na época. Fez um estudo documental na Hemeroteca Digital da Biblioteca Nacional e avaliou três livros principais: Lucíola, Bom Criolo e O Cortiço, além de outros referenciais: documentos jurídicos e teses médicas. O projeto foi orientado pela pesquisadora do Laboratório de Estudos Urbanos (Labeurb) Claudia Regina Castellanos Pfeiffer.
Da ficção ao real Fotos: Divulgação
Marinheiros em prostíbulo no Rio de Janeiro, em foto publicada em 1920 na revista “Careta”
Charge publicada em 1870 na revista “A Rabeca”: propagando o preconceito
IMAGINÁRIO A investigação inicia com a observação de uma imagem do criminologista italiano Cesare Lombroso, pai da medicina legal moderna. “Interrogo, pelo discurso, a modernização, que é a organização de saberes para segregar e normalizar os sujeitos. Nessa imagem, há vários quadros de mulheres identificadas como prostitutas russas que materializam a tentativa de classificar, enquadrar e decifrar a alteridade”, revelou. Lombroso fazia perícias para ver se as mulheres estavam dentro dos padrões de normalidade. Foucault, relatou a mestranda, era muito crítico a essa forma de classificar os sujeitos. Para ele, essas são formas elementares de querer moralizar, até para dar justificativas. “O perfil da prostituta foi sendo construído em torno de uma oposição, que aparentemente possuía lógicas estáveis, mas que não era bem assim, muito menos transparente.” Karine apontou que Lombroso colaborou perfidamente para a propagação da ideia de colar a imagem da prostituta a um rosto. Ele disseminava documentos nos quais a prostituta tinha queixo quadrado, determinado tipo de olho, de rosto, de cabelo – características que fechavam um perfil. “Documentos médicos e jurídicos nomeavam a prostituição como tudo aquilo que escapava aos padrões. E as prostitutas? Elas iam se tornando socialmente tudo aquilo que não era dito ‘honesto’ e nem ‘normal’ para casar.”
VOZES SILENCIADAS No trabalho, não foram obtidos depoimentos com as vozes das prostitutas. Elas foram ditas pela fala do outro: do médico, do literato, do jurista. Com isso, sua imagem foi sendo pautada por esses dizeres e assentadas sobretudo no imaginário do perigo, do prazer e da perversão. Chegou um momento em que essa imagem trazia o conceito do luxo desmedido, todavia também era comparada ao esgoto, à doença e à degenerescência moral. “Era uma figura contraditória, pois se admitia sua extrema beleza e que era um mal necessário, porém era vista como alguém de quem se deve afastar”, ressaltou. Incomodou muito Karine que as pessoas atribuíssem às prostitutas uma liberdade que ficava apenas no campo imaginário em relação à considerada “mulher honesta”.
Prostitutas russas em trabalho do italiano Cesare Lombroso: ciência a serviço da estigmatização
Imaginou-se que ela fosse mais livre do que de fato era. “Argumentava-se que ela podia circular pela rua sem marido, sem filhos, enquanto a mulher casada, não.” A primeira personagem na literatura que apareceu ligada à prostituição foi Lucíola, de José Alencar. Numa das cenas, o personagem Paulo estava numa festa e viu uma mulher chegando, que o encantou. Então perguntou a um amigo “quem era aquela senhora?” A resposta foi “o sorriso inexprimível, mistura de sarcasmo... que desperta nos elegantes da corte a ignorância de um amigo, profano na difícil ciência das banalidades sociais”. Na conversa deles, aparecia uma distinção entre uma senhora (mulher distinta) e uma mulher bonita (a prostituta). Paulo depois
falou: “Corei de minha simplicidade provinciana, que confundira a máscara hipócrita do vício com o modesto recato da inocência”. Ocorre que Karine notou que não só na literatura, mas também na linguagem jurídica, se textualizava a diferença entre a mulher honesta e a prostituta, até mesmo em termos de lei. O Código Penal de 1890 separava a situação em que um homem estupra uma mulher honesta. Ele tinha que cumprir uma pena com tempo maior do que se estuprasse uma prostituta. Os juristas contemporizavam que, com a prostituta, as circunstâncias teriam atenuantes, visto que não seria afetada a sua honra e sim a sua liberdade. A pesquisadora também notou como a linguagem ia textualizando outras contradições, como uma barreira “aparentemente” invisível que separa dois mundos. Na obra O Cortiço, de Aluisio de Azevedo, por exemplo, Leonie era uma prostituta que ostentava luxo e que iniciou sexualmente a jovem Pombinha na prostituição. Logo, na literatura, a prostituta vai sendo vista como um efeito de causa e consequência. Ali se materializou ainda a influência do meio, uma vez que o cortiço é olhado até hoje como espaço de imoralidade”, percebeu Karine. “Esse é um efeito construído, e há ecos na sociedade de falar mal dos cortiços e favelas por esse motivo. Seria até o caso de sondar como isso soa diferente, porque hoje se dá mais voz à prostituta do que anteriormente.” Foto: Antonio Scarpinetti
A linguista Karine de Medeiros Ribeiro, autora da pesquisa: “É necessário desmistificar esse pensamento de que o saber científico é inquestionável”
Houve alguns movimentos na década de 1960 abordando a prostituição com vistas a uma regulamentação completamente diferente do século 19. Nessa época, procurava-se enquadrar a prostituta no lugar, nos exames médicos. “Mesmo assim, se fazia um eco de que o meio influencia o sujeito”, salientou. Na obra Bom Criolo, de Adolfo Caminha, Karine olhou apenas para a prostituta do romance que materializa o imaginário da doença. No seu auge, essa personagem ficou doente e ninguém a queria. A linguista também encontrou no próprio Bom Criolo a temática da prostituição, porque viu que a pederastia foi aos poucos sendo chamada de prostituição no discurso médico brasileiro do século 19. Em um trecho, esse personagem falava que não acreditava que se daria ao comércio grosseiro entre indivíduos do mesmo sexo. “Ele foi se vendo como uma anomalia”, reparou. “É estranho como os médicos concebiam a sexualidade dita desviante, como a pederastia e o tribadismo (práticas lesbianas), ligada à prostituição.” A maneira de Karine se manifestar foi apontando essas contradições na linguagem. “É necessário desmistificar esse pensamento de que o saber científico é inquestionável e sinalizar que as evidências que normalizaram e classificaram esses sujeitos são atitudes perversas.”
VOZES A literatura pornográfica no Rio de Janeiro tinha um selo indicando que somente poderia ser lida por homens. Mas os livros canônicos (como Lucíola, Bom Criolo e O Cortiço) podiam ser lidos pelas mulheres. Então como se fazia para que a prostituta não fosse um modelo a ser seguido? Geralmente, os literatos escreviam finais trágicos, punindo a prostituição. Tanto é fato que Lucíola morreu, e não foi perdoada. Em O Cortiço, a mãe de uma das personagens morreu de desgosto (punição indireta) e, no Bom Criolo, ele assassinou seu amante. São sempre finais trágicos, como assassinatos, mortes, violência, doenças. No imaginário social, diferentes vozes vão se entrecruzando e um discurso moral vai atravessando-as. Também acontece o contrário. Há relatos de juristas e médicos que falam que a obra Bom Criolo mostra como funciona a pederastia, mas que ela não existe desse modo. No entanto, simultaneamente pegam essas obras como modelo para retratar a realidade. O que é mais cruel de tudo na prostituição, disse Karine, é colocar esse lugar naturalizado como se a prostituta fosse aquela imoral que merece ser punida e estigmatizada. De outra via, também apurou que a literatura oitocentista também dá voz à mulher, que não a tinha anteriormente. “A prostituta na literatura teve então alguma voz, apesar desses enquadramentos, dessas classificações e dessa moral que ali estava atuando”, finalizou.
Publicação Dissertação: “Perigos e prazeres: Discursos sobre a prostituição na literatura oitocentista do Rio de Janeiro” Autora: Karine de Medeiros Ribeiro Orientador: Claudia Regina Castellanos Pfeiffer Unidade: Instituto de Estudos da Linguagem (IEL) Financiamento: CNPq