Revista Aristotélica

Page 1


O

EDITORIAL

excesso de informações, por vezes abusivas, a especialização crescente do conhecimento, a escravização do homem a suas criações e a incomunicabilidade social são os imperativos da era do imediatismo, responsável pela crise existencial do indivíduo na contemporaneidade. Nossa realidade hoje é fundada em perspectivas inócuas e em um saber inconstante e inconsistente. Em nossa procura incessante por respostas, deparamos com a dificuldade de analisar o presente como um evento plural, integrado e interdisciplinar, sendo crucial, pois, a construção de uma ponte entre a ciência e seu processo histórico. Diante disso, a revista ARISTOTÉLICA busca trazer essa necessidade à tona e proporcionar aos leitores a sensação de uma viagem instigante pelo conhecimento, demonstrando a importância da ciência em nossa jornada. E foi com esse intuito que os alunos das primeiras e segundas séries do Ensino Médio do CTM tiveram como missão produzir artigos sobre temas relativos à História da Tecnologia e da Ciência. A partir de então, nós compilamos, organizamos e editamos esses textos, procurando dar coerência ao enorme leque de informações baseadas em fatos e dados biográficos relevantes para o entendimento do assunto. Foi desse processo que nasceu a Aristotélica, inspirada na História da Ciência, dividida em três grandes áreas – Ciências Humanas, Ciências da Natureza e Matemática – embora saibamos que uma não existe sem a outra. Nossa principal motivação para a realização deste projeto é o fato de o desenvolvimento da humanidade ser fruto da capacidade humana de transmitir a cultura assimilada. Ou seja: nós somos capazes de abstrair e transformar continuamente a realidade para que não nos sintamos estrangeiros em nossa própria Terra. O nome deste projeto, como o leitor pode imaginar, tem origem na figura do pensador grego Aristóteles (384 a.C.-322 a.C.). Esse importante filósofo foi também um grande cientista e, com certeza, um marco no pensamento científico e investigativo. Seus esforços se perpetuaram através dos séculos, influenciando estudiosos que nos deram tanto os modelos atômicos, as naves espaciais e a intensa rede de comunicações quanto o poder bélico, reflexo negativo do potencial de destruição que a ciência permite quando usada irracionalmente. Aristóteles e outros que o antecederam e sucederam foram os primeiros a colocar perguntas que ainda hoje ecoam na mente humana – algumas respondidas precária ou provisoriamente, outras com respostas que suscitaram novas perguntas e alargaram a compreensão do mundo e de nós mesmos. A discussão da História da Ciência se estenderia por horas a fio, considerando a amplitude e os desdobramentos do tema, que abarcam desde conhecimentos adquiridos ou que se vislumbram no cenário científico até o incognoscível (ou o curioso, o inventivo, o fantástico, o insondável). Citaríamos então a incansável busca pela universalidade científica e pelos avanços tecnológicos, ou ainda a ilusória visão de independência trazida pelo progresso. Falaríamos da ciência, é claro, como parte do que somos; buscaríamos desmistificar o conceito dado a ela, confundido muitas vezes com a prepotência da verdade absoluta; pontuaríamos a influência da democracia e da liberdade na fomentação do desenvolvimento técnico-científico ou mesmo da fé desprendida para apostar no desconhecido. Discutiríamos, enfim, as questões essenciais que levam o homem para sua inexorável qualidade de questionador – que é em parte o que o distingue do banal e o aproxima do instigante. Porém, coloquemos de lado as redundâncias: a revista está aqui para ser lida. Nosso papel é deixá-la falar aos que não querem ser meros estrangeiros em seu próprio ambiente. Agradecemos a colaboração de todos os envolvidos nessa experiência enriquecedora e principalmente ao interesse de você, leitor, que para nós é de suma importância. Deixemos então, que o texto ecoe sobre sua mente repleta de infindáveis questionamentos. Desejamos a todos uma leitura proveitosa! Os Editores

Créditos Editorial: Gustavo Arruda Heloísa Xavier Isabella Miranda Diagramação: Arthur Tales Calvin Voichicoski Heloísa Barbosa Jennyfer Figueiredo Natália Picolo Nathali Pontelli Vitória Castilho Professores colaboradores: Antônio Ive Marinheiro Ilvanita de Sousa Barbosa Robson Modesto Fernandes Funcionários colaboradores: Helena C. da Silva Santos Wendel Sousa Oliveira Coordenação do projeto: Andrés Calonge Méndez Coordenação de ensino: Nádia C. Rebelato Ferreira Direção pedagógica: Cristina Favaron Tugas Direção Geral: Valcir Shigueru Omori


ÍNDICE ciências HUMANAS

ciências da natureza

CIÊNCIA E RELIGIÃO.....................................................................................

04

Alquimia: A Química Antiga.................................................................

84

O PONTO ONDE ESTAMOS..........................................................................

08

a descoberta do gás oxigênio...........................................................

86

CIÊNCIA NA IDADE MÉDIA.........................................................................

12

Modelos atômicos: um estudo histórico.....................................

88

A MEDICINA NA IDADE MÉDIA.................................................................

14

PRÊMIO NOBEL: RUTHERFORD..................................................................

90

A “INTERNET” de 1751 X A internet do século XXi...................

16

a MÁQUINA A VAPOR como inovação tecnológica...................

18

a descoberta do gás amônia e suas aplicações no início do século xx...........................................................................

92

UMA NOVA VISÃO DA CIÊNCIA.................................................................

20

DARWINISMO SOCIAL e a imigração no brasil no século xix.....

22

A ciência em movimento: Embates entre o geocentrismo e o heliocentrismo na perspectiva de johannes kepler..............................................................................

95

POR TRÁS DAS ESTATÍSTICAS..................................................................

24

Surgimento das pilhas e baterias.................................................

98

Teóricos de esquerda na luta capital x trabalho e a experiência do bolivarianismo chavista..........................

26

Blaise Pascal e a ciência moderna...............................................

100

Fontes de energia - da pré-história aos dias atuais........

32

A determinação e os modelos para o cálculo da velocidade da luz............................................................................

102

Captação de energia Geotérmica na atualidade................

34

Termodinâmica e a Revolução IndustriaL.................................

106

Satélites brasileiros e a devastação da amazônia...................

36

A ciência e seu desenvolvimento nas guerras....................

38

CÉSAR LATTES e o desenvolvimento da pesquisa científica no brasil................................................................................

108

Positivismo de Auguste Comte.........................................................

40

Charles Darwin........................................................................................

110

GOOGLE GLASS...............................................................................................

114

Microcosmo, a vida por trás das lentes...................................

116

O desenvolvimento dos antibióticos............................................

118

Uma alternativa médica.....................................................................

119

Biotecnologia: passado, presente e futuro............................

120

A FÍSICA APLICADA AO ESPORTE............................................................

122

Mendel, um monge cientista.............................................................

124

A termodinâmica e a primeira revolução industrial........

126

Watson e Crick: o nobel que reinventou a biologia molecular...................................................................................................

128

Matemática A HISTÓRIA DO 0.........................................................................................

46

A CRIPTOGRAFIA E SEU USO ATUAL.....................................................

48

PITÁGORAS DE SAMOS: os segredos perdidos no silêncio....

50

EUCLIDES E OS ELEMENTOS.....................................................................

52

ARQUIMEDES E AS CÔNICAS.....................................................................

54

GEOCENTRISMO, HELIOCENTRISMO e a casa de deus.................

56

Mathesis Universalis: a matematização da natureza...........

60

deus e a ciência moderna: pascal e descartes....................

62

DESCARTES E A HISTÓRIA DA CIÊNCIA................................................

64

LOGARITMO: um jeito diferente de falar sobre potência...

66

NEWTON princípios da filosofia natural e o cálculo numérico.......................................................................................................

68

O HOMEM QUE LECIONAVA.......................................................................

70

O CÓDIGO BINÁRIO e a lógica na informática............................

72

apple x microsoft..................................................................................

74

Geometria Analítica.............................................................................

80

1


2


C

EDITORIAL

omo promover discussão entre as Ciências Humanas e o campo científico tradicional? Por que a primeira ainda é vista distanciada da Ciência com a alegação simplista de que não é possível a realização de experimentos para comprovar suas teorias? Perceber a relação dialógica entre a área de Humanidades e a perspectiva da Ciência constitui um amplo campo de possibilidades de compreensão dos fenômenos interdisciplinares essenciais para a sociedade humana. Nesse sentido, a seção “Humanidades” da revista Aristotélica, por meio dos trabalhos dos alunos do Ensino Médio 1ªs e 2ªs séries, promove um debate entre a Ciência atual e o campo científico de pesquisa trazendo temas que vão desde o papel da mulher na ciência, sua relevância e contribuição histórica, até a ciência dos satélites brasileiros e seu papel no monitoramento do desmatamento da Amazônia. A ideia é investigar, compreender, interpretar e postular uma série de fenômenos sociais, filosóficos, históricos e geopolíticos, dentre outros, transcendendo o senso comum. Com isso, esperamos que os artigos aqui expostos possam promover não só a reflexão acerca dos temas discutidos, como também desenvolver o senso crítico dos seus leitores, visando uma compreensão mais abrangente e transformadora da sociedade. Henrique Ribeiro Sterckele Benatti

3


CIÊNCIA E RELIGIÃO

Prof. Orientador: Pablo Carneiro. Alunos: Arthur Stivanello, Fernando Miam, Júlio Ramon, Nathália Luz, Nicolas Macedo, Victoria Assis, Walace Gomes.

Q

ual é a sua ideia sobre quem está certo em suas afirmações: a ciência ou a religião? Sabe-se que uma das grandes disputas durante a história da humanidade ocorreu entre a religião e a ciência, as quais disputavam entre si quem possuía um conhecimento verdadeiro. Um grande exemplo disso foi a discussão em torno dos conceitos de Geocentrismo e Heliocentrismo. Esse foi um dos primeiros entraves na disputa sobre quem estava certo, se a religião ou a ciência. Nesse caso, o Geocentrismo afirmava que a Terra seria o centro do Uni-

2EMVE

que a Terra fosse o centro do Universo, teoria desenvolvida primordialmente por Nicolau Copérnico, ex-monge e cientista polonês, para quem o Sol era o verdadeiro centro. Esse embate durou muitos anos, já que provar que aquilo

verso e que tudo girava ao redor dela. Essa teoria foi defendida pela igreja, na época. Já o Heliocentrismo foi um modelo defendido por alguns pensadores com relação ao centro do Sistema Solar, que não aceitavam a ideia de

4

era verdade não foi fácil. Esse tema passou pelas mãos de outros filósofos que viriam em seguida. Contudo, a ideia do Heliocentrismo já havia sido formulada por Aristarco de Samos (310 – 320 AC), no início do século III AC. Este astrônomo e matemático grego, que viveu em Alexandria, afirmava a existência de um duplo movimento da Terra, sendo que ela realizava a rotação, em relação ao seu próprio eixo, e a translação, ao redor do Sol. O homem sempre procurou explicações para a surgimento do cosmos. Desde a Grécia Antiga, utilizavam-se mitos gregos para tentar explicar a origem do Universo, da Terra e


do homem. Sempre foi considerado fundamental saber o sentido da vida e sua existência e, para isso, foram usadas explicações alegóricas. Por exemplo, os acontecimentos da natureza eram descritos por meio dos sentimentos dos deuses, que, segundo a mitologia grega, habitavam o monte Olimpo. Com o passar do tempo, essas “crendices” já não eram mais suficientes. Houve a necessidade de desvendar os mistérios através de explicações baseadas na razão, deixando a crença no metafísico de lado. Outro ponto a ser abordado é a contraposição entre Criacionismo e

Já a proposta Criacionista é um pouco mais complexa de ser explicada, pois não há somente uma forma de Criacionismo. Essa linha de pensamento tem se apresentando de diferentes formas. A primeira é a chamada Criacionismo Científico, cosmovisão baseada em fatos científicos que é apoiada pela Teoria do Design Inteligente (que afirma que a natureza possui informação especificada e complexidade irredutível) e por diversas outras áreas, como a Lei da Probabilidade, a Genética, a Geofísica e a Paleontologia. Esta tese afirma que o Universo e os seres vivos são resul-

Evolucionismo. Em primeiro lugar, a teoria evolucionista (ou naturalista) diz que o Universo e a Vida surgiram de forma espontânea e despropositada, sendo resultados de processos naturais, regidos simplesmente pelas leis físicas, químicas, biológicas e matemáticas (estas, por sua vez, aparecendo quase que “miraculosamente”). Outra indagação que surge é a do fenômeno Big Bang, suposta expansão de enormes proporções, sofrida por uma super condensação de energia, que formou ao longo de bilhões de anos toda a matéria e energia existentes no Universo.

5

tado de um ato criador, intencional e dotado de objetivos. As outras formas de Criacionismo propõem junções do ato criador com o próprio Criador, sendo as próprias religiões, como o Islamismo, o Judaísmo, o Cristianismo, entre outras, as que as defendem. Seus deuses criadores são respectivamente Alá, Iavé (tradição criacionista judaico-cristã), também chamado de Jeová, e Deus. Para tentarmos compreender esse imbróglio histórico, fizemos uma entrevista com José Antonio Souza, um físico que realiza pesquisas na Universi


dade Federal do ABC (UFABC). Apresentamos, a seguir, duas das perguntas que lhe fizemos, a respeito do tema em questão. Vejamos o que ele respondeu: Alunos: “O que o senhor pensa a respeito da relação entre a ciência e a fé”? Entrevistado: “Não existe relacionamento entre a ciência e a fé. Ambas caminham em cenários diferentes, preenchendo e desenvolvendo importantes papéis na sociedade. Enquanto a fé atinge a espiritualidade das pessoas, a ciência procura entender os fenômenos naturais, a biodiversidade, o ecossistema, o funcionamento do corpo humano etc. Entretanto, em alguns momentos, elas se cruzam, principalmente, em questões envolvendo saúde e morte. Por exemplo, enquanto a ciência procura descobrir o princípio de algumas doenças e assim propor formas de cura, a fé acredita que tudo está nas mãos de Deus. É importante salientar que muitos cientistas acreditam em uma forma suprema, mas isso não os faz ficar de mãos atadas esperando as divindades. Em muitos casos, a ignorância de certos grupos leva a crenças arrasadoras e fundamentalistas, deixando de usufruir

de grandes avanços científicos, principalmente, na qualidade de vida. Essa ignorância e fundamentalismo têm gerado guerras horríveis no mundo atual.” Alunos: “É possível uma

scido há muito tempo atrás, mas hoje em dia essa ideia não é correta. Isso aconteceu, se eu não me engano, durante o século XVI, quando a igreja dominava o sistema político mundial.

conciliação?” Entrevistado: “A fé e a ciência não estão em combate, nos dias de hoje. Muitos religiosos utilizam ou se beneficiam dos avanços da ciência e principalmente da tecnologia. Isso é fato! Vocês podem pensar em inúmeros exemplos, como a medicina, o transporte aéreo, construções civis, celulares, computadores etc. Tudo isso foi alcançado devido a avanços científicos; talvez esse entendimento de conflito tenha na-

Ela centralizava todo o poder e perseguia todas as pessoas que tinham ideias diferentes das suas, principalmente, os cientistas e estudiosos. Pessoas eram queimadas como bruxos, mas veja, isso não tem muito a ver com a fé dos religiosos. A briga era por poder, terras e riqueza; esse tipo de domínio era camuflado na forma de fé. A igreja dizia que tal poder fora concebido por Deus para ganhar mais e mais seguidores, e assim, mais e mais

6

poder. E, infelizmente, muitas pessoas acreditavam em tais instituições religiosas, sendo vítimas de abusos contra a liberdade individual.” Para obtermos a perspectiva religiosa, entrevistamos Manuel Antonio, pastor da Igreja Batista Boas-Novas na cidade de São Paulo. Segundo o líder religioso, primeiramente devese conceituar de forma apropriada o termo “religião”, pois este apresenta sentidos amplos e diversos. Conforme a Bíblia Sagrada, livro religioso tomado como norma de fé para o entrevistado, a verdadeira ciência, ou seja, aquela sem fraudes nem pressuposições equivocadas, com embasamento sólido, diz o mesmo que a religião, mas com outras palavras. Prosseguindo com o raciocínio, ao desenvolver novas tecnologias e ao conhecer cada vez mais o mundo ao nosso redor, o homem foi se esquecendo de Deus, colocando outras prioridades em sua vida. Para muitas religiões atuais, o mundo é produto de uma criação inteligente e volitiva (propositada) e, segundo o pastor, a natureza e o universo são dotados de extrema beleza, geometria, poesia e harmonia para terem se formado espontânea e despropositadamente, como afirmam os cientistas


evolucionistas. Citando as palavras de Manuel Antonio, “Cada vez mais o ser humano degenera e mistifica o conceito de Deus, sendo que tal percepção fere de longe a perspectiva bíblica do mesmo.” Com o decorrer dos séculos de avanço técnico-científico, o homem foi se tornando autossuficiente, e assim, a necessidade de Deus vem se extinguindo desde então. Questões modernas do campo da ciência, como o aborto, são consideradas uma agressão à vida pelo ponto de vista bíblico e religioso, pois afirma-se que compete somente a Deus a permissão de interferência na vida ou na morte. Dessa forma, a prática abortiva é entendida como assassi-

ulação genética em si não é nem boa nem má; contudo, sob preceitos e objetivos antiéticos, ela se torna errada, sendo assim condenada pelas Escrituras Sagradas. Em suma, muitas questões científicas são consideradas benéficas ou maléficas em função dos propósitos nelas ocultos. Será que tudo o que os cientistas falam e “provam” está correto? Será que realmente há um mundo espiritual ao nosso redor? Origem do universo, da vida,

nato e, portanto, crime e pecado. Já em relação a outras áreas, como a manipulação genética, Manuel afirma que o cerne da questão está por trás de tal prática e de suas ambições e anseios. Segundo o religioso, Deus deu inteligência ao ser humano para que ele pudesse resolver situações problemáticas e difíceis e também superar obstáculos da vida. Porém, o Senhor também nos concedeu sabedoria, para sabermos o que convém ser feito ou não. A manip-

7

do ser humano, da sua sabedoria, enfim, tudo isso ainda será alvo de discussões e questionamentos. Fica a critério do leitor decidir qual é a posição mais coerente com as suas crenças, seja na ciência, seja na religião, ou até em ambas. Um fato é certo: de alguma forma surgimos. Será que existe um universo religioso metafísico além do cosmos que conhecemos? A busca pelas respostas ainda permanece no ar.


O Ponto Onde Estamos Prof. Orientador: Antonio Ive. Alunos: Alana dos Santos, Ana Clara de Jesus, Angelica Yorikawa, Fernanda Bottaro, Isabela Galdino, Sabrina Bezerra, Thais Correia.

O

objetivo deste texto é apresentar uma resenha descritiva do livro O Ponto Onde Estamos – Viagens e Viajantes na História da Expansão e da Conquista (Portugal, séculos XV e XVI), de Paulo Miceli, 4ª edição, Editora Unicamp, 2008. O Ponto onde Estamos mostra a história das grandes navegações e dos descobrimentos dos séculos XV e XVI. Em seu estudo, o autor parte da observação da vida em alto-mar e, por essa ótica, aborda questões sociais importantes do período

2EMVE

podem se passar anos, décadas ou séculos, que tudo pode mudar e até desaparecer completamente, porém a cultura, não. A cultura se transforma, se metamorfoseia, mas nunca irá desaparecer, pois é intrínseca ao ser humano. E, assim como sempre, a cultura será transmitida de um povo a outro. No segundo capítulo (Lisboa: Lugar (e)Vocação da História), Paulo Miceli discorre sobre narrativas das viagens, verdade versus mentira, demonstrando que, nas histórias sobre as viagens existem coisas lo Miceli nos mostra a fantasiosas, coisas da estudado. No primeiro capítulo, História da humanidade imaginação literária. cujo título é O Termo por um ponto de vista Entretanto, o capítulo e seus Termos, Pau- cultural. Ele afirma que retrata características

8


pitorescas da Lisboa dos séculos XV e XVI. Destaca sua vocação para o mar e a condição de centro marítimo e comercial do mundo, abrangendo rotas comerciais que ligavam o globo. As crises econômicas sofridas por Portugal (e grande parte da Europa) afetaram muito a sobrevivência das pessoas, que se valiam das navegações para aliviar os problemas da cidade, a qual contava com grande população de pobres e doentes vitimados pela Peste Negra. No capítulo três, O Navio: História e Trabalho, a obra aborda o fato de a cidade de Lisboa ser conhecida pela importância do seu porto, porta de entrada de muita gente na cidade, sendo um bom local para o comércio. Estrangeiros migravam para a capital portuguesa

mais severa, aconteciam guerras, abalos sísmicos e mais doenças, como a cólera e a varíola, que faziam com que as pessoas abandonassem a cidade por medo e a população fosse decaindo cada vez mais, mesmo sabendo que se tratava de uma cidade grande e um bom lugar para o comércio, já que, em Lis

em b u s ca de um padrão de vida melhor, mas, conforme a população ia crescendo, a fome começava a ser um problema e, com ela, apareciam as epidemias. Durante a incidência dessas pestes, as pessoas tinham que se manter

isoladas, em quarentena. Nas portas das casas era colocada identificação, normalmente uma cruz, que sinalizava que ali havia alguém de quem todos deveriam se afastar. Até os atos públicos, que reuniam muitas pessoas, eram proibidos. As pestes vinham uma atrás da outra e, para tornar a devastação da cidade ainda

boa, até a mulheres pobres sobrev i v i a m O capítulo 5, cujo título é “Dia após dia...”, retrata as grandes dificuldades que a tripulação das naus vivenciavam.

9

Antigamente, os escritores de peças teatrais criticavam as embarcações, pois elas eram muito perigosas, ou seja, a situação em que eles viajavam era precária. Também havia desigualdade social: os comandantes dos navios e os padres eram os mais privilegiados; os escravos deveriam servir a todos eles dentro das embarcações. Quem não cumpria suas obrigações sofria consequências severas. Nos navios, havia uma hierarquia que dividia as funções de cada um. Havia também muitas doenças e fome nas embarcações. Trata também esse capítulo da dificuldade de elaboração de mapas para as navegações, pois eram feitos a mão e poucas pessoas dominavam as técnicas cartográficas na época. Outra


grande preocupação das embarcações era a falta de experiência dos pilotos; isso tornava as viagens ainda mais perigosas, principalmente as que se dirigiam para as Índias. A vida a bordo, como já afirmamos, não era fácil. Os tripulantes sofriam com a falta de comida. Era muito difícil armazenar alimentos nas naus. Muitas vezes, tinham que comer camundongos assados, tripas de ratazanas, entre outras coisas. A tripulação tinha que competir com roedores e besouros por comida, pois estes atacavam os estoques de alimentos, provocando grandes estragos. Comiam biscoitos, que eram ar-

ela não apodrecesse e não cobrisse os dentes, impedindo­ os de mastigar. Também sofriam com doenças no pulmão e algumas enfermidades que até hoje não sabemos o seu verdadeiro nome. Os padres passavam a maior parte do tempo cuidando dos enfermos O capítulo sete (Pontos Finais) finaliza a obra e trata das

mazenados em paióis, dos quais somente o capitão e o despenseiro tinham a chave. Porém, muitos desses biscoitos, apodreciam. Por conta da escassez de comida, os tripulantes sofriam a falta de vitamina C, o que causava doenças como o escorbuto (condição caracterizada por fraqueza geral, anemia, sangramento da gengiva e hemorragias cutâneas), que era a doença mais frequente nos tripulantes e que causava tal inchaço na gengiva que era preciso c o r t á­l a , para que

10

embarcações que sofriam acidentes, causados por possíveis falhas de construção ou pela falta de manutenção. Também diferencia o “homem do Renascimento” daquele que embarcava rumo à expansão, defendendo aqueles que eram livres de tutelas


daqueles que tinham desejo de poder e riqueza. Ao escrever o livro “O Ponto onde Estamos”, o autor, Paulo Celso Micelli, abordou questões socioculturais e a degradação da antiga Lisboa; também mostrou como a cidade dependia de seu porto para seu desenvolvimento comercial, pois era para ali

das embarcações. Junto com as facilidades que o porto trazia à cidade, vinham as doenças, que, como a Peste Negra, vitimou milhares de moradores. Miceli não deixou de fora em sua obra o desespero que tomava conta da tripulação das naus avari-

que afluíam pessoas de outros lugares, importando e exportando produtos, inclusive escravos, que viviam em situação precária nas embarcações, tendo que comer ratos e servir os padres e os comandantes. Estes, por sua vez, tinham privilégios, o que ressalta a hierarquia que havia no interior

11

adas em alto-mar. E, ao final dessa leitura, ficamos com a mesma dúvida do poeta português Fernando Pessoa: “Valeu a pena?“. A resposta já sabemos: “Tudo vale a pena se a alma não é pequena.”


Ciência na Idade Média Prof. Orientador: Gislene Barreto. Alunos: Ana Carolina, Barbara Cristina, James Mauch, Juliane Stecker, Vitoria Cavalcante, Laura Victoria, Leonardo Moraes.

A

Idade Média foi um período marcado pelo embate entre a religião, representada pela Igreja Católica, e uma nova ciência que nascia em meio a um período conturbado e que tentava se estabelecer em um mundo marcado por dogmas. O homem tinha as suas ações orientadas pela religião, que

queimados em fogueiras ou torturados por outros castigos pela Inquisição. Para a Igreja Católica, quem seguia a ciência nascente contrariava sua doutrina, já que, nessa época, as respostas do Universo eram explicadas pela vontade divina, o que não respondia às dúvidas de muitos cientistas que procuravam desvendar o mundo por conta própria e, assim, contrariavam os interesses daquela instituição. A Igreja ainda assumia

poderia apoiar suas decisões e também controlar o desenvolvimento do seu pensamento. A ciência nascente sofria certas perseguições em face ao poder abrangente do Santo Ofício, que condenava alguns tipos de pesquisa. Dessa maneira, muitos cientistas tiveram seus trabalhos incluídos no Index Librorum e foram condenados, submetidos a castigos públicos, tachados como bruxos,

12

1EMMA

a função formativa, uma vez que as universidades estavam sob o controle dos seus clérigos. Esse período do florescimento das universidades, conhecido como Escolástica, tinha como principal objetivo a consolidação entre a relação Filosofia e a Teologia e, mais tarde, enfrentaria um dos seus maiores desafios: conciliar o funcionamento do mundo natural com o discurso teológico. Um exemplo desse antagonismo foi Giordano Bruno, membro do clero que, ao afirmar a infinitude do Universo, foi condenado pela Santa Inquisição a morrer na fogueira. A influência da Igreja era tão poderosa que muitos dos métodos de investigação usados naquela época eram baseados em crendices e superstições, o que, mais tarde, pôde ser verificado com a separação entre a Alquimia e a Química, e entre a Astrologia e a Astronomia. Outro exemplo disso foi o tratamento dado aos estudos relacionados à Medicina. A dissecação de cadáveres, que tanto contribuiu para a estruturação dos conhe-


cimentos médicos, foi, durante um bom espaço de tempo, condenada pelo Santo Ofício. Além das disputas religiosas, esse período também foi marcado por disputas econômicas. A burguesia começa a conquistar espaços que antes eram de domínio do feudalismo e, com esse movimento, ela inicia um processo de financiamento de novos estudos. Em outros termos, com a decadência do feudalismo, a burguesia começa a ganhar

13

espaço e a privilegiar aquilo que é de seu interesse. Assim, novas pesquisas passam a ganhar corpo, e o terreno para a Revolução Científica, que acontecerá a partir do século XVI, começa a ser preparado com mais intensidade. Porém, é importante destacar que a burguesia não desempenha um papel muito diferente da tradição medieval e escolástica, pois, assim como a Igreja, ela defende seus próprios interesses e ideais.


A MEDICINA NA IDADE MÉDIA Prof. Orientador: Antonio Ive. Alunos: Andressa Gutierrez, Barbara Alchanjo, Gabriela Mota, Giovanna Bonamin, Juliana Piovezani, Letícia Morales, Letícia Nishioka.

O

s avanços da Medicina moderna não param de surpreender. A cada dia, novos procedimentos são desenvolvidos, equipamentos sofisticados são concebidos e novas drogas aliviam dores crônicas, curam doenças, aumentam a longevidade e elevam significativamente a qualidade de vida dos pacientes. Porém, nem sempre foi assim. Nas sociedades da Antiguidade Clássica, grega e romana, havia estudiosos que sustentavam a ideia de que as enfermidades tinham causas puramente naturais. Entretanto, com a crise e decadência do Império Romano, no século V DC, surgiu um novo tipo de sociedade, o feudalismo, que acreditava que a origem e a cura das doenças não estavam separadas da espiritualidade e que as epidemias eram consideradas um castigo divino para os pecados do homem. Sendo um castigo, a doença podia funcionar como penitência e absolvição. Uma vida

virtuosa ou o arrependimento levariam, então, à cura resultante da graça divina. Apesar do surgimento das universidades médicas no século XII na Europa, o estudo e a prática da Medicina estavam firmemente associados à Igreja Católica. De fato, essa

conhecerem remédios caseiros e procedimentos básicos de Medicina) aos livros que continham conhecimentos teóricos. A realização de experimentos empíricos, como a dissecação de cadáveres, prática indispensável para se aprender sobre Anatomia e relacioná-la

instituição tornou-se a depositária do saber médico da época, o que fez com que a fé e a cura estivessem interligadas por séculos. As práticas médicas, devido à falta de conhecimento, negligenciavam a assepsia, fato que levava a óbito a maioria dos doentes graves. A Igreja não permitia o acesso dos médicos (muitas vezes, barbeiros exerciam a função de médicos por

às doenças e órgãos, também era proibida, pois a Igreja defendia a tese de que a sacralidade do corpo de Cristo estendia-se aos demais corpos, vivos ou não. Sob a guarda dos monges, o conhecimento medicinal não se transformaria em heresia ou apelo ao paganismo. A ineficácia dos procedimentos mágicos ou religiosos era compensada com caridade, atribuição de ordens

14

1EMVE

monásticas, particularmente dos beneditinos, que consideravam o cuidado com os doentes sua forma principal de atuação. Os teólogos cristãos explicavam as doenças como forma de castigo ou teste à fé, e assim dividiram a medicina medieval em duas partes: a medicina religiosa (preocupada com “as coisas celestiais”) e a medicina humana (baseada em coisas terrenas), sendo esses dois termos usados por estudiosos e pela sociedade da Idade Média. A medicina religiosa englobava rezas, penitências, exorcismos, encantamentos, etc. O poder divino da cura poderia ser delegado aos reis, por exemplo, originando um procedimento conhecido como “toque real”, usado no caso da escrófula, a tuberculose dos gânglios linfáticos, em que a criança doente era levada ao rei em determinado dia, que lhe impunha as mãos, dizendo: ”Eu te toco, Deus te cura”. O fato é que a escrófula regride espontaneamente, o que contribuía para o prestígio do


monarca que executava “a cura”. Na maioria das vezes, os tratamentos eram uma mistura de fatos científicos, crenças pagãs e imposições religiosas. Quando alguém contraía a peste bubônica, por exemplo, era determinado que o paciente passasse por um período de penitência, confessando-se com um padre. Como a doença era vista como um castigo de Deus, se o paciente admitisse seus pecados, talvez a vontade divina poupasse sua vida. Deus era considerado o “médico divino” que enviava doenças ou curas conforme sua vontade. Em oposição, a medicina humana estava relacionada com os métodos empíricos como, por exemplo, os cinco tratamentos mais praticados. O primeiro procedimento era a cirurgia. Os cirurgiões da época tinham pou-

quíssimo conhecimento sobre a anatomia humana, sobre antissépticos, que fizessem com que as incisões não infeccionassem, e sobre anestésicos. Não era agradável ser um paciente nessas horas, mas não havia muita escolha. O doente, com muita dor, procurava um médico para livrarse do sofrimento. Para isso, o doutor submetia-o a mais dor ao fazer a cirurgia, por não existirem métodos anestésicos. E assim, a cirurgia se tornava cruel e terrivelmente dolorosa. O segundo procedimento usado na época era a sangria para tratar uma doença causada, segundo se acreditava, pelo fato do corpo ter excesso de sangue. Tal procedimento consistia em cortar uma veia ou artéria do paciente para que seu sangue escorresse por um tempo, ou então os médicos colocavam sanguessugas

próximas do local tratado para retirar o excesso de sangue do corpo. A remoção era outra intervenção médica muito praticada na época. Cirurgiões eram postos em campos de batalha para remover flechas presas aos corpos dos soldados. Em situações como essas, a ponta da flecha ficava dentro do corpo, enquanto só era possível tirar o cabo. Esse problema foi “resolvido” com a colher de flecha, que era inserida na ferida causada pelo disparo e “pescava” a ponta da flecha. Outros dois métodos muito dolorosos usados eram o parto e o bloqueio. Dar à luz na Idade Média era tão mortal que a Igreja pedia que as grávidas se preparassem para a morte. Houve uma época em que parteiras mais experientes eram perseguidas como bruxas, já que usavam métodos

15

para aliviar a dor de suas pacientes. Quando um bebê estava morto no útero, uma faca era usada para que ele fosse desmembrado ainda na barriga da mãe, para facilitar a “retirada” do feto. Já o bloqueio, consistia em uma operação de catarata que incluía a inserção de uma faca ou de uma agulha pela córnea, forçando as lentes do olho até o fundo do órgão. Posteriormente, uma seringa era usada para extrair por sucção a catarata. Era dolorido e raramente o olho do paciente era salvo. Apesar de os métodos usados na Idade Média serem cruéis e agonizantes, eles foram essenciais para as transformações que mudariam a História da Medicina. Doenças que antes levavam o paciente à morte por falta de conhecimento, hoje em dia são tratadas com eficácia, poupando muitas vidas.


A “internet” de 1751

x

A internet do século XXI

Prof. Orientador: : Antonio Ive. Alunos: Aline Silva, Daniel Altmann, Juliana Fernandes, Matheus Miller, Matheus Toledo, Rosielly Santana, Victória Nogarotto.

A

tualmente, a grande maioria das informações está a um clique de distância, seja nos celulares, computadores ou “tablets”. Pode-se dizer que se tem um mundo de informações nas mãos. Essa facilidade deve-se à Internet, que foi criada em 1969, nos Estados Unidos, com a função de interligar laboratórios de pesquisas e foi inicialmente chamada de “Aparnet”. A partir do momento em que pôde ser utilizada em outros países, passou a chamar-se Internet. Apenas em 1987 o seu uso comercial foi lib-

as enciclopédias, que, escritas na Idade Moderna, tiveram seu alcance potencializado pela invenção da imprensa por Gutenberg. Foi um marco do Iluminismo e seu legado dura até hoje. O Iluminismo impulsionou mudanças na Europa. Movimento de caráter econômico, político, social e cultural do século XVIII, criticava o pensamento religioso medieval, dando lugar ao homem como centro de todos os interesses, valorizando a razão e corroborando os princípios renascentistas. As ideias iluministas, associadas às transformações ocor-

erado nos EUA, já que antes era restrita ao uso acadêmico. Em 1992, o Laboratório Europeu de Física de Partículas (Cern), inventou a “World Wide Web” (traduzida livremente por “teia em todo o mundo”), cujo objetivo era colocar informações ao alcance de qualquer usuário da Internet, facilitando o acesso e a difusão do conhecimento e da informação. No entanto, nem sempre foi assim. Durante a Idade Média, o conhecimento e a cultura eram monopólios da Igreja. Um grande passo para a difusão do conhecimento foram

16

1EMMC

ridas na Europa, abalaram o poder e o prestígio da Igreja Católica, quebrando sua unidade no Velho Continente. As ideias liberais do Iluminismo se disseminaram rapidamente. Alguns reis absolutistas, com medo de perder o seu poder na sociedade, ou até mesmo suas próprias vidas, passaram a aceitar algumas dessas ideias. Os ideais iluministas se difundiram pelo mundo, embora o centro irradiador tenha sido Paris. Eles defendiam a criação de escolas, para que o povo fosse educado, e também para que houvesse a liberdade religiosa.


Os pensadores que defendiam esses ideais acreditavam que o pensamento racional deveria ser levado adiante substituindo as crenças religiosas e o misticismo, que, segundo eles, bloqueavam a evolução do homem. Essa busca pela desmitificação do saber foi a base do pensamento científico moderno. Segundo esse pensamento, o homem deveria ser o centro de tudo e passar a buscar respostas para as questões que, até então, eram justificadas somente pela fé. Acreditava-se que o homem era um ser racional por natureza.

É importante salientar que, além de lutar contra a ignorância, também objetivavam dignificar o trabalho prático. A primeira enciclopédia foi escrita em 1751, e as últimas, em 1772, organizadas por Denis Diderot e Jean le Rond d’Alembert. Nelas foi registrada grande parte do que existia de conhecimento até então. No total, foram 33 volumes que continham dados das ciências humanas e naturais, e não se restringiam a um assunto específico, mas abrangiam diversos temas. Ao longo da História, foram muitos os acontecimentos influenciados pelos ideais iluministas difundidos pelas enciclopédias, acontec-

O movimento iluminista utilizou da razão no combate à fé, e a ideia de liberdade para combater o poder centralizado da monarquia. Com esse fundamento, transformou a concepção de homem e de mundo. As enciclopédias transmitiam esses ideais de liberdade e valorização do conhecimento.

17

imentos esses cuja repercussão chegou aos dias atuais. Eles contribuíram largamente para a eclosão da Revolução Francesa (1789). No Brasil, seu conteúdo influenciou a Inconfidência Mineira (1789), movimento que significou a luta contra a opressão do governo português no período colonial. Atualmente, através da Internet, obtemos informações e conhecimentos de maneira muito rápida. Entretanto, fica evidente que esse processo teve as enciclopédias como precursoras. Sem exagero, pode-se dizer que a Internet é a grande enciclopédia do século XXI.


A máquina a vapor como inovação tecnológica

Prof. Orientador: José Fabiany Pinheiro. Alunos: Fernanda Alves, Gabriely Britto, Marcella Arantes, Mariana Lion, Sabrina Ferreira, Tatiane Paoli.

A

o longo de sua história, o ser humano sempre buscou formas não só de garantir sua sobrevivência como também de facilitá-la. Nesse contexto, há o surgimento de diversas tecnologias, responsáveis por trazer tal facilidade e proporcionar grande avanço científico. Um bom exemplo disso foram as máquinas a vapor, que se destacaram na Revolução Industrial e possibilitaram, posteriormente, o surgimento de outras tecnologias baseadas em princípios semelhantes. A criação e o desenvolvimento das máquinas a vapor podem ser atribuídos a diversos cientistas, sendo o primeiro d e l e s H e r-

2EMMA

que seriam essenciais para a industrialização e a vida moderna só surgiram de fato na segunda metade do século XVIII, com as invenções de James Watt. Em 1765, Watt desenvolveu a primeira máquina a vapor considerada realmente eficiente, que passou a ser utilizada em larga escala na movimentação de navios, em máquinas de teares e em processos de usinagem. Todo esse avanço tecnológico impulsionou a Revolução Industrial, que acarretou mudanças profundas na sociedade da época. “Se na fase inicial do capitalismo as máquinas eram movidas fundamentalmente por energia humana, com a introdução de novas fontes de energia modificam-se radicalmente as formas de produção. O homem continuou assumindo papel indiscutível na produção da riqueza capitalista, mas foi transformado pela classe dominante num apêndice da máquina duran-

on de Alexandria, que apresentou em sua obra intitulada “Pneumática”, de I AC, o potencial uso do vapor em turbinas (KATINSKY, 1997, p. 19). Durante os séculos seguintes, outros cientistas pesquisaram sobre o mesmo tema, sem obter grandes avanços. Apenas em 1712, após um longo período de experimentação, o cientista Thomas Newcomen criou uma máquina de interesse comercial movida a vapor. Porém, o equipamento de bombeamento de água inventado por Newcomen não era muito eficiente, o que impediu sua difusão. As máquinas

18

te o período de implantação da revolução industrial.” (PRIEB, 1994, p.1). Depois das máquinas de Watt, diversas outras foram inventadas por cientistas, o que garantiu cada vez mais o avanço tecnológico. Exemplos dessas invenções foram o barco e a locomotiva a vapor, responsáveis por facilitar o escoamento da produção industrial e o abastecimento de matérias-primas. Posteriormente, no século XIX, a Revolução Industrial atinge sua segunda fase e são introduzidas novas fontes de energia, como o petróleo e a eletricidade, substituindo o vapor e permitindo a invenção do automóvel e do avião. A partir disso, os sistemas de produção tornam-se mais eficientes, resultando em maior produtividade com redução de custos (como o Fordismo, por exemplo, que consistia no modelo de produção automobilística em massa instituído por Henry Ford, cujo objetivo era aumentar a produção e diminuir o preço dos produtos). Ocorre também um grande avanço


na área de telecomunicações e a modernidade é difundida para outros países europeus e para o resto do mundo (Estados Unidos, Alemanha, Bélgica, Japão e outros). Entretanto, todo esse progresso tecnológico trouxe sérias consequências para a sua época. A disputa entre as potências por hegemonia, matéria-prima e mercado consumidor foi um dos principais fatores responsáveis pela Primeira Guerra Mundial (1914-1918). Além disso, há um acelerado crescimento populacional decorrente do êxodo rural, consequência das modernizações no campo. Dessa forma, surgem as “cidades industriais”, centros de problemas de urbanização como a falta de saneamento básico. O proletariado, que vivia nessas condições de miséria, encontrava-se cada vez mais distante dos capitalistas, que eram os donos das fábricas. Enquanto estes gozavam dos benefícios trazidos pela modernidade e pelo acúmulo de capital, os primeiros enfrentavam longas jornadas de trabalho por salários insuficientes além das já mencionadas péssimas condições de vida. É nesse contexto que surgem greves e revoltas buscando mudanças na sociedade e

culminando com o surgimento de doutrinas sociais como o socialismo utópico, o anarquismo, o sindicalismo e outros. Em meio a essa realidade de desenvolvimento científico e agitação social é que a Revolução Industrial atinge sua terceira fase, logo após a Segunda Guerra Mundial (1939 – 1945). Essa etapa é marcada pelo emprego de uma tec-

instalação ocorreu em centros universitários, acarretando a formação de uma mão de obra altamente especializada. Por esse motivo, a terceira fase da Revolução Industrial também é conhecida como Revolução Tecnocientífica. “Entre essas tecnologias podemos citar, por exemplo, a informática (fabricação de computadores, softwares, microchips e de-

nologia de ponta. A atividade industrial foi impulsionada pelos progressos científicos e tecnológicos, que passaram a ser incorporados na modernização dos processos produtivos. Houve um maior investimento em pesquisas para o desenvolvimento, que resultou na criação de laboratórios e institutos avançados, cuja

mais componentes eletrônicos), as telecomunicações (construção e lançamento de satélites artificiais, sistemas de transmissão de rádio e televisão, redes de telefonia fixa e móvel, Internet), a robótica (produção de robôs industriais) e a biotecnologia (fabricação de medicamentos e outras substâncias a partir de animais e

19

plantas geneticamente modificados).” (GARCIA; BELLUCCI, 2010, p.178). O crescimento econômico nos países ricos e desenvolvidos proporcionou melhores condições de vida às pessoas: a renda per capita de suas populações é maior; a distribuição da riqueza é mais equilibrada, sem grande desigualdade social; as pessoas possuem acesso a bens e serviços que suprem suas necessidades e há um maior investimento nas áreas da saúde, educação, seguridade e previdência social. Os países desenvolvidos, porém, ainda enfrentam problemas sociais, como o desemprego, a criminalidade, a fome e a violência. Essa situação está relacionada a dois fatores responsáveis pelo aumento da pobreza. O primeiro é a diminuição da concessão de benefícios previdenciários por parte do Estado, com o objetivo de impedir o crescimento do déficit orçamentário. O segundo é a combinação do aumento da concentração de renda e das desigualdades sociais com o aumento do desemprego, consequência da automatização e robotização


UMA NOVA VISÃO DA CIÊNCIA Prof. Orientador: Henrique Sterckele. Alunos: Esther Éles, Felipe Monteforte, Júlia Liberato, Julia Souza, Laiane Matias, Marina Utsunomiya, Milena Venancio.

1EMMB

“Pense em três grandes cientistas, atuais ou não. Quantos são mulheres?”

S

ua resposta para a pergunta acima provavelmente foi próxima ou igual a zero, mas não se sinta mal: respostas como essa podem ser uma consequência dos costumes de nossa sociedade, que desde sempre favorece o homem, neste caso, no campo científico. Entretanto, quantas professoras de ciências você tem ou teve? Certamente muitas, especialmente nos primeiros anos de educação. O que explica a menor presença de mulheres em posições de prestígio e de destaque como cientistas pesquisadoras, se muitas delas têm a formação necessária para isso? Ao examinarmos os dados sobre a proporção de homens e mulheres em cursos superiores na área de C&T (Ciências e Tecnologia), é comum notarmos a maioria masculina em cursos de maior reconhecimento, remuneração e status social. Se for-

mos além, percebemos o mesmo cenário de desequilíbrio em bolsas de estudo no país e no exterior para projetos de pesquisa do CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico), com destaque às áreas de exatas e de engenharia. Analisando a distribuição de pesquisadores bolsistas por sexo, nós nos deparamos com uma maioria feminina no desempenho de funções de não-liderança [51,6%] entre os pesquisadores líderes. Desde o século passado, a mulher recebeu pouco incentivo na área da ciência. Por volta dos anos 90, menos de 1% dos físicos profissionais eram mulheres, fato irônico se formos pensar que uma das primeiras pessoas a se aventurar na área de exatas foi Hipátia de Alexandria, uma mulher. Pode-se dizer que isso acontece graças a fatores históricos, já que a mulher sempre esteve relacionada ao

trabalho doméstico. Há quem diga que esse baixo índice é devido a fatores genéticos ou culturais; muitas vezes a mulher é citada como o “sexo inferior”, que deve receber menos benefícios, incentivos ou remuneração. Por conta disso, muitas mulheres se excluem ou desistem da área por medo do julgamento que podem vir a sofrer. Obviamente, a mulher e o homem têm suas diferenças no modo de agir e de pensar. Quase sempre o homem é mais focado,

20

e a mulher, mais observadora, mas não há provas de que isso influencie no desenvolvimento intelectual ou na capacidade de aprender, ensinar e criar. Outra grande barreira foi a subordinação da mulher ao homem no decorrer na História. Ele sempre teve seu nome favorecido em grandes descobertas, quando, na verdade, muitos desses feitos ocorreram somente


graças à ajuda delas. Um bom exemplo disso foi Mileva Maric, esposa de Einstein, que muitas vezes deu o pontapé inicial em seus cáculos e o conduziu durante algumas de suas descobertas. A partir dessas constatações, percebe-se que a presença feminina em universidades e a participação nas bolsas de estudo para pesquisas pode ser maior que a dos homens, mas quase nunca nas ciências exatas, na engenharia e em outras áreas “tipicamente masculinas”, e quando há uma representação feminina forte, esta quase nunca alcança os cargos mais prestigiados ou mais altos da hierarquia. Para entender essas situações, precisamos primeiro ter em mente que aspectos biológicos não podem ser considerados fatores determinantes dos interesses e capacidades das pessoas de cada sexo.

Essa aparente “predisposição” de um sexo ou de outro para uma área de conhecimento específica é muito mais influenciada pela sociedade, seus conceitos e costumes do que pelas diferenças biológicas. A sociedade constrói e impõe diversas limitações, entre elas, o mito de que meninos sempre serão melhores no pensamento lógico e racional enquanto meninas se darão bem em atividades de contexto social e humano. Apesar das exceções a essa “regra”, o incentivo para mulheres na área científica desde a infância é muito pequeno. O estímulo e os exemplos que não tiveram quando menores não aparecem magicamente conforme crescem: poucas adolescentes e jovens adultas consideram a atuação científica em pesquisas como uma carreira de possível sucesso. Podemos culpá-las, justificar a escolha como falta de aptidão ou de determiMarie Curie, nação, mas antes cientista p0loé necessário notar lonesa que pouquíssimas mulheres atingem posições no topo da hierarquia e, quando atingem, geralmente recebem remuneração menor do que homens que ocupam o mesmo cargo. Mesmo as que desenvolvem carreiras ex-

Elsa Einstein

emplares têm pouco reconhecimento. Seus méritos nos estudos são redirecionados a representantes masculinos por terem mais credibilidade, seus esforços nem sempre são levados a sério. Os atrativos são menores que a pressão e a dificuldade em fazer a diferença num meio que não as respeita; mas ainda existem mulheres se empenhando. Com o passar dos anos, observamos um crescente aumento no número de mulheres na ciência; porém, mesmo assim, a diferença no número de homens e mulheres na área é gritante. Uma série de fatores acaba nos levando a acreditar que a culpada por essa desigualdade é a falta de reconhecimento que essas mulheres sofrem em seu ambiente de trabalho, a diferença de salários e a própria falta de divulgação, mesmo que atualmente elas estejam quase tão presentes no campo científico quanto os homens. A questão final é: por que incluir mais mul-

21

heres no ramo? A resposta mais óbvia é: para aumentar a gama de profissionais capacitados com disposição para os estudos, mas essa não é a única razão. Os contrastes entre homens e mulheres podem significar pontos de vista ainda mais distintos que entre indivíduos do mesmo sexo, e novas formas de visualizar problemas e procurar soluções são promessas de inovações. A inclusão de pessoas com diferentes necessidades contribui para o desenvolvimento de descobertas e recursos para uma parte mais abrangente da população (por exemplo, na área farmacêutica). Se motivos práticos não são convincentes o bastante, podemos apelar para a ampliação da igualdade social. Na atualidade, movimentos pela igualdade são cada vez mais frequentes. Há mudanças ocorrendo em todos os setores; então por que não na ciência? A hostilidade no tratamento e inclusão de mulheres e outros grupos eventualmente oprimidos na zona de pesquisa e desenvolvimento científico é um quadro que não pode mais existir na nossa realidade atual. Resta a cada um de nós mostrar apoio e interesse às mudanças positivas ou não.


Darwinismo Social e a Imigração no Brasil no século XIX Prof. Orientador: Gislene Barreto Alunos: Augusto Robusto, Guilherme Escobozo, Gustavo Vinicius, Leticia Millena, Mayra Gabrielly, Mayara Júlia, Thamiris Donatelli.

2EMVF

Desembarque de Cabral em Porto Seguro, de Oscar Pereira da Silva

Q

uando afirmamos que o Brasil é uma mistura de povos, de culturas ou até mesmo que o brasileiro acolhe todo mundo, independente da origem, isso se deve ao tipo de imigração implantada em nosso país a partir da chegada dos portugueses, em 1530. A imigração foi um fator muito importante para a formação do povo brasileiro, em virtude da influência direta que esses grupos viriam trazer à nossa sociedade, economia

e cultura. Foi, principalmente, nas primeiras décadas do século XIX que os imigrantes de origem europeia viriam para o Brasil em busca de novas oportunidades e de uma vida melhor. Os italianos enfrentavam em seu país as guerras pela unificação. Além disso, a economia estava estagnada e associada a outros problemas, como a alta taxa demográfica e o desemprego. A sociedade brasileira, por sua vez, começava a sofrer a pressão da In-

glaterra, grande potência da época, para pôr fim ao tráfico de escravos. Era uma forma de ampliar seu mercado consumidor em função da Revolução Industrial. Por outro lado, com a Lei Eusébio de Queiroz, de 1850, os fazendeiros de café do Oeste paulista passaram a defender o uso da mão de obra europeia em suas propriedades, em substituição aos negros. A defesa da imigração europeia nessas fazendas fez parte de uma corrente muito mais ampla, pregada pelo

22

próprio Estado brasileiro e pelos proprietários de terras: o branqueamento da nossa população. Esse grupo apoiava-se em duas correntes de pensamento do século XIX: o Darwinismo Social e a Eugenia. O Darwinismo Social foi uma ideologia utilizada pelos colonizadores brancos para justificar a superioridade cultural da raça branca em relação aos povos da África e da Ásia. Na verdade, a publicação do livro “A Origem das Espécies”, de Charles


Darwin, contribuiu para que o conceito de raça ultrapassasse as questões biológicas e servisse para justificar o domínio dos brancos sobre os demais povos. O mestiço, tido a partir do cruzamento de diversas espécies, era visto como sinônimo de desgraça e de atraso, que o país deveria superar. Contribuiria também para essa visão a Eugenia, corrente criada em 1883 por Francis Galton, que, entusiasmado pelo trabalho de Darwin, seu primo, e de Gregor Mendel, recomendaria a melhoria genética. O caminho para esse aperfeiçoamento viria por meio da união entre casais saudáveis. A difusão dessas correntes na Europa receberia um grande apoio de intelectuais do nosso país e disputaria espaço com a própria Igreja Católica, até então, res-

ponsável pelo discurso da inferioridade do negro e do índio. Por outro lado, essas teorias serviriam, ainda na Europa, para disseminar a ideia de que o nosso país era um exemplo de raça degenerada obtida através da miscigenação, mostrando-se um problema a ser superado. As populações africanas seriam responsabilizadas pelos males do país e seria atribuído ao negro um trabalho caro e de má qualidade. Outros teóricos reforçariam a visão de que a solução para o Brasil estaria na imigração europeia, argumentando que, se ela tivesse se iniciado desde o princípio estaríamos num processo de desenvolvimento muito próximo ao dos europeus. Mesmo os intelectuais que aceitavam o processo de miscigenação

Francis Galton

tinham uma visão mais pessimista e argumentavam que a mistura das raças produziria uma população mais branca, em virtude de o gene branco ser mais forte. Na verdade, apoiado nessas correntes,

Porto de Santos, 1870

23

o Estado e as grandes oligarquias pretendiam criar um país de brancos, relegando os negros e índios a um segundo plano, e culpando-os pelo atraso no desenvolvimento da nação.


Por trás das estatísticas Prof. Orientador: José Fabiany Pinheiro. Alunos: Andressa Murakami, Caroline Rodrigues,Isabela Petrini, João Victor Canuto, Leonardo Barontini, Matheus Silva.

O

Instituto Brasileiro de Geografia e Estatística (IBGE) é o principal provedor de dados e informações do país. É gerenciado pelo Governo e atende às necessidades dos órgãos das esferas governamentais federal, estadual e municipal, bem como dos mais diversos segmentos da sociedade civil, visando expor dados da economia (consumo, produção de riquezas), saúde (acesso e utilização dos serviços da saúde), geociências (estudo do espaço e sua distribuição, biomas e vegetação) e sociedade (educação, cultura e miscigenação). Todos os trabalhos realizados pelo IBGE são realizados pensando em retratar o Brasil com informações necessárias ao conhecimento de sua realidade e ao exercício da cidadania. As informações produzidas pelo Instituto são destinadas a estudantes, professores, pesquisadores, administradores, imprensa e a toda e qualquer pessoa que tenha interesse em conhecer

2EMVE

a realidade brasileira. Além de produzir todas essas informações estatísticas e geográficas, o IBGE também é responsável por realizar discussões para avaliar

ferências Nacionais de Geografia e Cartografia – CONFEGE. Estes eventos servem para que o instituto possa dialogar com a sociedade e produzir as in-

nação, composta por 27 Unidades Estaduais, 27 Setores de Documentação e Disseminação de Informações e 533 Agências de Coleta de Dados nos principais

os processos de produção, disseminação e utilização dessas mesmas informações. O IBGE está encarregado, por lei, de realizar as Conferências Nacionais de Estatística – CONFEST – e as Con-

formações estatísticas e geográficas mais importantes para o país. Além disso, para que suas atividades possam cobrir todo o território nacional, o IBGE possui uma rede nacional de pesquisa e dissemi-

municípios brasileiros. Muitas pessoas trabalham coletando, analisando e armazenando informações sobre a população e as atividades econômicas do país. O instituto é dividido em duas grandes

24


áreas de pesquisa: a de informações sociais, demográficas e econômicas (para obter estas informações, são realizadas pesquisas como o censo demográfico, o censo agropecuário e os índices de preços) e a de informações geográficas (onde são feitos os mapas, os estudos de recursos naturais e de meio ambiente). O PNUD (Programa das Nações Unidas para o Desenvolvimento) surgiu em 1971 e refere-se a uma rede de desenvolvimento global das Nações Unidas que visa o desenvolvimento em várias áreas através de diferentes projetos, oferecendo apoio técnico aos seus parceiros através de diversas metodologias, fornecendo conhecimentos especializados e fazendo consultoria numa ampla rede de cooperação técnica internacional.

Este censo tem como objetivo contribuir para o desenvolvimento humano, lutando contra a pobreza e priorizando as áreas mais importante do país a serem desenvolvidas. Um de seus principais focos no Brasil é conseguir dinamizar serviços, alinhando-os com as necessidades do país. A PNAD (Pesquisa Nacional por Amostra de Domicílios), outra pesquisa dirigida pelo IBGE, coleta informações sobre características demográficas e socioeconômicas da população, como sexo, idade, educação, trabalho e rendimento, e características dos domicílios, além de informações sobre migração, fecundidade, nupcialidade, entre outras, tendo como unidade de coleta os domicílios. Temas específicos abrangendo aspectos demográfi-

cos, sociais e econômicos também são investigados. A importância do IBGE procede da essencialidade do bem público que produz a informação, pois sem uma base informacional capaz de atender às necessidades de todos os setores da sociedade - como governos, empresas e cidadãos - o país estará embasando suas decisões em informações fragmentadas

25

e imprecisas. Além disso, é através dos dados coletados pelo IBGE que o governo tem acesso às informações essenciais para o país, como por exemplo, quem está estudando, onde são necessárias mais escolas, onde o número de lojas e fábricas é maior, onde há mais empregos, o que é produzido em uma determinada região e uma série de outras informações.


Teóricos de esquerda na luta Capital x Trabalho e a experiência do bolivarianismo Chavista Prof. Orientador: José Fabiany Pinheiro. Alunos: Arthur Santana, Bianca Alves, Erica Érila, Gabriel João, Rafaela Farah, Rodrigo de Oliveira, Vinicius Cruz.

O

capitalismo se originou da passagem da Idade Média para a Idade Moderna e, com ele, surgiu a burguesia, que se utilizava do comércio ou de atividades relacionadas a ele para obter lucro. A partir desse momento, o capitalismo começou a se consolidar e se fortalecer em todo o mundo. Entre os séculos XVIII e XIX, a Inglaterra sofreu uma grande transformação: a Revolução Industrial, na qual ocorreu a mecanização dos meios de produção visando o lucro, a rapidez e uma maior demanda. Com essas mudanças a classe trabalhadora sofreu consequências, como: a substituição de trabalhadores por

Ferro e Carvão, de William Bell Scott

máquinas (causando desemprego e acabando com grande parte da produção artesanal); a alienação do trabalhador; as péssimas condições de trabalho; salários baixíssimos, além do drástico contraste entre classes. Devido aos grandes problemas sociais da época, inúmeros pensadores focaram na busca pelas respostas às graves questões que estavam presentes na sociedade capitalista, visando a uma transformação política, econômica e social. Até que no ano de 1848 o alemão Karl Marx (1818-1883), um revolucionário que contribuiu para o desenvolvimento de diversas áreas, entre elas, a social e política, elaborando conceitos sociais como: a alienação, mostrando que a industrialização, a propriedade privada e o assalariamento separavam o trabalhador dos meios de produção, descobriu a relação de exploração que havia entre a burguesia e a classe trabalhadora, a luta de classes e também desenvolveu o conceito da mais-

2EMVF

Karl Marx

valia, em que o capital compra a força de trabalho e paga em troca o salário. Trabalhando, o operário produz um novo valor, que não lhe pertence, e sim, ao capitalista. Portanto, é aceitar ou morrer de fome. Suas teorias podem ser adotadas em nosso mundo contemporâneo sem nenhuma dificuldade, já que o capitalismo ainda nos domina com mãos de ferro, es-

26

tendendo assim a luta entre o Capital e o Trabalho. Nos séculos XVII e XVIII, a burguesia teve grande importância no declínio do sistema absolutista apoiando diversas revoluções, que ficariam conhecidas como revoluções burguesas, como, por exemplo, a Revolução Inglesa e a Revolução Francesa, deixando assim o caminho livre para a expansão do capitalis-


mo e para a propagação da “filosofia burguesa”, da qual se originaram os conceitos de livre comércio, liberdade pessoal, direitos religiosos e civis. Conforme o comércio e a economia se expandiam, cresciam também o poder e o domínio desta classe, fato que foi consolidado com a Revolução Industrial no século XVIII. A partir deste ponto, o capitalismo industrial se afirma como sistema econômico mundial, e a divisão da sociedade entre burguesia e proletariado se torna ainda mais evidente. Para os seguidores do marxismo, a evolução da sociedade nada mais é do que a eterna luta de classes alimentada por interesses opostos e irreconciliáveis. Durante toda a história da humanidade, existiu e continuará existindo a

classe dominante e a classe dominada; a burguesia apenas veio substituir uma classe decadente, a dos senhores feudais, assim como o

capitalismo veio substituir um sistema também decadente e que já não mais conseguia suprir as necessidades produtivas de sua épo-

ca, o feudalismo. Com o desenvolvimento industrial surgiram várias correntes ideológicas que pretendiam justificar e apoiar o capitalismo (doutrinas liberais), ou condená-lo e destruí-lo (doutrinas socialistas). Karl Marx e Friedrich Engels desenvolveram as ideias básicas do que ficou conhecido como socialismo científico, cujo conjunto recebeu o nome de Marxismo. Marx e Engels eram socialistas e também estavam interessados em superar os obstáculos que a sociedade capitalista colocava ao livre desenvolvimento das potencialidades humanas. Eles se voltaram para o estudo do regime econômico da sociedade moderna. A obra principal de Marx, “O Capital”, foi dedicada a

A Queda da Bastilha, símbolo mais radical e abrangente das revoluções burguesas

27


esse estudo, aprofundando as investigações feitas pela economia clássica inglesa e a teoria do “valor-trabalho”. Marx, na segunda metade do século XIX, combateu não só os pressupostos da economia clássica, mas também os teóricos de esquerda que não conseguiam entender a lógica de funcionamento do capitalismo na sua fase industrial, ou seja, o capitalismo como um novo modo de produção. Leon Trotsky (teórico do Marxismo), que nasceu em uma família de origem judaica,

teve uma vida muito traumática, pois com 18 anos foi preso por seu envolvimento com grupos revolucionários. Passou dois anos em diversas cadeias russas czaristas. Em seguida, foi deportado para a Sibéria. Dois anos depois, fugiu e viajou para Londres, onde entrou em contato com Lênin e outros exilados russos. Foi político, intelectual marxista, escritor e revolucionário bolchevique. Trotsky foi um dos principais líderes e organizadores da Revolução de Outubro de 1917, que derrubou a monarquia (o czaris-

mo) na Rússia. Foi ele o criador do Exército Vermelho, cujo objetivo era atuar na Guerra Civil Russa. Já Lênin (teórico do

Marxismo), totalmente ao contrário de Trotsky, era filho de Ilia Ulianov, um alto funcionário do governo russo, quase um membro da no-

Karl Marx, Friedrich Engels e Vladimir Lenin

breza. Durante a adolescência, foi um dos maiores estudiosos da história da Rússia, até acontecer a morte de seu irmão envolvido em um grupo terrorista que tentou assassinar o

czar. Esse fato despertou a ira de Trotsky contra o regime autocrático em seu país. Ele se tornou um importante revolucionário, líder da Revolução Russa de 1917, e estadista russo.

Lênin e Trotsky se conheceram em São Petersburgo e, a partir do momento em que seus caminhos se cruzaram, os dois formaram um grupo marxista,

28

assumindo as teses de Marx. Uma revolução comunista era possível também num país como a Rússia, onde o capitalismo mal dava seus primeiros passos.


Já para Hugo Chávez, que não era teórico do Marxismo, e sim, do Bolivarianismo, defendendo a ideia de “nações livres”, o objetivo mais importante era a liberdade plena, já que, sem a liberdade, não seria possível a conquista dos outros objetivos. E, para isso, Bolívar não foi só um idealizador, mas um verdadeiro guerreiro, enfrentando as mais diversas batalhas. Os ideais de liberdade, igualdade e fraternidade haviam se enraizado nos povos latino-americanos. Ele iniciou a “revolução bolivariana”, através da qual promovia mudanças políticas, econômicas e sociais em seu país, após derrotar nas eleições um tradicional partido que ocupava o governo da Venezuela por muito tempo. Formou um governo de esquerda marcado pela perseguição aos adversários políticos, concentração de poderes no Estado e, na política externa, o antagonismo com os Estados Unidos, sobretudo com o governo de George W. Bush. Chávez também se alinhou com países socialistas, como Cuba e China, e governos autoritários no Oriente Médio, como Síria e Irã. No seu primeiro mandato, fez um referendo para convocar uma Assembleia Constituinte. As mudanças na Con-

stituição aumentaram os poderes do presidente e a política de intervenção do Estado. Por conta dessas alterações, foram convocadas novas eleições em 2000, nas quais Chávez foi reeleito. O segundo mandato começou com medidas polêmicas, de estatização da economia e expropriação de ter-

dias. Em 2006, Chávez foi reeleito para um terceiro mandato. Em 2009, ele conseguiu aprovar a emenda constitucional que permite a reeleição ilimitada para alguns cargos públicos, incluindo o de presidente. O limite estabelecido pela constituição venezuelana era de 12 anos, ou dois manda-

gia e o cancelamento da transmissão de canais de TV a cabo. Finalmente, em 7 de outubro de 2012, Chávez venceu as eleições presidenciais para um quarto mandato consecutivo, tornando-se o presidente que permaneceu mais tempo no cargo em toda a América Latina, porém teve que afastar-se do

Hugo Chávez

ras. Em abril de 2002, o presidente viveu o momento mais dramático de sua vida política quando, após uma sucessão de greves, sofreu um golpe de Estado que o afastou do cargo por quase dois

tos consecutivos de seis anos cada. Já em 2010, o presidente viu cair sua popularidade diante de três medidas inusitadas: a desvalorização da moeda local, os planos de racionamento de ener-

29

mandato por causa de uma doença que o impediu de tomar posse no cargo.


dos serviços e das linhas de produção, exigindo menos mão de obra humana. A parcela da população destituída de recursos financeiros essenciais para a compra de um imóvel ou para o pagamento de aluguel reside em favelas (aglomeração de casebres nos grandes centros urbanos, desprovida de saneamento básico, eletricidade, infraestrutura e abastecimento de água potável), onde, muitas vezes, há a proliferação da criminalidade, do tráfico de drogas e da prostituição. Enquanto os países desenvolvidos detêm o domínio de altas tecnologias, do conhecimento e da produção científica, os subdesenvolvidos destinam reduzidos investimentos para as áreas de pesquisa, tendo de importar produtos mais sofisticados e avançados, como equipamentos eletrônicos, veículos, medicamentos, vacinas, insumos agrícolas, entre outros. O problema da de-

pendência tecnológica tende a piorar cada vez mais, já que nesses países a educação sofre graves problemas. Poucas pessoas concluem o ensino básico e possuem a qualificação exigida por um mercado de trabalho cada vez mais competitivo. Assim, aquelas que, por alguma razão (como o abandono da escola para o auxílio na sustentação da família) não são especializadas em alguma área, sofrem com o desemprego e buscam o trabalho informal, exercendo atividades que exigem pouca capacitação. Dessa forma, a situação de miséria e a desigualdade social estão presentes primordialmente nos países mais pobres. É possível perceber que o quadro dos resultados da Revolução Industrial do século XIX continua se repetindo. Apresenta-se, pela segunda vez, o caráter para-

doxal da modernidade: por mais que o homem evolua e sua capacidade criativa aumente, todo esse processo é instável, abrigando conturbadas relações sociais e as lutas de classe. O sistema capitalista é extremamente cruel, ao passo que simultaneamente gera progresso e destruição. “O capitalismo redimensionou a esfera da subjetividade, introduzindo novas formas de pensar, agir e ser, padronizando os desejos e ações humanas. O sistema capitalista incorporou o ser humano como mais uma máquina de sua linha de montagem, transformando os sujeitos em engrenagens do sistema, onde só tem valor o que produz lucro e impulsiona o acúmulo de capital.”

30

Nesta etapa do capitalismo globalizado, ao mesmo tempo que a terceira revolução tecnológica aumentou a produtividade e foi capaz de gerar mais riquezas, também aumentou o número de pobres e a concentração dessas riquezas nas mãos de uma minoria. Segundo Mance (1999, p. 17), “o capital precisa, cada vez menos, de trabalho-vivo para produzir cada vez mais capital.” Apresenta-se, portanto, a escravidão do homem em relação ao maquinário utilizado, além da dominação da natureza como fonte de matéria-prima, que acaba por gerar sua destruição. Todo esse processo vem ocorrendo paralelamente ao


desenvolvimento tecnológico, a partir do efetivo emprego das máquinas a vapor na Revolução Industrial. A desigualdade social sempre existirá, como parte do capitalismo, já que alguns empregos que demandam menos formação são essenciais para o funcionamento da sociedade e da economia; porém, há formas de diminuí-la e torná-la praticamente inexistente, e alguns países desenvolvidos, como a Suíça, são exemplos disso. Para a diminuição da desigualdade social dentro dos países é necessário um maior investimento na área da educação, preparando, de uma forma mais aprimorada, as pessoas para um mercado de trabalho cada vez mais competitivo, em que a qualificação é essencial, já que com a robotização da indústria o setor mais procurado atualmente é o de serviços. É importante, ainda, o desenvolvimento de programas de saúde e de moradia que garantam uma maior qualidade de vida. Na questão da dependência tecnológica por parte dos países subdesenvolvidos, estes deveriam destinar investimentos para pesquisas científicas visando ao desenvolvimento sustentável e adotar programas que tivessem o objetivo

de acabar com a corrupção, para que os recursos financeiros pudessem chegar ao destino certo. Em suma, o progresso traz certas consequências que nem sempre são benéficas. Portanto, para que o saldo desse processo seja mais positivo do que catastrófico, soluções como as apresentadas mostram-se essenciais.

31


Fontes de energia – Da Pré-História aos dias atuais Prof. Orientador: Gislene Barreto. Alunos: Felipe Simioni, Fernando Favalle, Júlia Bueno, Júlia Ferreira, Lucas Periná, Victor Felix, Vitor Silva

S

eria ainda na PréHistória que os seres humanos lutaram pelo domínio do fogo. Esse elemento era associado à magia e ao sobrenatural e somente com ele os homens poderiam libertar-se da natureza e dos outros animais. Na verdade, a descoberta do fogo, obtido a partir da fricção da madeira, permitiria o processo de humanização do próprio homem e a sua socialização. O domínio do fogo representou, nesse período, um símbolo de poder entre as tribos primitivas, e os homens teriam sua vida transformada. Com ele, viriam facilidades, tais como a proteção contra animais, o aquecimento para enfrentar temperaturas rigorosas, a iluminação das cavernas e a possibilidade de cozinhar alimentos, o que fez com que os homens parassem de comer carne crua, pois, ao ser defumada e torrada junto a outros grãos, evitarse-ia a deterioração desses alimentos. Foi também a partir do domínio do fogo que os homens produzi-

ram pigmentos de gordura animal, utilizados nas pinturas rupestres. O próximo passo viria com o desenvolvimento da metalurgia, dos instrumentos de caça e, consequentemente, de uma melhor alimentação. A própria relação entre os homens teria mudado a partir de um convívio junto à fogueira: os grupos permaneceriam mais unidos, a afetividade entre o homem e a mulher melhoraria e ocorreria uma humanização do próprio ato sexual. Ainda na Pré-História, a segunda fonte de energia foi a animal, usada principalmente como tração, tanto para o transporte como para arar o campo no momento da Revolução Agrícola. Essa nova fonte de energia, além de aumentar a produção de alimentos, levaria os grupos humanos ao desenvolvimento de outras atividades econômicas, como o artesanato, a metalurgia e a troca de produtos. Mais tarde, na linha de evolução, os grupos humanos recorreriam à natureza para a construção dos moinhos d’água e de vento. No

século II, os Romanos construíram os primeiros moinhos, porém, praticamente não o utilizavam devido à grande presença de mão de obra escrava em sua civilização. Mas foi principalmente na Idade Média que esses aparelhos passaram a ser difundidos na moagem de grãos, na movimentação de serras e na própria fabricação de papel, a partir do esmagamento da polpa. Surgiria, assim, um novo imposto, entre tantos outros do regime feudal: a banalidade, taxa abusiva paga pelos servos para utilizar esses equipamentos que eram de domínio dos senhores feudais. Na Idade Moderna, mais uma vez, os homens souberam aproveitar a energia dos ventos para a movimentação das grandes caravelas, o que revolucionou o sistema de comunicação, o transporte e o comércio entre os povos, além de demarcar uma nova fase na história humana, a descoberta do Novo Mundo. Mas o grande marco na evolução do uso da energia viria com

32

1EMMB

a Revolução Industrial. A burguesia europeia, procurando ampliar seus interesses, deu respaldo para o aperfeiçoamento de novas técnicas de produção, especialmente para a invenção de máquinas e de novos equipamentos industriais.


A máquina a vapor deu início à utilização dos combustíveis fósseis, inicialmente com o carvão, fonte principal de energia da primeira fase da Revolução Industrial (1760-1860), que permitiu ao homem um maior controle do ambiente ao seu redor. O carvão, usado para esquentar a água, era muito mais eficiente do que as outras fontes de energia conhecidas, além de ser também muito barato. Por isso, tornou-se a fonte energética mais utilizada. Porém, a emissão de poluentes por conta da queima de carvão é muito alta, um

problema que, na época, não foi levado em consideração devido à falta de tecnologia para se obter esse tipo de conhecimento. Na Segunda Revolução Industrial (1860-1900), o uso do petróleo e da eletricidade, no lugar do vapor e do carvão, além de demonstrar o nível tecnológico da época, permitiu ao homem construir novas máquinas e ferramentas, como os motores elétricos e de explosão, sendo que estes últimos funcionariam a partir do uso de derivados de petróleo. Desde então, a demanda de energia

para o desenvolvimento foi cada vez maior, mesmo sendo a queima do petróleo também altamente poluente. O petróleo é, ainda hoje, uma das fontes mais prioritárias de energia, em virtude do seu grande poder energético, do seu valor econômico e da disputa pelo seu domínio nos países do Oriente Médio. Mas os combustíveis fósseis não são renováveis, ou seja, uma vez esgotadas suas reservas, demorará milhares, senão milhões de anos para serem restituídas, e isso nos deix-

ou com dois problemas: o inevitável e próximo fim dos combustíveis fósseis e a enorme poluição causada por eles. É nesse cenário que entram em cena as fontes alternativas de energia, uma tentativa de substituição do carvão e do petróleo. Para isso, devem ser levadas em consideração três características: que as novas fontes energéticas sejam renováveis, baratas e abundantes. As principais fontes de energia alternativa atuais são: - A hidroeletricidade, que gera energia a partir de quedas d’água. Não

é poluente, mas causa grandes impactos ambientais, além dos altos custos para a construção das usinas. - A energia eólica, que gera energia através da ação dos ventos. Não interfere no efeito estufa e não ocupa muito espaço, mas interfere nas transmissões de sinais de rádio e de televisão. Causa também poluição sonora e atrapalha nas migrações de aves que passam pelos parques desta modalidade energética. - A energia solar, que transforma os raios solares em energia elétrica, excitando os elétrons de uma placa recoberta com silício. Não é poluente, mas requer muito in-

vestimento para o seu aproveitamento; - A biomassa, que usa os gases da queima de matéria orgânica em caldeira para acionar uma turbina e mover um gerador elétrico. É uma energia limpa, pois o gás carbônico liberado durante a queima é absorvido posteriormente no ciclo de produção. Porém, também requer altos investimentos. - A maremotriz (energia dos mares), que é a energia gerada a partir da movimentação das marés. Não é poluente, mas depende de uma posição geográfica favorável; causa impactos ambientais na vida marinha e seu custo-benefício é baixo. - A geotérmica, que usa o calor das camadas mais profundas da Terra para acionar turbinas elétri-

cas. Não é poluente, mas também depende de uma posição geográfica favorável para se obter um custo-benefício vantajoso.

ervas desse produto da natureza, porém a construção de gasodutos e de navios especiais, para a coleta do gás, gera altos custos. Atualmente, 60,3% de toda a energia consumida no mundo provêm do petróleo (35%)? e do carvão mineral (25,3%)?, que são fontes de energia não renováveis e altamente poluentes. Por esse motivo, vários estudos são realizados com o objetivo de desenvolver uma energia barata e eficiente a partir de fontes renováveis e limpas, para substituir o uso dos combustíveis fósseis.

Existem outras duas fontes de energia alternativa, porém não renováveis, que são: - A nuclear, que gera energia térmica por meio da fissão de átomos de materiais radiativos. Não emite poluentes e pode ser instalada próximo a grandes centros urbanos. O problema são os resíduos nucleares, pois não há tecnologia para tratá-los, além do risco de contaminação e dos altos custos de construção das usinas. - O gás natural, que ocorre na natureza. Não emite poluentes que interfiram no efeito estufa, e existem muitas res-

33


Captação de energia Geotérmica na atualidade Prof. Orientador: Igor de Oliveira. Alunos: Amanda Anselmo, Amanda Alves, Ariel Ferreira, Guilherme Almeida, João Vitor Oliveira, Larissa Luz,Vinicius Silva.

A

1EMVD

energia geotérmica é uma das mais antigas fontes de eletricidade e calor encontradas na Terra; ela existe desde que o planeta foi criado. Este tipo de energia é

obtido a partir do calor proveniente do interior da Terra que, devido a fenômenos vulcânicos recentes e à radioatividade das rochas, pode ser transformado em energia. A geotérmica é uma

fonte confiável e totalmente renovável, pois a precipitação e o retorno da água resfriada substituem a água quente e o vapor removido do solo. Ela está sempre disponível, ao contrário da energia so-

lar ou eólica, e ainda é considerada uma fonte limpa, pois, enquanto os combustíveis fósseis emitem gases do efeito estufa a partir de sua queima, a energia geotérmica gera baixos índices de poluição no

meio ambiente. O seu uso vem aumentando a cada dia, pois ela oferece, como principais vantagens, causar um impacto ambiental moderado em comparação com os combustíveis fósseis. O aquecimento geotérmico é adotado por alguns países na

atualidade, entre eles: França, Alemanha, Islândia, Estados Unidos e China. Para se obter energia geotérmica, é utilizada água subterrânea ou de fontes termais, de modo que seu calor seja aproveitado para os mais diversos fins. Foi em 1890 que se

começou a perfurar poços geotérmicos nos Estados Unidos, na cidade de Boise, Idaho, para seus edifícios, que só passaram a desfrutar do aquecimento dessa fonte de energia em 1892. Mas as perfurações para se obter recursos hidrotérmicos podem, às vezes, deflagrar ter-

remotos, em particular, quando a introspecção perfura o leito rochoso quente ao redor de falhas e nele injeta a própria água. As fontes com temperatura inferior a 100ºC, ou aquecidas, mas com baixa temperatura, estão mais próximas da superfície terrestre, o que diminui

34


o contato com falhas profundas, geralmente responsáveis por terremotos. É necessário ter um trocador de calor para utilizar, junto com a água, de modo a aquecer líquidos que não têm altos pontos de ebulição. Com sua evaporação, tais substâncias liberam energia suficiente para mover turbinas. Porém, ainda liberam menos energia que a água liberaria

nesse processo, o que reduz seu rendimento. As usinas geotérmicas tradicionais utilizam fontes que ficam a quilômetros da superfície terrestre, em altas temperaturas, entre 150ºC e 370ºC. Fontes desse tipo se formam devido ao magma proveniente do meio interno, que chega à crosta (vindo de 50 quilômetros abaixo da superfície) e que aquece águas

e rochas. Geralmente, as usinas utilizam um processo em que a água é extraída do reservatório, se expande e se torna vapor, resultando em energia suficiente para girar as turbinas que produzem eletricidade. A geração de energia geotérmica vem triplicando desde a última década, principalmente em países como França, Rússia e Quênia. Outros países, como Filipinas, Islândia, El Salvador e Tibete produzem boa parte de sua eletricidade por meio de fontes geotérmicas, chegando à marca de 25% a 30%. O desenvolvimento da energia geotérmica tem sido afetado por problemas relacionados à segurança, ao cus-

to e também por problemas naturais como o afundamento do solo, conforme a água e o vapor são retirados. Piscicultura, agricultura, aquecimento de casas e processos industriais são algumas das atividades em que a água aquecida pela energia geotérmica é utilizada. Em alguns países, ela impede que as estradas gelem no inverno por meio de tubos que ficam embaixo do pavimento. A cidade de Reiquejavique, capital da Islândia, é considerada uma das cidades menos poluídas do mundo, pois, cerca de 95% das casas são aquecidas por este processo.

Usina geotérmica

35


Satélites brasileiros e a devastação da Amazônia Prof. Orientador: Igor de Oliveira. Alunos: Davi Henrique Cerqueira, Guilherme Oliveira, Guilherme Jesus, Guilherme Dias, Lorenzo Bariani, Marina Ventura, Tayná Silva

U

m satélite artificial é qualquer equipamento feito pelo homem e colocado em órbita ao redor da Terra ou de qualquer outro corpo celeste. Até hoje, já foram efetuados milhares de lançamentos desses objetos ao espaço, mas a maioria já está desativada. Quando ocorrem falhas no lançamento ou no próprio satélite, ele, integralmente, ou partes dele podem ficar orbitando o planeta por tempo indefinido, formando o lixo espacial. Na década de 80, países emergentes como Brasil e China, estavam dependentes das imagens fornecidas por satélites de outras nações. Nessa época, uma das prioridades do governo chinês era o desenvolvimento da área espacial. Já, no Brasil, o programa de satélites da Missão Espacial Completa Brasileira avançava, com o projeto do SCD-1. Enquanto nosso país já possuía familiaridade com a alta tecnologia e um parque industrial mais moderno, a Chi-

na adquiria experiência tanto na fabricação de satélites quanto na construção de foguetes lançadores. Todo esse conjunto de fatores levaram à assinatura, em 6 de julho de 1988, de um acordo de parceria envolvendo o INPE (Instituto Nacio-

nal de Pesquisas Espaciais), vinculado ao MCTI (Ministério da Ciência, Tecnologia e Inovação), pelo lado brasileiro, e a CAST (China Academy of Space Technology), vinculada à CASC (China Aerospace Science and Technology Corporation), do lado chinês, para o desenvolvimento de um programa de construção de dois satélites avançados de sensoriamento remoto, denominado Programa CBERS (sigla

36

para China-Brazil Earth Resources Satellite; em português, Satélite Sino-Brasileiro de Recursos Terrestres), envolvendo investimentos superiores a US$ 300 milhões, com responsabilidades divididas (30% brasileiro e 70% chinês), e o objetivo

1EMMC

toramento ambiental, entre outras aplicações. Suas imagens são utilizadas no Brasil por empresas privadas e instituições como Ibama, Incra, Petrobras, Aneel, Embrapa e secretarias da Fazenda e do Meio Ambiente. Também são usadas tanto para o controle do desmatamento e de queimadas na Amazônia Legal quanto para o monitoramento de recursos hídricos, de áreas agrícolas, do crescimento urbano e da ocupação do solo. Além de ser fundamental para grandes projetos nacionais estratégicos, como o SIVAM (Sistema de Vigilância da Amazônia) de implementar um e a ocupação de espaço sistema completo de definitivo em diversos sensoriamento remoto programas ambientais. de nível internacional, como os dos países Devastação da mais avançados, entre Amazônia eles, Estados Unidos, Rússia, França, Japão e De acordo com o Imazon (Instituto do Reino Unido. Os satélites CBERS se Homem e Meio Amdestinam ao monitora- biente da Amazônia), mento do clima, proje- as principais fontes tos de sistematização de desmatamento na e uso da terra, geren- Amazônia são assentaciamento de recursos mentos humanos, quehídricos, arrecadação imadas, agropecuária desenvolvimento fiscal, imagens para li- e cenciamento e moni- da terra. Entre 1991 e 2000, a área total de


floresta amazônica desmatada para a pecuária e estradas aumentou de 415.000 para 587.000 km², uma área mais de seis vezes maior do que Portugal, 64% maior do que a Alemanha, 55% maior do que o Japão, 21% maior ou igual a Sichuan (província da República Popular da China) e 84% da área do Texas. A maior parte dessa floresta perdi-

da foi substituída por pastagem para o gado. Se o desmatamento da Amazônia continuar, afetará o clima e os biomas da região, pois além de conter 20% do bioma cerrado, a região abriga todo o bioma Amazônia, o mais extenso dos biomas brasileiros, que corresponde a 1/3 das florestas tropicais úmidas do planeta,

37

detém a mais elevada biodiversidade, o maior banco genético e 1/5 da disponibilidade mundial de água potável. O SNUC (Sistema Nacional de Unidades de Conservação da Natureza), conjunto de unidades de conservação (UC) federais, estaduais, municipais e da iniciativa privada, contém várias UCs nos estados que constituem a Amazônia. Entre as áreas de proteção integral existem dez Parques Nacionais (além do Jaú) e oito reservas biológicas, entre outros. Além do SNUC, existem outros órgãos que ajudam na preservação da Amazônia, como a Fundação Brasileira para a Conservação da Natureza

(ONG), o SIVAM, o SIPAM, entre outros. Entre as unidades de uso sustentável, estão as reservas extrativistas. Os programas de uso sustentável são, em grande número, desenvolvidos por ONGs em parceria com o poder público e com as próprias populações tradicionais, acostumadas ao uso sustentado dos recursos naturais. Uma dessas iniciativas é a Escola da Floresta, no estado do Acre, destinada a formar técnicos em floresta e agrofloresta.


A ciência e seu desenvolvimento nas guerras Prof. Orientador: Henrique Sterckele. Alunos: Alicia Wauke, Daniel Clemente, Gabriele Damasceno, Hellen Figueiredo, João Gabriel Ribeiro, Letícia Scoton Goes, Rafael Souza.

É

fato que as guerras ocasionam uma série de danos, como destruição e morte, mas, em contraponto, o período de guerra caracteriza-se por ser um momento no qual as pesquisas científicas são mais apoiadas e patrocinadas, dada a necessidade de vencer os combates e estar à frente do inimigo, seja em tática ou em armamentos tecnológicos. Áreas da ciência como Química, Física e Biologia são afetadas diretamente pelos estudos, que evoluem e revolucionam não somente o campo intelectual e teórico, mas também, a humanidade,

naquilo que tange ao tecnocientífico, observando-se que foram seu dia a dia. os que tiveram maior A história da humani- número de pessoas e dade é marcada por grupos envolvidos. São inúmeros conflitos, os eles a Primeira e a Sequais contribuíram, de gunda Guerra Mundial, alguma forma, para e a Guerra Fria. aprimorar a capacidade A Primeira Guerra Munhumana. Desde que ex- dial, que se estendeu istem civilizações, ex- de 1914 até 1918, conistem conflitos, sejam sistiu no conflito entre a eles de caráter político, Tríplice Entente (França, territorial, religioso, en- Inglaterra e Rússia) e a Tríplice Aliança (Aletre outros. Uma das primeiras guer- manha, Áustria-Hungria ras das quais se tem e Itália) por razões de conhecimento ocorreu política imperialista. O em 2525 AC entre duas estopim para o início civilizações sumérias do conflito foi o assaspor disputa territori- sinato do herdeiro do al. No entanto, desta- Império Austro-Húngacam-se os grandes con- ro, que pôs as potênflitos mundiais como os cias frente a frente em principais responsáveis quatro anos de guerra. pelo desenvolvimento A Tríplice Entente (que

38

2EMVD

contou com a ajuda dos E.U.A. ao final da guerra) se saiu vitoriosa e, como resultado da guerra, foi assinado o Tratado de Versalhes, que culpava a Alemanha pela guerra e impunha uma série de imposições políticas e militares àquele país. Humilhada, a Alemanha nutre um sentimento de ódio pelos países da Tríplice Entente, que culmina no início da Segunda Guerra Mundial. A Primeira Guerra Mundial foi o primeiro grande conflito que se desenvolveu na Europa e envolveu as principais potencias econômicas do período. Com as condições criadas no


contexto de guerra, as potências europeias tiveram que investir cada vez mais na área de pesquisa e desenvolvimento tecnológico, principalmente bélico, para poder garantir sua estabilidade e equivalência perante as nações inimigas. Foi nesse período que se iniciaram importantes pesquisas que evoluíram e foram utilizadas na Segunda Guerra Mundial favorecendo, assim, quem as possuía, no caso, os aliados. Um bom exemplo foi a pesquisa premiada do botânico, biólogo e farmacologista Alexander Fleming (1881 1955), que se iniciou na Primeira Guerra, mas foi patrocinada e desenvolvida propriamente na Segunda. Fleming foi o responsável pela descoberta da penicilina, uma substância bactericida que foi de extrema importância para o tratamento de soldados com ferimentos e infecções no campo de batalha da Segunda Guerra, contrapondo-se com a realidade da Primeira, na qual vários

soldados morreram de infecções e doenças semelhantes. Ressalta-se que esse medicamento ainda é utilizado nos dias atuais, e foi o primeiro antibiótico a ser utilizado com sucesso. Como consequência dos combates, os países europeus tiveram uma quebra em suas importações e exportações. Houve assim um grande investimento por parte deles na indústria nacional, procurando manter seu abastecimento interno conforme as necessidades da população. Durante a Primeira Guerra, a Alemanha investiu na produção de nitratos de fertilizantes, já que seus abastecimentos vindos do Chile eram impossibilitados de chegar à Europa. Durante a guerra, é indispensável destacar a ação do Reino Unido na questão de investimentos na indústria química, o que gerou um forte estímulo na área de criação de explosivos, fazendo com que

outros países que estavam em guerra, os quais, por sua vez, tiveram que se adaptar à situação e promover também um investimento nessa área. Graças à Revolução Industrial, o avanço da tecnologia no século XIX fez com que a indústria bélica fosse desenvolvida. Com o advento da Primeira Guerra Mundial, as fábricas passaram a fabricar tudo em grande escala e com maior poder de fogo. A Alemanha e a Itália, depois de terem sido humilhadas na Primeira Guerra, se mobilizaram para construir novas armas e tentar se recuperar, o que mais tarde seria motivo de outra grande guerra. O período das guerras foi a mola propulsora da tecnologia bélica. No decorrer da Primeira aquele grupo Guerra Mundial, muitas de nações tivesse inovações foram incoruma sensível poradas para o avanço vantagem sobre os

39

das comunicações em massa, mas ainda assim eram muito precárias se comparadas com as de hoje. Houve um grande avanço nas comunicações sem fio, devido ao benefício de se promover comunicação instantânea entre os comandantes. Os fios também eram vulneráveis ao fogo da artilharia e não havia chances de corte de fios, sendo também que o alcance era muito maior. A Primeira Guerra Mundial, portanto, alerta ao mundo sobre a importância do investimento científico, tornando os anos do pós-guerra uma época de expansão extrema dos avanços científicos e tecnológicos, criando assim cada vez mais investimentos em descobertas que influenciaram o mundo até hoje.


Positivismo de Auguste Comte Prof. Orientador: Pablo Carneiro. Alunos: André Binatto Junior, Gabriel de Oliveira, Guilherme Gusson, Gabriel Pitol, João Gabriel Fiasche, Juan Bastos, João Vítor dos Santos.

A

uguste Comte (1798-1857) foi um filósofo francês que publicou diversos livros relacionados à corrente de pensamento chamada “Positivismo”, que representou uma grande ruptura com as formas de estudo da sociedade até então. Comte nasceu em Montpellier, França, onde fez seus primeiros estudos. Em 1824, ingressou no curso de Medicina da Escola Politécnica de Paris. Ficou conhecido pela intelectualidade francesa após ter sido secretário do socialista Saint´Simon em 1817, de quem mais tarde se afastou por conflitos ideológicos. Em 1822, publicou “Plano de Trabalhos Científicos para Reorganizar a Sociedade”. Sem dinheiro e com dívidas, foi obrigado a usar sua intelectualidade para conseguir estabilidade financeira. Dessa forma, em 1826, dá início à apresentação oral e pública do seu Curso de Filosofia Positiva. Em 1830,

iniciou a publicação da Philosophie, projeto que só se completou em 1842, quando se separou de sua esposa, Carolina Massin. Ao longo de sua vida, os ideais do grande pensador não foram bem aceitos pela sociedade científica da época. Suas ideias foram duramente criticadas pela tradição sociológica e filosófica marxista, com destaque para a Escola de Frankfurt, e até hoje muitos ainda o criticam e não consideram as obras produzidas pelo filósofo. Contudo, é preciso analisar a importância que o pensamento positivo adquiriu com o passar do tempo, sendo muito aplicado nos dias atuais. Para o famoso filósofo francês, somente a ciência seria capaz de remodelar as sociedades e conduzi-las para rumos certos e objetivos, sendo este saber encontrado nos aspectos do Cientificismo. O conhecimento estaria baseado nas ideias e construções da ciência. André Comte-Sponville, em seu livro Dicionário

1-Foi um movimento global, ou seja, filosófico, político, social, econômico e cultural, que defendia o uso da razão como o melhor caminho para se alcançar a liberdade, a autonomia e a emancipação.

40

2EMVD

Filosófico, definiu o Cientificismo como sendo: “A religião da ciência ou a ciência como religião. É querer que as ciências digam o absoluto quando só podem alcançar o relativo e que comandem tudo quando elas sabem apenas descrever ou explicar. É erigir a ciência em dogma e o dogma em imperativo”. Durante o século XVIII, ocorreram diversos movimentos na sociedade da época. Considerando a Europa como sendo o centro do mundo, a Revolução Industrial pôde demonstrar o denso poder que a ciência associada a métodos poderia ser capaz de fazer para a evolução do homem. O Cientificismo está integrado à ideia

do Iluminismo1. Este não foi apenas um movimento, mas um conjunto de ideais e da própria evolução da sociedade europeia. A busca por novas tecnologias, alavancada pela Revolução Industrial, fez com que os estudiosos se multiplicassem nas mais variadas áreas do conhecimento. Nessa


época, várias academias e associações voltadas para o “progresso da ciência” reconheciam a figura dos cientistas e os consideravam como importantes agentes de transformação da sociedade. O Cientificismo promoveu a busca pelo conhecimento, defendendo a tese de que a teoria aplicada na prática seria capaz de gerar novas relações e ordens sociais, sendo o conhecimento técnico de extrema importância em um mundo que agora está fervilhando em mudanças econômicas e sociais. Nos dias atuais, a tecnologia, que é uma consequência prática do Cientificismo, exerce o papel de uma modalidade de consumo da população em geral. Isto faz da ciência uma das grandes e excelentes alavancas do conhecimento e do progresso no mundo de nossos dias. O Cientificismo foi capaz de compor uma linha de pensamento criada pelo filósofo Auguste Comte, o Positivismo. Trata-se de uma composição teórica da Sociologia, que tem como uma de suas principais características atribuir fatores humanos às explicações dos diversos assuntos, contrariando o primado da razão, da Teologia e da Metafísica. Em outras palavras, os positivistas abandonaram a busca pela explicação de fenômenos exter-

nos, como a criação do homem, para buscar explicar coisas mais práticas e presentes na vida do ser humano, como por exemplo as leis, as relações sociais e a ética. Foram teorias que abriram as portas para uma nova concepção da realidade social com suas especificidades e regra. “O positivismo derivou do Cientificismo, isto é, da crença no poder exclusivo e absoluto da razão humana em conhecer a realidade e traduzi-la sob a forma de leis naturais. Essas leis seriam a base da regulamentação da vida do homem, da natureza como um todo e do próprio universo. Seu conhecimento pretendia substituir as explicações teológicas, filosóficas e de senso comum por meio das quais — até então — o homem explicava a realidade.” (“Sociologia: Introdução à Ciência da Sociedade”, de Cristina Rocha, p. 46.) Para Comte, o método positivista consiste na observação dos fenômenos, subordinando-os à imaginação e à observação. O fundador dessa linha de pensamento sintetizou seu ideal em sete palavras: real, útil, certo, preciso, relativo, orgânico e simpático. Comte preocupou-se em tentar elaborar um sistema de valores adaptado à realidade que o mundo vivia na época da Revolução Industrial, valorizando

o ser humano, a paz e a harmonia universal. Defendia o ponto de vista de somente serem válidas as análises das sociedades quando feitas com verdadeiro espírito científico. O Positivismo exaltava a coesão social e a harmonia dos indivíduos em sociedade através da ordem. Ele concorda com um progresso, mas sempre dentro de uma ordem. Segundo Comte, a Sociologia deveria acelerar o processo de evolução das sociedades mantendo continuamente uma ordem e se encaminhando para o que deveria ser o modelo ideal de sociedade. Considerando que o Positivismo visa um modo de pensar empirista, seus ideais influenciaram o mundo em diversos aspectos. Mas, mesmo defendendo a prática e a ciência como forma de conhecer a verdade, os positivistas não abandonam as questões sociais, tentando explicar a sociedade através de fenômenos e desenvolvendo uma ciência para isso, no caso, a Sociologia.

41

A rígida construção teórica de Comte termina na ideia de religião da humanidade. Havia a necessidade de propor o poder em princípios não mais teológicos, mas sim, científicos. Essa religião buscava fornecer um enquadramento social tanto para os indivíduos quanto para a sociedade. O Positivismo teve forte influência no Brasil. Um exemplo disso encontra-se no dístico da bandeira nacional brasileira, ‘’Ordem e Progresso’’, que foi fortemente influenciado pelo lema positivista, o qual considerava


‘’o amor por princípio, a ordem por base e o progresso por fim.” Esta corrente foi propagada, através dos pensadores Miguel Lemos (1854-1917), Teixeira Mendes (18551927) e do militar Benjamin Constant (18361891), que impuseram aos círculos republicanos brasileiros ideais positivistas de avanços científicos inovadores, contribuindo para nortear a nova ordem social republicana, em especial, nos governos de Deodoro da Fonseca e de Floriano Peixoto. Em 1881, Miguel Lemos e Teixeira Mendes fundaram a Igreja Apostolado Positivista do Brasil, localizada na cidade do Rio de Janeiro. Em todo o mundo, assim como no Brasil, são visíveis os reflexos que o Positivismo teve nas sociedades e também em muitos governos, os quais aplicam o ideal do progresso e da ordem à sua população. Entre tantas consequências positivistas, é relevante a ideia de capitalismo. A busca do lucro proporcionou um sistema arrojado de orientação econômica que ao longo de muitos anos vem demonstrando ser forte e eficiente; porém, não é apenas pelo sucesso do sistema capitalista que se pode medir a importância do positivismo.

Há alguns anos, muitas organizações não governamentais (ONG), inclusive a ONU, começaram a incentivar o desenvolvimento civil e a reconstrução dos países africanos, que, após diversas guerras e o domínio colonial, tiveram suas sociedades desmoronadas; todavia, sem um grande apoio universal não seria possível reconstruir um continente. Para tanto,

A

como Auguste Comte pregava, o conhecimento deveria estar presente na vida do ser humano desde o início; logo, ele via no ensino uma forma de preservar o progresso. Foi isso que muitas instituições desenvolveram e aplicaram nas crianças e jovens dos países destruídos. Desse modo, vê-se que o estudo pode mudar os rumos de um país; e, no mundo, esta

tese se generalizou, ou seja, a ideia de que o jovem deve estudar para conseguir ter o progresso e a estabilidade econômica em sua vida se intensificou também incentivada pelo capitalismo. Através do ensino e da aprendizagem as sociedades mudaram. O mundo evoluiu das teorias para as tecnologias e é esse o universo do positivista.

CURIOSIDADES: Constituição Brasileira apresenta, em diversas medidas, vários indícios da forte influência positivista que o país vinha passando. Dentre elas destacam-se:

- A bandeira republicana com o seu dístico ORDEM E PROGRESSO; - O decreto dos feriados; - A separação da Igreja e do Estado; - O casamento civil.

42


43


44


EDITORIAL Um passo por vez. “Se enxerguei mais longe, foi porque me apoiei sobre os ombros de gigantes”, disse Isaac Newton.

A

ssim como uma casa bem construída tem sua obra iniciada a partir de suas fundações, o conhecimento humano tem também fundações que geram novos conhecimentos e, tão importante quanto, geram novos questionamentos. Esses questionamentos alimentam a fome de conhecimento da humanidade, levando a novos estudos, pesquisas, conquistas e novamente, mais conhecimentos e dúvidas. Mas, se o alicerce de uma casa pode ser feito de concreto, aço e tijolos, em que se baseia o conhecimento humano? Ao longo da trajetória humana na Terra, os humanos procuraram conhecer e, sobretudo, compreender o que nos cerca. Da contemplação do Universo ao estudo do elétron, da criação e utilização do zero ao estudo das curvas chamadas cônicas, da criptografia ao desenvolvimento da informática, a Matemática tem contribuído – assim como outras áreas do saber - de forma inestimável para a construção do conhecimento humano. Essa contribuição da matemática vem em especial na forma de apresentar uma linguagem necessária para corroborar hipóteses, modelando fenômenos e permitindo assim certa previsibilidade aos fenômenos de outras áreas. Isso nos leva à reflexão de que, apesar do conhecimento nos ser transmitido em sala de aula por meio de matérias separadas por áreas, ele é indivisível, e permeia todas as áreas de estudos, deem a estas o nome de humanas, biológicas, exatas ou sociais. Mas cada degrau novo do conhecimento é amparado por outros, surgidos anteriormente, edificando a casa do conhecimento um pouco por cada mente brilhante que estuda justamente o que desconhecemos. Assim, podemos afirmar que gênios como Bill Gates ou Steve Jobs não teriam avançado tanto em suas áreas sem a existência prévia de outros grandes como Aristóteles, Galileu ou Newton. Nesta edição da Aristotélica, pretendemos mostrar um pouco desta trajetória. Mas não pensem nossos leitores e leitoras que encontrarão um conhecimento estanque, como uma casa pronta e acabada. Interpretando a frase de Sir Isaac Newton, nosso objetivo é mostrar como este saber é construído; as contribuições feitas por pensadores e cientistas do passado assim como as possibilidades que ainda estão por vir. Afinal, a casa que representa conhecimento humano continua em construção, e outros gigantes ainda estão por vir para nos emprestar seus ombros. Boa leitura, Dino Chiarelli Junior

45


A HISTÓRIA DO 0 Prof. Orientador: Dino Chiarelli. Alunos:Alícia Camacho, Carla Biasoli, Isabela Vilas Boas, Julia Elia, Juliane Abreu, Pablo Machado, Victoria Zini.

A

diferença entre duzentos e um e vinte e um é zero. Calma, você não leu errado e isso não é um erro de cálculo, mas apenas uma demonstração da importância deste símbolo que representa o nada dentro do nosso sistema de numeração. O número zero, na atualidade, é de extrema importância. Não conseguimos imaginar nosso sistema numérico, nossos dados, contas ou mesmo as mais simples observações sem o zero. Sua importância Se esse número representa o vazio, então como pode um número que representa o nada ser tão importante? O grande segredo está no fato de o nosso sistema de numeração ser posicional, ou seja, a posição dos algarismos determina o valor dos números. O zero, portanto, pode não acrescentar nada a um número se for adicionado à sua esquerda, mas pode

multiplicá-lo por 10 a cada vez que for acrescentado à sua direita, como em 4, que continua com o mesmo valor se escrito como 04, ou é ampliado dez vezes se escrito como 40. O astrônomo Walter Maciel disse: “O ponto principal é o fato de o zero ser e não ser. Ao mesmo tempo indicar o nada e trazer embutido em si algum conteúdo.”.

mulados à direita de um número, maior o seu valor, mas mesmo se colocarmos todos os zeros do mundo acumulados à esquerda de um número, ele não se altera, e é dessa situação que saiu a expressão “zero à esquerda”, que é usada para dizer que algo é insignificante.

Para o homem, imaginar um símbolo que representasse o vazio sempre foi uma ideia muito abstrata, mas o zero, desde a Antiguidade, vem se mostrando essencial. Esse algarismo, que unido a outros algarismos forma os mais variados números, é diferente de todos os outros. Toda regra que vale para todos, não vale para ele. O zero fez possível a subtração de um número por ele mesmo (1 - 1 = 0). O zero dividido por qualquer número continua sendo o zero (0/2 = 0), e o mesmo acontece quando é multiplicado por qualquer algarismo (2 x 0 = 0). Ele não deixa que nenhum número seja dividido por ele. Quanto mais zeros acu-

A teoria mais aceita para a origem do nome “zero” vem do latim “zephirum”, que significa justamente vazio ou vácuo. Costuma-se atribuir a invenção do zero aos hindus, mas existem relatos de desenvolvimento de representações semelhantes em outros sistemas de numeração.

Seu surgimento e desenvolvimento

Os babilônios foram os primeiros a chegar a uma noção de zero. Eles criaram o que hoje chamamos de “Sistema de Numeração Posicional”, que é o sistema que utilizamos atualmente, em que o valor de cada algarismo depende da posição que ele ocupa. Mas, muitas vezes, para representar um número neste

46

1EMVE

sistema, o zero precisava ficar no meio do grupo numérico, como o 401. Neste caso, o zero era representado apenas por um espaço vazio, uma lacuna. Acredita-se que o uso sistemático mais antigo de um símbolo para zero ocorreu no sistema numérico dos maias, na América Central e do Sul. O sistema de numeração deles era representado por pontos e traços, que indicavam unidades e dezenas. Existiam dois símbolos para o zero; o primeiro se assemelhava a um olho (como mostrado na figura). Os hindus também desenvolveram símbolos para representar o vazio. O mais antigo deles era um ponto em negrito, que aparece muitas vezes nos manuscritos e documentos hindus antigos. Quanto aos gregos, esses jamais desenvolveram um sistema de representação para essa ideia de vazio. Para eles, o vazio era sinônimo de desordem. O próprio Aristóteles chegou a dizer que a natureza tinha horror ao vácuo.


Em virtude dessa despreocupação com o zero, a Aritmética dos gregos não era tão evoluída quanto a sua Geometria. Já pensou fazer a operação 2005 x 190 com algarismos romanos, um sistema que não possui um símbolo para o zero? O zero é essencial! Apesar do desenvolvimento do zero ocorrer por caminhos diferentes para cada povo, a sua ideia básica de representação de um espaço vazio ou como ferramenta facilitadora no Sistema O ZERO TORNA-SE IMPORTANTE

H

á muito tempo, no País dos Números, só havia os algarismos 0, 1, 2, 3, 4, 5, 6, 7, 8 e 9. Nem sempre os números eram muito simpáticos uns com os outros. Os números maiores gostavam de arreliar (perturbar) os menores. Se um 6 encontrava um 2, dizia: “Eu sou maior do que você!” Ora, agora imaginem como é que o ZERO era tratado. Ele era o mais humilhado de todos os números. Diziam que o zero era nada. Por exemplo, uma manhã, andava o zero a passear quando encontrou o número quatro. Logo que o 4 o viu, começou a inco-

Numérico Posicional vem se mostrando de extrema importância tanto nas simples operações quanto nas mais complexas equações apresentadas nos dias de hoje. A frase de Kaplan, doutor em administração de empresas pela Universidade de Harvard, resumiu a importância e a definição do zero em uma só frase: “Foi uma surpresa constatar como é central a ideia do zero: o nada que gera tudo.” É um número que mudou e ainda vem transformando as bases do pensamento científico e filosófico. modá-lo: “Ah, ah! Eu sou maior do que você!” O zero sentiu-se mal e foise embora muito triste. “O quatro tem razão”, pensou o zero. “Quatro é maior que zero”. O zero continuou o seu passeio e encontrou o número sete. O sete fezlhe o mesmo que o quatro. Disse: “Ah, ah! Eu sou maior do que você”. E acrescentou: “Você é nada!” Então o zero viu o oito e, por alguns momentos, sentiu-se feliz. O oito parece-se muito com o zero... Parece um zero com um cinto! Perguntou o zero ao oito: “Onde é que você arranjou esse cinto tão bonito?”. O oito não entendeu. Nesse dia, o oito estava bem disposto e mais amável que os outros números, e só disse: “Tenha um bom dia, zero!”. O zero viu, então, o número nove, sozin-

ho, sentado num banco. O nove parecia muito preocupado. O zero perguntou-lhe se ele estava bem. E o nove respondeu que estava preocupado porque conhecia todos os números que vinham antes dele, o 0, 1, 2, 3, 4, 5, 6, 7 e 8, mas não conhecia os que vinham depois. O zero não podia ajudá-lo porque também não os conhecia, mas sugeriu-lhe que fossem falar com a Rainha dos Números. Quando lá chegaram, a Rainha teve uma grande ideia. Chamou o número 1 e disse-lhe que tinha um trabalho muito importante para ser feito e que só o zero o podia fazer. Virou-se para o zero e pediu-lhe ajuda. – Faça o favor de se colocar à direita do número um. Assim, temos o número a seguir ao nove, o número dez. O zero sentiu-se

47

orgulhoso! Os outros números juntaram-se à volta dele e nem acreditaram no que viram! O zero tinha se tornado alguma coisa. Tinha transformado o 1 em 10 e o 10 era mais do que 9, 8, 7, 6, 5, 4, 3, 2 e 1. A partir desse dia, todos os outros números passaram a ter muito respeito pelo zero. O zero também fez par com o dois e criaram o número 20. Vocês podem imaginar que todos os outros números também queriam o zero como par. E, assim, surgiram os números 30, 40, 50, 60, 70, 80 e 90, tudo por causa do zero! E agora ele era realmente alguma coisa!


A CRIPTOGRAFIA E SEU USO ATUAL Prof. Orientador: Dino Chiarelli. Alunos: Aline Rodrigues, Amanda Matos, Caroline Freitas, Gabrielly Pereira, Giulia Rosario, Kevin Amaury, Vitória dos Santos.

P

mb, dpnp xbj? A pergunta parece difícil de entender? Tente substituir cada letra utilizada pela sua antecessora no alfabeto. Provavelmente a mensagem ficou mais clara; isso porque os caracteres agora formam uma mensagem com sentido. Essa brincadeira feita com você, caro leitor, é apenas um exemplo de um ramo da Matemática que é muito utilizado no nosso cotidiano, mas que é visto por muitos somente como uma brincadeira ou distração. Estamos falando da Criptografia (do grego kriptós = escondido, oculto; grápho =

grafia), que é a arte ou ciência de escrever em cifra ou em códigos, de forma a permitir que somente o destinatário a decifre e a compreenda. Para o funcionamento da criptografia precisamos de uma mensagem, e que essa mensagem seja cifrada, ou seja, codificada por um padrão que tanto o emissor como o receptor conhecem, para depois ser decifrada somente por quem tem o domínio do padrão de cifragem.

comunicação secreta e da criptologia, a primeira referência documentada de escrita criptográfica, é de 1900 AC. Numa vila egípcia perto do rio Nilo, chamada MenetKhufu, o escriba responsável pelas

1EMVF

inscrições do túmulo de Khnumhotep II resolveu substituir alguns hieróglifos por outros que ele considerava mais refinados, adequados à importância do falecido. Mesmo que esses hieróglifos

Origem e evolução da criptografia De acordo com o historiador David Kahn, uma referência na história da

Máquina Enigma

48


não tenham sido usados para esconder segredos, ainda assim essa troca pode ser considerada a primeira criptografia da História; o método usado foi o da substituição. Posteriormente, esse método da substituição, e muitos outros que foram sendo criados, passaram a ser utilizados com o intuito de se proteger uma mensagem que percorreria um longo caminho. Entre tantos povos que usaram a

criptografia, podemos citar os romanos, que enviavam ordens para seus exércitos, que se fossem interceptadas poderiam pôr em risco a segurança de seus soldados e a execução de seus objetivos. Com a cifragem de mensagens, as quais somente outros romanos conheciam o método de decifração, mesmo que um inimigo se apoderasse da mensagem, esta estaria protegida por ser indecifrável por quem não fosse romano.

Foi a partir do século XX que a criptografia começou a evoluir de forma mais acelerada, em virtude do início e avanço da computação. Em princípio, foi utilizada para evitar a interceptação de mensagens transmitidas por comunicação sem fio (código “morse” e transmissão via rádio), muitas vezes com códigos simples como, por exemplo, “a raposa saiu da toca”, para indicar que tropas inimigas saíram das trinchei-

49

ras. Pelo fato de nosso exemplo, assim como tantas outras mensagens trocadas na época, ser facilmente decifrado, surgiu a necessidade de métodos mais complexos para ocultar mensagens. A partir deste ponto, a criptografia e a computação passaram a caminhar juntas, pois esta dava àquela ferramentas e meios para tornar a decifração virtualmente impossível. Um exemplo é a máquina “enigma”, a ferramenta criptográfica mais importante da Alemanha nazista; porém, o segredo foi desvendado pelo matemático polonês Marian Rejewski, que se baseou apenas em textos cifrados interceptados e numa lista de três meses de chaves diárias obtidas através de um espião. Alan Turing, Gordon Welchman e outros, em Bletchley Park, Inglaterra, deram continuidade à criptoanálise do sistema Enigma.


PITÁGORAS DE SAMOS: OS SEGREDOS PERDIDOS NO SILÊNCIO Prof. Orientador: Luiz Fernando Vanzella. Alunos: André Bauerle, Gabriel Araújo, Gustavo Rastofer, Igor Miura, Leonardo Muraroto, Vitor Matsunaga, Yuri Neudine.

S

egundo algumas vertentes históricas, Pitágoras de Samos (570 AC 496 AC) seria o fundador de uma espécie de sociedade fechada onde seus discípulos se dedicavam aos estudos de Aritmética, Geometria e Filosofia. Tais escolas ou socie-

Na verdade, pouco se sabe sobre essas instituições; a especulação é tal que se torna muito complicado diferenciar o que é realidade do que é imaginação.

dades passaram a ser conhecidas como herméticas. Hoje, o senso comum especula que instituições como a Ordem dos Cavaleiros Templários, a Maçonaria, a Ordem Rosacruz e a Ordem Hermética da Aurora Dourada seriam exemplos de sociedades herméticas.

Sabe o planeta Terra possui forma esférica e está suspenso no espaço sem o auxílio de cabos ou de figuras mágicas que o sustentem. Essa ideia foi considerada absurda por muitos estudiosos até meados do século XVI. Atribui multiplicações (daí o nome aritméticas. Além disso, especula tenha sido elaborado pelo próprio Pitágoras, porém, isso não pode ser afirmado com certeza. Era comum nas sociedades

50

2EMMA

herméticas que toda e qualquer descoberta fosse atribuída ao mestre; assim, é possível que qualquer um dos seus discípulos tenha proposto que, num triangulo retângulo, a soma das áreas formadas a partir dos lados menores desse triangulo seja idêntica à área formada a partir do lado maior. A aplicação desse teorema levaria a Matemática a um de seus grandes problemas, os números irracionais. O primeiro número irracional a ser descoberto foi a raiz quadrada do número 2, que surgiu exatamente da aplicação do Teorema de Pitágoras em um triângulo de ca-


tetos unitários, isto é, valendo uma unidade. Em termos comuns, o problema estava em como conciliar a experiência e a abstração, isto é, como ex p lic a r q u e u m a de t e r min a d a á rea poderia ser construída

sobre um lado infinitamente definido.

mantenedor de todas coisas). Para este pensador, em especial, a arché do Universo seriam os números. Em outros termos, o princípio gerador e mantenedor de todo o Universo estaria nas relações numéricas.

Outra contribuição atribuída a esse pensador foi a busca da Arché (termo em grego que nos remete à ideia de uma espécie de princípio gerador e

Além de Pitágoras de Samos, outros pensadores se dedicaram a buscar esse princípio; por exemplo, Tales de Mileto, outro personagem importante para a História da Matemática, propôs que a arché seria a água.

Escola de Atenas - Rafael Sanzio e detalhe de pitágoras

Também se atribui à Escola Pitagórica a descoberta de que a harmonia que existe entre as sete notas musicais pode ser descrita matematicamente. Vale ressaltar que a proposta pitagórica de serem os números a arché do Universo, contribuiu, de algum modo, para que a Matemática fosse entendida como linguagem universal das ciências e, seguramente, essa ideia foi trabalhada por pensadores como Nicolau

Copérnico (1473),Galilei (1564). De modo geral, acerca de Pitágoras ou da Escola Pitagórica, é difícil separar o fatos históricos dos lendários. Não existem muitos regis-

tros escritos e grande parte dos estudos realizados por ele e por sua escola se perderam no tempo, em especial por dois motivos: o primeiro, pelo voto de silêncio que seus dis-

51

cípulos faziam a respeito do que lhes era ensinado, e o segundo, pelas alterações próprias das tradições que são transmitidas oralmente. O que pode ser afirmado com certeza é que Pitágoras contribuiu fortemente com os pensadores que, mais tarde, seriam responsáveis pela estruturação da ciência moderna.


EUCLIDES E OS ELEMENTOS Prof. Orientador: Corina Rodrigues Alunos: Caio Petrucci, Dorimarques Mendes, Larissa Graça, Matheus de Alencar, Rafael da Silva, Renata Perazolli, Victor Niro.

A

2EMVE

Pappus de Alexandria, foram escritas séculos depois dos supostos acontecimentos. As datas de seu nascimento e A vida de Euclides per- morte são desconhemanece turvada por um cidas. Acreditagrego véu de mistério. As estudou na famosa Acpoucas referências a ademia de Platão, em ele, feitas por Proclos e Atenas, tendo sido

civilização grega legou aos nossos tempos avanços em diversas áreas da Ciência e da Filosofia impulsionados pelo chamado primeira vez na História, a busca pelo conhecimento desvinculou pensamento mitológi-

co, ancorada na análise racional. A matemática de Euclides de Alexandria foi uma das principais manifestações do brilhantismo do período, instituindo uma geometria que transformou a lógica e o pensamento científico de então. Seu Magnum

Opus, Os Elementos, é considerado o livro didático mais influente da História da civilização ocidental.

convidado por Ptolomeu I para lecionar em Alexandria, o centro do saber na época. Além de Os Elementos, que inclui análises da teoria dos números, ele também produziu trabalhos sobre rigor matemático, perspectiva, secções

cônicas e geometria esférica. Seus interesses incluíam a música, a mecânica, a Astronomia e a Astrologia. Com o fim do Império Romano, suas obras foram preservadas pelos povos árabes da Península Ibérica, que as receberam dos bizantinos

por volta de 760 DC. Após a Reconquista, o pensamento euclidiano foi adotado pelos grandes intelectuais dos centros europeus. Os Elementos, um dos tratados gregos mais antigos de que se tem notícia, consiste em

52

treze livros redigidos por volta de 300 AC. Neles, Euclides, partindo de um pequeno conjunto de axiomas (isto é, sentenças consideradas autoevidentes), deduz uma série de proposições, desenvolvendo as provas


matemáticas para fundamentá não foi descoberta por Euclides: ele reuniu várias ideias discutidas na época, como a Teoria dos Cinco Sólidos Regulares, a Teoria das Proporções de Eudoxo e a Teoria dos Irracionais de Tee-

teto, sistematizando o conhecimento geométrico do mundo grego até então. No entanto, o seu esquema axiomático e a solidez de sua abordagem completaram as lacunas das teorias da época e fascinaram matemáticos por séculos, inspirando pensadores como Ba-

ruch Spinoza, Bertrand Russell e Alfred North Whitehead, que adotaram as estruturas dedutivas introduzidas por sua obra. A geometria engendrada pelos postulados de Euclides reinou absoluta por mais de dois mil anos até o século XIX, quando surgem as geometrias não euclidianas, estudadas por Carl Friedrich Gauss, Nikolai Lobachevsky, János Bolyai e Bernhard Riemann. Nelas, é modificado o controverso postulado das paralelas, de acordo com o qual reta paralela à inicial hiperbólica. No século XX, a teoria geral da relatividade mostrou que a geometria do espaço três raios de luz forem posicionados de maneira a formar um triângulo, a soma dos ângulos internos deste não será equivalente a cento e oitenta graus, devido ao campo grav-

itacional. Portanto, ou a geometria não euclidiana é fisicamente real, ou a noção de testes físicos dos axiomas da Geometria deve ser descartada. Além disso, Einstein estabeleceu a finitude do Universo, o golpe de misericórdia na noção euclidiana de uma realidade sem fim. No entanto, não se deve subestimar a importância do gênio de Euclides na história do conhecimento huma-

53

no. Seu pensamento é uma obra prima da aplicação da lógica à Matemática, sendo extremamente influente em várias áreas da ciência. Sua abordagem axiomática e o seu rigor lógico são válidos até os dias de hoje. De acordo com George Simmons, Os Elementos foi “outro livro, com exceção da Bíblia


ARQUIMEDES E AS CÔNICAS Prof. Orientador: Corina Rodrigues Alunos: Caroline Polonis, Danielle Cabral, Giovanna Furlaneto, Jakeline Santos, Larissa Queiroz, Yara Gomes

A

rquimedes foi o mais importante matemático e físico da Antiguidade. Nascido no ano de 287 AC em Siracusa, atual Sicília, e filho de Fídias, astrônomo grego de grande importância, Arquimedes desenvolveu um papel importante em diversos projetos, uma vez que dedicou a vida aos estudos científicos: melhorou e facilitou o sistema grego de numeração e apresentou, a partir de seus princípios de que tudo podia ser medido, um valor aproximado para (pi). Entre suas descobertas, o “Princípio de Arquimedes” ocupou um lugar importante

2EMVF

na Física, uma vez que nele estão estabelecidas as leis da estática e da hidrostática. Esse princípio afirma que “todo corpo imerso em um fluido recebe deste um empuxo vertical em intensidade igual ao volume deslocado do fluido”. Conhecido também como “Newton grego”, Arquimedes dedicou-se à elaboração de equipamentos de guerra que ajudaram sua cidade a vencer batalhas. Como principal invento, pode ser citada a alavanca (“Dê-me uma alavanca e um ponto de apoio, e eu moverei o mundo”, afirmou o matemático), e até a utilização de lentes e espelhos, destinados a atrapalhar

as tropas inimigas. Segundo relatos, Arquimedes chegou a incendiar navios romanos por meio desses instrumentos. Arquimedes se destacou por um de seus

54

maiores desafios, a elaboração de teorias sobre secções cônicas, sendo acompanhado por Euclides e Apolonio de Perga (dois outros matemáticos gregos). Mas o que são secções cônicas, ou, simplesmente, cônicas? Recebem esse nome por serem linhas originadas de cortes feitos no cone. Sob a designação de cônicas, temos elipses, hipérboles e parábolas, definidas de acordo com a variação do ângulo da linha de intersecção. Elipse é um segmento cônico que é alcançado pelo cruzamento de uma superfície curva com um plano que


Arquimedes de Siracusa foi um matemático, físico, engenheiro, inventor, e astrônomo grego.

intercepta todas as diretrizes dessa superfície. Hipérbole pode ser definida como a união de pontos que estão posicionados em um mesmo plano, o qual possui uma diferença de suas distâncias constantes. Já a parábola, de acordo com o Dicionário Brasileiro Melhoramentos, 7ª edição, é definida como ‘’curva plana, cujos pontos são equidistantes de um ponto fixo e de uma reta fixa ou curva resultante de uma secção feita num cone por um plano paralelo à geratriz. Curva que um projétil descreve’’. As cônicas são muito utilizadas pelos matemáticos desde a

elipses, que possibilitam que raios refletores sejam emitidos para auxiliar na identificação de algum objeto com eficiência e precisão. Por fim, podemos perceber que as cônicas, teoria que desempenha enorme função no meio físico, matemático e astronômico, despertam interesse e são estudadas até os dias atuais graças à sua enorme importância. E toda essa evolução nos estudos das parábolas, elipses e hipérboles só pôde existir graças a Arquimedes, o primeiro matemático responsável por registrar teoremas sobre as secções cônicas.

Antiguidade – Kepler e Isaac Newton criaram as suas próprias teorias com base no que foi descoberto das cônicas – para o estudo da Astronomia, da Arquitetura etc. São também utilizadas até hoje pelo setor de tecnologia, principalmente, para a criação de produtos cada vez ma i s so fi st i cados, “evoluídos”, e muitas vezes isso nos passa despercebido. Estão presentes, por exemplo, na construção de pontes, nos faróis de carros e nas antenas parabólicas, como é o caso das parábolas; ou então encontradas em hospitais, centros odontológicos e nas lâmpadas, como as

55


GEOCENTRISMO, HELIOCENTRISMO E A CASA DE DEUS Prof. Orientador: Luiz Fernando Vanzella. Alunos: Carolina Silveira, Caroline Marques, Cristina Petravicius, Débora de Oliveira, Douglas Smigly, Isadora Zanelatto, João Saldanha.

T

odos os dias o Sol nasce a Leste e se põe a Oeste deixando espaço para a Lua e as estrelas que, à noite, seguem o mesmo caminho. Parece que tudo caminha em torno da Terra e que ela é o centro do universo, e por isso não é de se estranhar que essa teoria tenha sido amplamente aceita há alguns séculos. A teoria do Modelo Geostático, em que todos os corpos celestes do Universo orbitavam em torno de um centro estático, a Terra, tornou-se uma espécie de lei indiscutível, visto que era

apoiada e utilizada pela Igreja Católica. Acreditava-se que a Terra estava parada no meio do Universo e que em volta dela havia uma camada de ar desconhecida, seguida de orbes ou cascas, com os astros, e ao redor desses astros se encontrariam as estrelas fixas onde repousavam todas as constelações e, ao final de todos os círculos que rodeavam a Terra, estaria um espaço vazio, de caos inimaginável ou o céu divino, conhecido como Casa de Deus. De acordo com essa teoria, o universo era rel-

ativamente pequeno e suas fronteiras estavam apenas até onde o olhar podia alcançar. A Terra, por sua vez, era entendida como o centro e o melhor dos lugares, pois nela habitava o homem, a criatura mais especial de Deus. Devido às repressões exercidas pelas Igrejas Católica e Protestante a fim de resguardar o modelo cosmológico vigente, novas teorias como a que substituiria a geostática, a heliostática, onde o Sol seria o centro estático do Universo, só foram aceitas após duras penas. Diversos estudiosos propuseram diferentes formas de funcionamento do Universo, até chegar ao modelo que temos hoje. Indiscutivelmente, um deles foi Aristarco de Samos (320 AC – 250 AC) nascido em Samos, na Grécia. Suas teorias foram de grande importância para a Astronomia; ele propôs uma nova organização dos planetas e tentou determinar medidas e distâncias astronômicas através de triângulos e sombras. Em sua teoria, Aristarco defendia que os

56

2EMMA

movimentos dos astros seriam mais bem descritos por um modelo heliostático, em que todos os planetas girariam em torno do Sol. Tal teoria baseava-se no tamanho dos astros: como o tamanho da Terra já era conhecido desde a época de Aristóteles, Aristarco buscava descobrir o tamanho da Lua e o do Sol. Apesar de seus cálculos não encontrarem valores precisos, devido aos instrumentos de medição da época, Aristarco verificou que a Lua era muito menor do que a Terra e que o Sol era, por sua vez, muito maior. Assim, concluiu que o Sol era o mais importante e, portanto, não poderia ficar girando em torno da Terra. Essa teoria teve certo impacto em sua época; entretanto, foi de algum modo rejeitada e condenada ao esquecimento até o século XVI. Outra grande contribuição foi sua tentativa de calcular a distância entre a Terra e o Sol em relação à distância entre a Terra e a Lua através do triangulo formado por esses três astros. Tais relações e


cálculos podem ser observados em sua obra, cujo título traduzido do grego é algo semelhante a Sobre os Tamanhos e as Distâncias do Sol e da Lua. Outro nome importante na busca da descrição do funcio-

namento e comportamento dos céus foi Claudio Ptolomeu (85 – 170 DC). Sobre ele pessoalmente sabe-se pouco, mas sem dúvida foi grandemente privilegiado, pois nasceu no tempo em que ainda existia a grande biblio-

teca de Alexandria, que possuía um riquíssimo acervo de todos os conhecimentos registrados até então. Embora Ptolomeu tivesse considerado o modelo heliostático, ele seguiu outra vertente, a do modelo geostático, que

se baseava no princípio de que a Terra era o centro do universo. O grande cientista propôs um método geométrico para explicar os movimentos e as posições aparentes dos corpos por meio de círculos. O modo como o movi-

Modelo Geocentrico

mento é observado da Terra seria explicado pelo fato de que cada corpo realiza dois movimentos circulares e uniformes: um menor, denominado epiciclo, e outro maior, ao redor da Terra, denominado deferente. Por esse modelo, era possível prever a posição de qualquer planeta em qualquer época.

Esse modelo passou a ser defendido firmemente pela Igreja Católica, pois corroborava sua doutrina e colocava o homem em lugar de destaque no Universo. Além de Aristarco e Ptolomeu, há outro estudioso de suma importância para a História da Cosmologia: Nicolau Copérnico

(1473-1543). Ele revisita Aristarco e defende a ideia de que a Terra não era o centro do Universo. Em 1543, após sua morte, é publicada a obra Revolução dos Corpos Celestes, que colocava o Sol como centro estático do Universo. Essa obra provocou uma verdadeira revolução no pensamen-

57

to de sua época: tirou o homem do centro do Universo e colocou em xeque os fundamentos do antropocentrismo e do teocentrismo. Porém, ao contrário do que o senso comum imagina, não foi a Igreja Católica a primeira a contestar Copérnico; foi, na verdade, o protestante Martinho Lutero (1483–1546) base


Nicolau Copérnico, astrônomo e matemático.

ando-se na passagem bíblica do Livro de Josué, onde o profeta mandou o Sol parar no firmamento, e não a Terra: No dia em que o Senhor entregou os amorreus aos israelitas, Josué exclamou ao Senhor, na presença de Israel: Sol, para sobre Gibeom! E você, ó Lua, sobre o vale de Aijalom! O Sol parou, e a Lua se deteve, até a nação vingar-se dos seus inimigos [...] O Sol parou no meio do céu e por quase um dia inteiro não se pôs. (Josué, 10:12-13) A recusa de Lutero em relação ao Copernicanismo se dá em virtude da defesa empreendida por Galileu Galei (1564-1642)

a essa teoria. Galileu pode ser considerado o mais árduo defensor do Copernicanismo. Suas descobertas astronômicas foram publicadas em 1610, no livro Mensageiro das Estrelas. Apesar dessa obra ser composta por poucas páginas, causou um grande impacto na época por negar fortemente o sistema geocêntrico, o qual era defendido pela Igreja Católica. Por essa razão, foi instaurado contra ele um processo inquisitório e, finalmente, em 1633, foi condenado pelo Santo Ofício à retração pública, abjuração no Mosteiro de Santa Maria sob Minerva(?), e à prisão domiciliar. Além disso, Galileu também é responsável por outras grandes e importantes contribuições

para a estruturação da ciência moderna. Realizou seus experimentos utilizando com grande propriedade os recursos técnicos disponíveis na época, e assim, conseguiu ir além dos seus contemporâneos, inaugurou o que mais tarde ficaria conhecido como “método experimental”. Entre essas contribuições está o aperfeiçoamento do telescópio em 1610 e a introdução do uso desse instrumento na Astronomia. Com ele, foi possível observar com maior precisão os astros, fato que lhe permitiu descobrir, por exemplo, as manchas solares e os satélites de Júpiter. Foi também nesse período que ele conseguiu comprovar as teorias do sistema heliostático de Aristarco e Copérnico, através de suas observações sobre as fases de Vênus. Vale mencionar que a Igreja Católica não seria temerária em simplesmente aceit-

58

ar a contestação do protestante Lutero; então é ordenado ao Colégio Romano que analisasse a proposta copernicana e avaliasse se ela poderia ser verdadeira. E assim é feito. Os jesuítas perceberam que existiam grandes indícios de que a proposta copernicana pudesse ser verdadeira, porém, como era contrária à doutrina cristã católica, tentaram estabelecer um modelo intermediário entre o ptolomaico e o copernicano. Nesse momento, surge outro grande nome para a História da Astronomia: Tycho Brahe (1546 - 1601). Ele foi um astrônomo dinamarquês que tentou conciliar as ideias geostática e heliostática. Em seu modelo cosmológico híbrido baseado no modelo copernicano, ele coloca todos os planetas, com exceção da Terra, girando em torno do Sol e, em seguida, esse aglomerado celeste

Galileu Galilei, físico, matemático, astrônomo e filósofo italiano


composto pelo Sol e os planetas girando em torno da Terra. Assim, a Terra continuaria a ser o centro do Universo, porém os outros corpos celestes descreveriam suas órbitas ao redor do Sol. Ele também é lembrado pelas suas minuciosas observações dos céus. Elas foram realizadas a partir de instrumentos precisos, muito bem calibrados e construídos por ele mesmo. Grande parte de suas descobertas, metodicamente registradas, foram usadas por Kepler, um de seus assistentes, que desenvolveu suas pesquisas a partir desses registros. Johannes Kepler (15711630) foi o último assistente de Brahe. Era um jovem alemão com grandes habilidades em Astronomia, Matemática e Astrologia. Tornou-se mais tarde um dos principais nomes da Revolução Científica dos séculos XVI e XVII. Entre suas principais contribuições estão a formulação das três principais leis que regem a mecânica celeste, conhecidas como Leis de Kepler e o aperfeiçoamento de diversas invenções de Galileu; além disso, ele desempenhou grande influência nas descobertas de Isaac Newton. Certamente o trabalho de Kepler contribuiu de maneira decisiva para a obra

de Newton, Princípios Matemáticos de Filosofia Natural, e para a enunciação da Lei da Gravitação Universal. Desde o início, Kepler tentou encontrar figuras geométricas que permitissem explicar a posição dos planetas no Universo. Construiu um sistema baseado em sólidos geométricos que encaixassem as “esferas planetárias” a uma distância que permitisse uma escala exata das distâncias planetárias em relação ao Sol. Acreditou que uma Geometria perfeita teria que conter os poliedros regulares conhecidos desde o tempo dos gregos: tetraedro, cubo, octaedro, dodecaedro e icosaedro (os chamados Poliedros de Platão). Em 1594, ele elaborou uma hipótese geométrica complexa para explicar a distância entre as órbitas planetárias (órbitas que eram, erroneamente, consideradas circulares). Posteriormente, deduziu que as órbitas dos planetas são elípticas. Kepler propôs que o Sol exerce uma força que diminui de forma inversamente proporcional à distância e impulsiona os planetas ao redor de suas órbitas. Publicou, em 1596, suas teorias em um tratado chamado Mysterium Cosmographicum. Esta obra é importante porque apresenta a primeira demonstração

Johannes Kepler, astrônomo, matemático e astrólogo

ampla e convincente das vantagens geométricas da teoria de Copérnico. A Primeira Lei de Kepler diz justamente que os planetas movem-se em órbitas elípticas, ocupando o Sol um dos seus focos.(?) Já a Segunda Lei provém da constatação de que o movimento da Terra ao redor da órbita do Sol não é uniforme, o que o levou a deduzir que as velocidades do planeta no afélio (ponto mais afastado do Sol) e no periélio (ponto mais próximo do Sol), eram distintas. Por fim, a Terceira Lei de Kepler afirma que os quadrados dos períodos dos planetas são proporcionais aos cubos das suas distâncias médias em

59

relação ao Sol. Sem dúvida, a História da Cosmologia não foi escrita apenas por um homem. Ela é, na verdade, a reunião de inúmeros esforços envidados para traduzir a Natureza em uma linguagem que o homem fosse capaz de compreender: a linguagem matemática.


Mathesis Universalis: a matematização da Natureza Prof. Orientador: Luiz Fernando Vanzella. Alunos: Gabriel Semensato, Luís, Henrick Bussola, Pedro Pendeza, Rodolfo Abizares, Tamires Silva, Tiago Dias, Victória Cruppe.

E

se o mundo que conhecemos pudesse ser inteiramente descrito em fórmulas matemáticas? Parece impossível, talvez até enredo de filme de ficção científica, porém, desde Pitágoras e Platão, já era cogitado que a melhor linguagem para expressar os fenômenos do Universo seria a Matemática. E é desta linha de pensamento que surge a chamada Mathesis Universalis, que remonta sua etimologia à forma latinizada do vocábulo grego μάθησεως (mathesis) e ao latim universalis.

Este termo significa, literalmente, “matemática universal”, no sentido de ser uma forma de expressão do conhecimento que engloba todo tipo de produção científica. Estamos na Europa, na alvorada do século XVII. René Descartes compunha sua obra Regras para a Direção do Espírito. É importante entender o contexto no qual a comunidade científica estava inserida. Desde o século XV, um resgate do pensamento da antiga Academia de Platão se propagava entre os cientistas eu-

ropeus. Como se sabe, esta escola valorizava o raciocínio (em detrimento das experiências empíricas) como o verdadeiro instrumento para se extrair conclusões acerca da realidade. Dentro dessa filosofia platonista já havia ideias para a matematização das ciências que culminariam na criação da mathesis universalis. Inclusive, esse ideal foi tão difundido por filósofos, como o italiano Marsílio Ficino (o qual chegou a afirmar categoricamente que a Matemática seria a “perfeita ordem divina do Universo”

60

2EMMB

para expressar a mente humana) que quando efetivamente ocorreu a formalização deste conceito, dois séculos depois de Ficino, a ideia foi aceita muito facilmente, talvez até como um “senso comum”. Pois bem, voltemos a Descartes. Obviamente, o fi l ó s o fo f r ancês f oi dev er a s influenciado pela corrente racionalista de seu tempo. Tendo isto e a necessidade de uma linguagem universal para o estudo padronizado de toda ciência em mente, cunhou pela primeira vez o termo mathesis universalis:


sem as aplicar a uma matéria especial: essa ciência se designa, não pelo nome emprestado, mas pelo nome, já antigo e consagrado pelo uso, Matemática universal porque ela encerra tudo o que fez dar a outras ciências a demonstração de partes da Matemática.” (DESCARTES, [1701] 1999, p.27)

(...) “pareceu-me enfim claro reportar à Matemática tudo aquilo em que somente se examina a ordem e a medida, sem levar em conta se é em números, em figuras, em astros, em sons, ou em qualquer outro objeto, que tal medida deva ser procurada. Daí resulta que deve haver uma ciência geral que explique tudo quanto se pode procurar referente à ordem e à medida,

Mas afinal, qual é a verdadeira importância de matematizar a realidade? Onde isso se aplica no mundo concreto e palpável? Ora, a mathesis foi uma revolução no modo de “fazer ciência” para toda a civilização ocidental. Descartes, usando de sua Geometria Analítica, estabeleceu uma relação absoluta e intrínseca entre o reino geométrico (ou seja, o espaço) e o reino dos números (isto é, a Álgebra e a Aritmética). Esta é a verdadeira revolução: uma pedra deixou de ser somente um agregado sólido para se tornar uma estrutura complexa de ângulos e dimensões, com área e volume e uma série de outras propriedades matemáticas mensuráveis.

A partir de então, todas as grandezas deveriam ser expressas por valores numéricos. O matemático dizia que era simples saber se “uma coisa era mais branca que a outra” (BURT, 1983 p. 87), mas, sem a Matemática era impossível precisar se a proporção de brancura era “de dois para um, ou de três para um, etc.” (BURT, 1983 p. 87). Ademais, esta filosofia, posteriormente, seria fundamental para o desenvolvimento de seu famoso “Método Científico”, o qual é vastamente utilizado até hoje na comunidade científica. Uma excelente ilustração de como a mathesis deixa sua marca de modo direto em nosso cotidiano é o chamado “códi-

go binário”. Teorizado pelo físico, filósofo e matemático alemão Gottfried Wilhelm Leibniz, o sistema de numeração binário, que abrange todo e qualquer tipo de informação em combinações de 0 e 1, é muito utilizado na computação atualmente para o sistema de armazenamento de informações e comandos, formando números, letras, imagens bi e tridimensionais, estáticas ou dinâmicas, assim como a representação de cores nos monitores. Em suma, o sistema binário traduz o mundo físico e tangível para o mundo virtual, informacional, sendo capaz de guardar quantidades imensuráveis de informação computacional. Concluindo, a mathe-

61

sis universalis revolucionou a ciência como um todo. Sua criação, apesar de ser um conceito um tanto abstrato, influenciou toda a produção científica até os dias de hoje. Além do mais, todo o esforço de desenvolver uma linguagem que pudesse traduzir todas as manifestações de fenômenos do Universo possibilitou uma série de criações que influenciam diretamente nosso dia a dia. Afinal, sem o código binário, por exemplo, não haveria computador, nem Internet, nem Facebook e talvez, você nem estivesse lendo esta revista.


DEUS E A CIÊNCIA MODERNA: PASCAL E DESCARTES

Prof. Orientador: Corina Rodrigues Alunos: Andrezza da Silva, Beatriz Barral, Emilay Amorim, Fellipe Sena, Lorena Gatto, Mayara Kikuchi, Vitor Augusto de Medeiros.

R

eligião e Ciência são temas que muitas vezes podem apresentar contradições entre si. A dificuldade de relacioná-las e harmonizá-las criou e cria muita polêmica devido à complexidade e aos objetivos dessas áreas e à visão do mundo que muda constantemente com as descobertas científicas, as concepções filosóficas, as teorias, e se transformam com os contextos políticos, sociais e econômicos da sociedade. A religião e a ciência sempre andaram juntas ao longo da História da humanidade, mas a relativi-

se constituirá sobre religião, ciência, ou a união das duas. Blaise Pascal (16231662) e René Descartes (1596-1650) foram filósofos matemáticos que souberam conciliar religião e ciência com supremacia. Descartes foi um físico, filósofo e matemático francês que valorizou

dade que envolve essas questões ocorre por muitos fatores, que estão relacionados a uma visão social e, ao mesmo tempo, atingem o íntimo de cada um. As condições e os fatos da vida ao longo da existência do homem são extremamente influenciáveis e decisivos no entendimento que

1

1 1 1 2 1 1 3 3 1 1 4 6 4 1 1 5 10 10 5 1 1 6 15 20 15 6 1 1 7 21 35 35 21 7 1 1 8 28 56 70 56 28 8 1 1 9 36 84 126 126 84 36 9 1

62

2EMVD

a razão e decidiu implantá-la em todas as vertentes que regeram sua vida. A frase “Penso, logo existo” é sua máxima e exemplifica a relevância que a razão exercia na sua vida. A razão é o que faz com que o ser humano nasça, exista, crie e acredite em tudo. Seguindo essa linha de pensamento, o filósofo conseguiu unir o pensamento científico e crítico com a religião, relacionando a existência do próprio homem com a perfeição do pensamento, alegando que a ideia de perfeição em si e o conceito inato de Deus existente no ser humano comprova a existência de um ser perfeito.


Para Descartes, como a razão rege a vida, simplesmente a ideia de Deus já provaria sua existência. Enquanto Descartes encontrou a verdade e a resposta para suas perguntas na razão, Pascal, um cientista religioso, balanceou seus conceitos. Apesar de ter se dedicado à Matemática e à Física durante boa parte da sua vida, encontrou e se realizou na Teologia. Sua máxima, “O coração tem razões que a própria razão desconhece”, demonstra como os sentimentos e a afetividade conduziram a vida de Pascal. Ele fez parte do jansenismo – uma heresia religiosa proveniente do catolicismo inspirada nas ideias do bispo Ypres e de caráter dogmático, moral e disciplinar - de 1647 até o fim de sua vida, em 1662, e chegou a renunciar às ciências exatas e dedicar-se somente à Filosofia e à Teologia.

Sua concepção de Deus é baseada na fé e na aposta de que nada será perdido se houver crença na existência do Divino. Apesar de sua fé, insistência e genialidade, as questões em que trabalhou, principalmente aquelas que envolviam religião e ciência, foram verdadeiros pontos de interrogação, pois o filósofo sempre acreditou na subjetividade dos saberes e da verdade. Por isso mesmo, contestou e criticou a construção filosófica e religiosa de Descartes, alegando que a objetividade, a Geometria e o eu racional por si só não formam o homem e nem são condizentes com as ciências humanas. A oposição de ideias e as críticas que ocorreram entre Descartes e Pascal foram o início de um debate que se estende até os dias

de hoje com fervor. Ambos os filósofos foram além do seu tempo e contribuíram significativamente para vários ramos da ciência moderna. A transformação do mundo que ocorreu durante a vida de ambos, com o Renascentismo Científico, a ideia do homem como centro do Universo e a definição da infinidade do Cosmos, fez com que o mundo inteiro contestasse como e por que as coisas existiam e funcionavam, e não mais simplesmente o quê. Hoje, o mundo é fruto da soma das ideias de pensadores que se dedicaram à sociedade

“Penso, logo existo.” Descartes

63

e à existência do ser humano, da natureza e da religião. O homem é capaz de formar seu próprio conceito graças à infinidade de descobertas e possibilidades que existem, no seu mundo e à individualidade da opinião de cada um. A maestria com que Pascal e Descartes uniram a religião e a ciência merece ser aplaudida, mesmo que se adotem crenças contrárias, pois até hoje, mais de quatro séculos depois, existem pessoas que seguem e concordam com o conhecimento que foi construído em uma sociedade completamente diferente da atual.


DESCARTES E A HISTÓRIA DA CIÊNCIA Prof. Orientador: Corina Rodrigues Alunos: Alan Mehero, André Perogil, Beatriz de Oliveira, Giovanna do Nascimento, Juliana Elis, Letícia Clemente, Letícia Menezes.

S

e você acha difícil memorizar nomes de ruas, ou acha complicado encontrar um endereço de uma festa de aniversário, por exemplo, provavelmente você ou o seu pai já recorreu ao GPS (Global Positioning System). Esse aparelho facilita muito a vida das pessoas uma vez que localiza endereços por meio de sistemas de coordenadas. Esse equipamento se baseia na Geometria Analítica, cujo conceito podemos explicar simplificadamente como sendo a junção da Geometria com a organização formal da Álgebra. Essa ideia surgiu em 1637 com o filósofo e matemático francês René Descartes, autor da obra intitulada “Discurso sobre o Método”, que revolucionaria mais tarde a estrutura da Matemática. Descartes foi o primeiro a unir a representação de figuras geométricas com um viés algébrico, além de mostrar uma nova visão sobre pontos, retas, curvas, círculos e sólidos. O plano de

representação dessas figuras, criado mais tarde por Leibniz, ficou conhecido como “plano cartesiano” em homenagem ao matemático. Um fato curioso sobre Descartes é que, mesmo tendo dado uma grande contribuição para a Matemática, e até sendo muitas vezes considerado o Pai da Matemática moderna, ele nunca cursou essa área propriamente dita. Na realidade, ele se formou em Direito na Universidade de Poitiers, na França, como seu pai desejava, mas não exerceu sua profissão. Ao invés disso, partiu para a Holanda para servir no exército de Mauricio de Nassau porque, para ele, a escolarização no exército era o que faltava para a plenitude de sua educação. Três anos depois de ter iniciado sua vida militar, Descartes abandonou o exército e passou a se dedicar às ciências e à Filosofia. Estudou Matemática através dos manuais didáticos do monge Clavius, além de ler obras de grandes mentes como Galileu Galilei. O grande pensador não só contribuiu para

a Matemática, mas também para a Física. Além do seu “Discurso”, havia outros três postulados: “Óptica”, “Meteorologia” e “Geometria”. O livro “Geometria” é, sem dúvida, uma das obras mais importantes da Matemática e já apresenta um método inovador de cálculo no campo da Geometria Analítica – a

64

2EMVD

publicação da fórmula V + F = A + 2 - atribuída erroneamente a Euler (matemático suíço, também estudioso da Geometria). Essa fórmula relaciona as arestas (A), os vértices (V) e as faces (F) de um poliedro regular como uma tentativa de algebrizar a Geometria dos Sólidos. Além disso, sua ideologia ajudou, mais


tarde, os matemáticos Isaac Newton e Gottfried Wilhelm Leibniz a criarem o cálculo diferencial e integral. Na obra “Meteorologia”, Descartes introduziu o estudo sobre o tempo em bases científicas; já na “Óptica”, ele mostra leis de refração da Física. Em “Principia philosophae”, outra obra de grande importância, ele apresenta uma ideia interessante sobre como o universo se dispunha, e discorre que, para ele, não poderia haver vácuo cercando a Terra, pois, se houvesse, como as forças se neutralizariam e a Terra ficaria em “repouso”? Esse questionamento só obteria resposta anos mais tarde pelo

matemático e físico Isaac Newton. Outra obra de Descartes foi o “Traité de la Lumière”, seu maior tratado em Física, porém só foi publicada parcialmente após a sua morte. O fato que levou Descartes a não publicar esta obra em vida foi a prisão domiciliar de Galileu, justamente por mostrar seu olhar

sobre o Universo em uma época de grande repressão à ciência por parte da igreja, que não aceitava ideias opostas às que costumava disseminar. A grande importância desses pensadores é exatamente o legado de suas obras. A partir delas, outros pensadores têm a chance de expressar suas visões

sobre os temas abordados, muitas vezes discordando, concordando ou simplesmente complementando e fazendo com que a Ciência evolua. Descartes não foi diferente nesse aspecto; foi o pensador que plantou a semente da Matemática moderna, que é cultivada por nós nos dias de hoje. Por esse motivo, quando você estiver em seu carro usando seu GPS, saiba que esse equipamento é resultado de grandes pesquisas que vieram após o estudo de obras brilhantes como as de Descartes que merecidamente recebe o título de Pai da Matemática Moderna.

Isaac Newton, um dos matemáticos responsáveis pela crianção do cálculo diferencial e integral.

65


LOGARITMO: UM JEITO DIFERENTE DE FALAR SOBRE POTÊNCIA Prof. Orientador: Dino Chiarelli Alunos: Alessa Suenaga, Flávia Altheman, Ingrid dos Santos, Ingrid Gonçalves, Isabel da Mata, Stefanie da Silva.

I

magine-se um cientista vivendo por volta do século XVII, que propôs uma nova teoria. Seria incrível, não seria? Mas, e se você demorasse dias ou meses para realizar uma operação matemática essencial para comprovar os seus estudos, já que não existia calculadora ou qualquer outra ferramenta de cálculo mais avançada do que os próprios dedos? Foi assim que John Napier percebeu a neExpoente Resultado

1 2

cessidade de criar um mecanismo facilitador utilizado até os dias atuais. Esse instrumento, o logaritmo, possibilita a realização de cálculos duas vezes mais rápido. John Napier foi quem inventou a ideia da matemática abstrata do logaritmo há cerca de 400 anos. Nascido no século XVI na Escócia, John era um grande estudioso. Foi para a Universidade St. Andrews aos treze anos para aprimorar seus conhecimentos, além 2 4

3 8

de, posteriormente, ser teólogo, astrólogo e matemático. Napier era, também, dono de muitas terras e sempre buscou formas de aumentar sua produtividade e, consequentemente, seu lucro. Ele viveu em uma época em que diversos cientistas estavam tentando concluir suas pesquisas, mas, para isso, precisavam realizar cálculos com alto grau de complexidade. Essas contas tomavam muito tempo dos pesquisadores,

4 16

5 32

66

6 64

7 128

1EMVF

adiando a conclusão de seus trabalhos. Assim, John decidiu inventar uma forma de facilitar os cálculos por meio de tabelas, criadas manualmente, com os termos de uma sequência geométrica. Baseado na operação matemática da potenciação xa=b, onde x é a base, a é o expoente e b é o resultado, obtém-se a seguinte tabela ao utilizar o número dois como base:

8 256

9 512

10 1.024


A explicação é bem simples: quando o expoente de dois é um (2^1), o resultado é “dois”; quando o expoente é dois (2^2), o resultado é quatro, e assim sucessivamente. Desse modo, por exemplo, se quisermos saber o resultado da multiplicação de 8 por 64, podemos buscar na tabela as respectivas potências de base 2, que são 2³ e 26. Como a soma das potências é 9, basta encontrar na tabela o valor referente ao expoente nove, que é 512. Pense então como esse método é facilitador para 25,75 x 18,17! As primeiras tabelas, como as do exemplo acima, foram criadas por John Napier e Jost Bürgi com todos os inteiros inferiores a 1000. Logo depois, Henry Briggs aperfeiçoou-as apresentando os logaritmos decimais. Hoje, não as utilizamos no cotidiano devido à invenção da calculadora, que é capaz de determinar o valor de qualquer logaritmo na

base dez, mas nem por isso o logaritmo perdeu sua importância. Com o desenvolvimento da Matemática e das Ciências, verificou-se que muitos fenômenos físicos e biológicos podem ser representados pelas funções logarítmicas. Ele é, portanto, um instrumento de interpretação de variadas situações. Na Matemática Financeira, ele facilita a resolução de juros compostos. Na Geografia, é possível descobrir taxas demográficas de um país como, por exemplo, a taxa de crescimento populacional. Ele também é aplicado na Química, quando, por exemplo, se quer saber em quanto tempo determinado material radioativo se desintegrará, ou para determinar o fator de proteção solar de um produto para esse fim. É também utilizado pela Receita Federal para a fiscalização de declarações de rendimentos. Assim como outras fer-

ramentas, o logaritmo aprimora a Matemática e ajuda a humanidade a descobrir cada vez mais sobre a Geometria e a Aritmética, que estão presentes na natureza e em todo o Universo ao nosso redor, permitindo uma descrição mais aprimorada da realidade que nos cerca. Seria difícil para alguns leitores entender a aplicação prática do

logaritmo e até sua definição; por isso, se há alguma curiosidade, é só esperar, pois no Ensino Médio, você aprenderá tudo sobre ele. Para quem está se preparando para o ENEM (Exame Nacional do Ensino Médio) e para os vestibulares, estão aqui algumas propriedades para ajudar na hora da prova:

Por meio dessas propriedades, é possível resolver cálculos mais complexos de um modo mais simples, pois operações como potências são substituídas por adição e subtração.

John Napier, inventor da matemática abstrata dos logaritmos.

67


NEWTON: PRINCÍPIOS DA FILOSOFIA NATURAL E O CÁLCULO NUMÉRICO Profs. Orientadores: Rafael Cajano e Rubens Dechechi Alunos: Amanda Nocera, Ana Carolina de Moraes, Bruna Lohmann, Caio Ishikawa, Cássia Colossale, Gabriel Corrêa, Gustavo Serizawa, Jaqueline Bispo, João Felipe Borges, Jonas Souza, Jonatas da Silva, Matheus Bueno, Pedro Henrique Moya, Thifany Costa.

V

ocê, com certeza, já deve ter feito cálculos utilizando os números, seja na escola, em aulas de Matemática ou de Física, seja em outros lugares em diversas situações. Você também deve ter percebido que nem todos os resultados são exatos, sendo necessário, às vezes, arredondar ou aproximar resultados. Mas você já parou para pensar que essas técnicas só existem porque alguém no passado as inventou? A Filosofia Natural, ou Filosofia da Natureza, foi o termo introduzido pelos antigos gregos para indicar

o estudo objetivo da natureza e do universo físico. Muitos se basearam nesta filosofia, porém, foi Isaac Newton um dos principais personagens deste método. Ele acreditava que a natureza age de modo a simplificar as suas ações ao máximo. No seu livro “Princípios Matemáticos da Filosofia Natural” (Principia), são expostas as principais teorias e leis básicas da Física, como a Lei da Gravitação Universal, da Dinâmica, da Óptica e da Inércia. A partir deste momento, a análise e o cálculo passam a ter mais importância e tomam uma forma mais con-

creta dentro da Filosofia Natural por meio de equações que tinham como função explicar o funcionamento de fenômenos naturais. O cálculo envolvia as operações de adição, subtração, multiplicação, divisão, potenciação, radiciação e frações, tendo como principal objetivo aproximar o resultado o máximo possível do exato. Este método trabalha com grandezas presentes no cotidiano que, na verdade, não são exatas, mas aproximações dentro de um aceitável limite de erro. Em diversas áreas, os pesquisadores recorrem com frequência às técnicas

68

1EMMB

de análise numérica quando os problemas matemáticos enfrentados exigem um tratamento analítico abstrato. Como, por exemplo, na construção de uma ponte em que o engenheiro deseja calcular qual o máximo de peso que ela pode suportar, mas percebe que é impossível chegar a um valor exato utilizando-se de cálculos manuais. O seu trabalho, nesse caso, é utilizar uma lei matemática pela qual ele possa chegar a um resultado aproximado, conseguindo determinar qual será a espessura das bases, o tamanho, o material a ser utilizado


etc. Por serem cálculos de complexidade elevada, os profissionais costumam lançar mão de programas computacionais que os auxiliam a encontrar uma solução para seu problema. De fato, nos anos recentes, nenhuma área da Matemática cresceu tanto quanto a análise numérica. É comum depararmo-nos com situações que só serão resolvidas com este método em diversas áreas, tal como na Engenharia, na Arquitetura, na Computação, na Física, na Economia e até mesmo na Medicina. Na Economia, por ex-

emplo, sua presença possibilita aplicações em métodos que calculam o lucro, o custo, a receita e os juros. Ela é muito usada, por exemplo, na Bolsa de Valores, que a utiliza na programação de com-

putadores, através de equações que buscam uma conclusão referente a um lucro em relação a um montante. Até mesmo na Química vemos a sua utilização, cujo cálculo influi na produção de remédios

69

e alimentos. Na Física Médica (em áreas como a Radioterapia, Braquiterapia e de diagnósticos), o método de Monte Carlo, que tem a função de realizar simulações matemáticas, é amplamente utilizado com o objetivo de encontrar variáveis que necessitam de precisão. Enfim, com o avanço de novas tecnologias, essas técnicas tendem a se aprimorar ainda mais, proporcionando assim uma probabilidade maior de encontrarmos valores cada vez mais exatos e um mercado de trabalho promissor no futuro.


O HOMEM QUE LECIONAVA Prof. Orientador: Dino Chiarelli. Alunos: Caio Fagonde, Caue Morelis, Erik Seiki, Jader Silva, Jhonatan Cândido, Vinicius Ribeiro.

V

ocê sabe o que é comemorado no dia 6 de maio? O Dia Nacional da Matemática! Esta data foi escolhida para ser o dia da Matemática em homenagem a Julio Cesar de Mello e Souza, professor dessa disciplina e escritor brasileiro. “O Homem

QUEM FOI JULIO E COMO ELE SE TORNOU MALBA TAHAN Julio Cesar de Mello e Souza nasceu no Rio de Janeiro, em 6 de maio de 1895. Seu pai, João de Deus de Mello

1EMVE

que Calculava”, sua obra de maior sucesso (e um dos maiores sucessos de venda da literatura brasileira em todo o mundo) já foi traduzida em doze línguas. O pseudônimo que Mello e Souza utilizou na grande maioria dos seus 69 livros de contos foi Malba Tahan.

e Souza, fundou uma escola em Queluz, onde sua mãe também passou a trabalhar. Devido a um declínio econômico, a escola teve de ser fechada, e o casal se mudou para o Rio de Janeiro, onde João conseguiu um trabalho no

Ministério na Justiça. Contudo, dificuldades encontradas por eles os fizeram retornar para Queluz, onde Júlio passaria sua infância. Aos 12 anos, editou uma revista chamada ERRE!, feita inteiramente por ele, na qual surgiu seu primeiro pseudônimo, Salomão IV. Em 1906, retornou ao Rio de Janeiro, formando-se posteriormente como professor na Escola Normal. Apesar de ser reconhecido como grande matemático e professor dessa disciplina, a princípio ele ensinava História e Geografia; depois, passou a dar aulas de Física

70

e, por último, tornou-se professor de Matemática. Julio percebeu que, em sua época, era muito mais fácil conseguir publicar um trabalho de um autor internacional, e combinando isso a seu conhecimento de História e seu gosto pelo povo árabe, criou pseudônimos como Salomão IV, R. V. Slady, e aquele pelo qual seria conhecido (e inclusive confundido): Malba Tahan. Este último personagem foi criado como autor de diversos de seus livros. Seu primeiro livro com esse pseudônimo foi “Contos de Malba Tah-


an”, de 1925, mas sua obra mais famosa é “O Homem que Calculava”, de 1938.

Sua Obra Prima: o Homem que Calculava “O Homem que Calculava” conta a história de um jovem árabe chamado Beremiz, que viaja para Bagdá. Chegando lá, ele se torna professor da jovem Telassim, por quem se apaixona. Busca então uma

forma de se casar com ela. Durante sua jornada, ele resolve diversos desafios matemáticos, como o do Beremiz e os Camelos. Mesmo após 76 anos de seu lançamento, o livro continua sendo lido até hoje, inclusive como fonte para debates sobre a educação e o ensino da Matemática, sendo atualmente um clássico da literatura infanto-juvenil. Julio Cesar de Mello e Souza foi um homem

importantíssimo para a Matemática no Brasil, pois, com sua eloquência e criatividade, mudou a forma como se ensina a matéria. Graças a seus livros, seu trabalho como professor e sua paixão pelo ensino da Matemática, por meio de desafios e jogos, tanto Julio quanto Malba Tahan, apesar de estarem mortos, permanecem vivos entre nós, ensinando Matemática aos jovens, como ensinaram

meio século atrás. Nós nos referimos às “suas mortes”, mesmo sendo Malba Tahan um pseudônimo, devido à importância deste nome na literatura matemática, que muitas vezes chega a ser mais reconhecido que o nome de seu próprio criador. Para que você possa se interessar pelas obras de Julio Cesar, veja um dos desafios propostos em sua principal obra:

Beremiz e os Camelos “Beremiz e seu fiel escudeiro viajavam em um único camelo rumo a Bagdá quando se depararam com três homens em uma acalorada discussão acerca da herança – de 35 camelos – deixada pelo falecido pai. De acordo com o testamento, metade da herança iria para o filho mais velho, a terça parte ao do meio e a nona parte ao caçula. Ocorre que a metade da herança corresponde a 17 camelos inteiros e uma metade de camelo, a terça parte resulta em 11 camelos inteiros mais 2/3 de camelo, e a nona parte em 3 camelos inteiros e 8/9 de camelo. Obviamente que as frações de camelos não teriam grande serventia aos homens, exceto para um churrasquinho de final de semana. Além disso, nenhum irmão estava disposto a ceder sua fração de camelo ao outro para poupar a vida de um animal. Como fazer esta partilha se a metade, a terça e a nona partes da herança não são exatas? – É muito simples – atalhou o homem que calculava. – Encarrego-me de fazer, com justiça, esta divisão, se me permitirem que junte aos 35 camelos da herança este belo animal que, em boa hora, aqui vos trouxe. A divisão, neste momento, dos 36 camelos (35 camelos herdados mais o oferecido por Beremiz) é feita com exatidão. O irmão mais velho ganha a metade de 36 camelos, isto é, 18 camelos. O irmão do meio recebe sua terça parte, que corresponde a 12 camelos, e o caçula fica com 4 camelos. – Pela vantajosa divisão feita entre os irmãos – partilha em que todos saíram lucrando – couberam 18 camelos ao primeiro, 12 ao segundo e 4 ao terceiro, o que dá um resultado de 34 camelos. Dos 36 camelos, sobraram, portanto, dois. Um pertence, como sabem, ao Bagdali, meu amigo e companheiro; outro toca, por direito, a mim, por ter resolvido, a contento de todos, o complicado problema da herança. A solução de Beremiz ao problema da herança dos 35 camelos parece mágica. Mais que isso, é fabulosa. Não cometeria, de forma alguma, o pecado de desvendar os segredos deste desafio matemático. Vou deixar a você, meu caro leitor, o prazer de solucionar o enigma que está por trás do problema.” (JULIO CEZAR “MALBA TAHAN” DE MELO, “O Homem que Calculava”)

71


O CÓDIGO BINÁRIO E A LÓGICA NA INFORMÁTICA Prof. Orientador: Rubens Dechechi Alunos: Aline Primavera, Caio Henrique de Morais, Gabriele Pinhão, Giovanna Cristinag, Giovanna Sivério, Giulliano Teruya.

Código binário: 11111011110

C

omo assim 11111011110? Pois é, estes bits significam 2014! Ficou curioso? Talvez confuso? Continue lendo e você descobrirá inúmeras coisas e o que está por trás desses dígitos! O sistema binário, ou base 2, é um sistema de numeração em que todas as quantidades se representam com base em dois números, o zero e o um (0 e 1). E é dessa forma que os computadores trabalham, utilizando apenas dois valores para manipular qualquer informação. Isso quer dizer que todas as operações que o computador faz,

desde permitir-nos escrever um simples texto até participar de jogos em terceira dimensão são realizadas utilizando apenas esses dois valores. Vale ressaltar que o sistema que utilizamos diariamente em nossa vida cotidiana é o sistema de base dez, chamado também de base decimal. Os símbolos matemáticos utilizados para representar um número no sistema decimal são: 0, 1, 2, 3, 4, 5, 6, 7, 8, e 9. Nós, seres humanos, fomos “treinados” para trabalhar com a base decimal. Ela é a ideal para nós. Mas, para os computadores, a base binária é a que funciona. O sistema binário é base para a Álgebra Booleana (de George

Boole), que permite fazer operações lógicas e aritméticas usando-se apenas dois dígitos ou dois estados (sim e não, falso e verdadeiro, tudo ou nada, ligado e desligado). Toda eletrônica digital e computação estão baseadas nesse sistema, que permite representar, através de circuitos eletrônicos digitais (portas lógicas), os números, caracteres, realizar operações lógicas e aritméticas. Nos computadores, esses zeros (“0s”) e uns (“1s”) são chamados de dígitos binários ou somente bit (conjunção de duas palavras da língua inglesa binary digit), que é a menor unidade de informação dos computadores. São eles que formam qualquer informação; porém,

72

1EMVD

um bit sozinho é apenas um sinal qualquer. Para que eles possam realmente formar uma informação, precisam ser agrupados, reunidos. Esses grupos podem ser de 8, 16, 32 ou 64 bits. Os programas de computadores são codificados sob forma binária e armazenados nas mídias (memórias, discos etc.) sob esse formato. Dado um número N, binário, para expressá-lo em decimal, deve-se escrever cada número que o compõe (bit), multiplicado pela base do sistema (base = 2), elevado à posição que ocupa. A soma de cada multiplicação de cada dígito binário pelo valor das potências resulta no número real representado.


Exemplo de código binário: 101 = 5

1º) O número 1 é multiplicado por 2° = 1 2º) O número 0 é multiplicado por 21 = 0 3º) O número 1 é multiplicado por 22 = 4 4º) Somam-se os resultados: 1 + 0 + 4 = 5

Com o exemplo acima, você se arriscaria a converter 10110 para o número 22? Tudo no computador é salvo em forma de código binário, mas, para nós, é “traduzido” para compreendermos. O processador realiza as contas (que vão além de soma e subtração) muito rapidamente. Quando você faz uma

ação no computador, como digitar uma letra ou manusear o mouse, o computador não tem a informação da letra, mas sim o registro dela transformado em código binário. Em nosso cotidiano, é comum ouvir frases como “era digital” ou “sistemas digitais”. Mas, o que é digital? Resumidamente, dig-

ital é tudo aquilo que pode ser transmitido ou armazenado através de bits. Curiosidade: como foi dito anteriormente, não são só os números que recebem um código binário. Na tabela ao lado temos algumas letras e seus respectivos códigos:

Letra A a B b Y y Z z

Código 1000001 1100001 1000010 1100010 1011001 1111001 1011010 1111010

A Evolução do código Binário 500 AC - O matemático indiano Pingala apresentou a primeira descrição conhecida de um sistema numérico binário no século III AC. 1676 - Leibniz explorou de uma nova maneira as potencialidades da Matemática; inspirado pelo livro I Ching, aperfeiçoou as combinações de uns e zeros, que constituíram o moderno sistema binário. Atribuindo um significado místico à sua conceituação, viu no 0 o nada e no 1 Deus, e a combinação entre ambos era o Universo. 1847 - O inglês George Boole publicou um artigo chamado “A Análise Matemática da Lógica”, que descreve a Álgebra Booleana, baseada no código binário: um sim-não, a abordagem on-off, com três operações básicas: AND, OR e NOT. 1854 - O matemático britânico George Boole publicou um George Boole, escritor do primeiro artigo do que se tornaria a Álgebra Booleana. artigo fundamental detalhando um sistema lógico que se tornaria conhecido como Álgebra Booleana. Seu sistema lógico tornou-se essencial para o desenvolvimento do sistema binário, particularmente, sua aplicação a circuitos eletrônicos. 1937 - Claude Shannon produziu sua tese no MIT que implementava a Álgebra Booleana e a aritmética binária utilizando circuitos elétricos pela primeira vez na História. Intitulada “A Symbolic Analysis of Relay and Switching Circuits”, a tese de Shannon praticamente fundou o projeto de circuitos digitais.

73


apple x microsoft

o duelo da matemática no vale do silício Prof. Orientador: Rafael Cajano e Rubens Dechechi Alunos: Beatriz Soares, Beatriz Stocco, Carolina Bernardi, Felipe Ribeiro, Filipe Marques, Guilherme Moda, Gustavo Mitsunaga, Jéssica Canuto, Kauan Manzato, Lucas Miyano, Monik dos Santos, Raquel Canoso, Tainna Cunha, Vinícius Amadeu.

O

Vale do Silício é uma região situada na Califórnia, Estados Unidos, que concentra a maioria das empresas mundiais do ramo da informática, da comunicação e das inovações tecnológicas. O início do desenvolvimento da região foi em 1950, quando o objetivo era gerar e incentivar inovações no campo científico e tecnológico. Seu nome se deve à matéria-prima muito utilizada, o silício, na fabricação de semicondutores em equipamentos eletrônicos e fundamental na produção de peças, chips e placas de aparelhos eletrônicos. Pelo fato de ser uma região com excelente custo de produção, ela se tornou um centro de projetos inovadores e de alta tecnologia, concentrando as maiores empresas mundiais como: Facebook (site e serviço de rede social que atingiu a marca de 1 bilhão de usuários ativos); Google (empresa multinacional de serviços on-line e softwares, administradora

1EMVE

do site de buscas Google, desenvolvedora do sistema operacional móvel Android); Ebay (uma das principais lojas virtuais utilizadas mundialmente); Yahoo (portal de serviços da Internet global utilizado para pesquisas, correio eletrônico, notícias e entretenimento); HP (empresa líder nos campos da computação, impressão, tratamento de imagens e softwares); Intel (empresa do ramo da informática que fabrica circuitos, placas e peças para computadores); Adobe (desenvolvedora de programas para computador); Oracle (empresa multinacional de tecnologia e informática especializada no desenvolvimento e comercialização de hardware, softwares e banco de dados); Nvidia (empresa multinacional que fabrica peças de computador, conhecida popularmente por sua série de placas de vídeo GeForce); Electronic Arts (editora de jogos para computador e para videogame, popularmente conhecida pela edição das séries de jogos Battlefield, Need for Speed, Fifa e

74


The Sims); Symantec (especializada em segurança da Internet e em redes para usuários domésticos e corporações, com proteção de antivírus, análise de vulnerabilidades, detecção de intrusos, filtragem de conteúdo e de e-mail, que produz a linha de produtos Norton) e a AMD (empresa fabricante de circuitos integrados, especialmente de processadores). Além dessas, encontramos naquele local outras empresas de grande importância mundial como a Apple

e a Microsoft, principais desenvolvedores de tecnologia na área da tecnologia da informação. As empresas disputam tanto a venda de seus produtos quanto o espaço do Vale do Silício. Essa disputa iniciou-se já na implantação das empresas, quando foram criadas, e se mantém até os dias atuais, quando elas disputam vendas de produtos concorrentes. A história se inicia em 1976, quando os jovens Steve Jobs e Steve Wozniak, apaixonados por inovação, faziam

parte de um grupo que montava seus próprios computadores de forma bastante artesanal. As ideias nasceram em um dormitório da faculdade onde a Apple Computers Inc. surgiu, trazendo à tona o Apple I, projeto de um computador bastante avançado para a época. Outros jovens visionários, Bill Gates e Paul Allen, se conheceram ainda no colégio, onde compartilhavam um interesse em comum: computadores. Em 1975, os dois amigos fundaram uma

Vale do Silício

75

pequena empresa chamada Microsoft. No início, Apple e Microsoft eram empresas irmãs, até que Bill Gates, após oficializar uma parceria, copiou a interface de um de seus produtos (Macintosh) e vendeu uma versão parecida ao Japão, levando Jobs a terminar a aliança por não mais confiar em seu parceiro. Hoje, Apple e Microsoft concorrem em várias áreas do mercado, travando uma briga ideológica e tecnológica no mundo digital.


A EVOLUÇÃO DA INFORMÁTICA William Henry Gates III já nasce rico. Seu pai era advogado de grandes empresas, e sua mãe foi professora da universidade de Washington e diretora de bancos na cidade industrial de Seattle, Estado de Washington. Aos 13 anos, foi internado numa escola para pequenos gênios.

1955

Foi anunciado o lançamento do primeiro microcomputador da história: o Altair 8080. De bate-epronto, Gates liga para os caras oferecendo o Basic, um software que poderia funcionar no Altair. Era mentira, pois ele e seu parceiro, Paul Allen, ainda não tinham escrito uma só linha de código. Em poucas semanas, ainda estudando em Harvard, a dupla conseguiu criar uma demo do “produto”. Era o início do mercado de software.

Steven Paul Jobs nasce em São Francisco. Seus pais biológicos o ofereceram para adoção. Foi adotado pela família Jobs da cidade de Mountain View, Califórnia, localizada numa região vizinha a São Francisco, que virou o famoso Vale do Silício.

O nome Microsoft é registrado. Gates e Allen lançam a versão 2.0 do BASIC e conquistam novos clientes, como Citibank e General Eletric. Progredindo num mercado extremamente novo, deparam-se com um problema que a Microsoft sempre enfrentaria: a pirataria. Gates torna um dos primeiros empresários a combatê-la, divulgando uma carta aberta contra a prática.

1974

Bill Gates, então com 19 anos, funda a Microsoft, em parceria com Paul Allen. O primeiro produto comercial da empresa foi o Altair BASIC, software para o MITS Altair produzido no mesmo ano.

1975

Altair 8080.

1976

Já com a marca de vendas batendo 1 milhão de dólares, a Microsoft abre um escritório de vendas em Tóquio associada a uma editora japonesa voltada a publicações sobre informática e games, dando o primeiro passo em direção à internacionalização da marca.

1977 Incentivados pelo sucesso do Apple I, Jobs e Woz dão continuidade ao projeto. O Apple II, primeiro computador pessoal produzido em larga escala, era equipado com monitor colorido, teclado, leitor de disquetes e mais memória que seu antecessor, além de muito mais compacto.

Jobs é apresentado ao computador pessoal criado por, Steve Wozniak, numa reunião do clube de computação que participavam. Jobs percebe o potencial da máquina, que integrava tela e teclado e usava um chip, e convence Woz a comercializá-la. No dia 1º de Abril, é assinado o contrato de parceria e nasce a Apple. Na garagem de Jobs, a sociedade com Woz dá seu primeiro fruto: o Apple I. Para viabilizar sua encomenda de 25 microcomputadores, Jobs e Woz vendem suas maiores posses na época: um furgão e uma calculadora científica. Os U$1.300 foram investidos no projeto e convertidos em 175 unidades vendidas em dez mês, a U$666,66 cada.

76


PC com o MS-DOS.

1980 Apple abre seu capital, lançando 4.600.000 ações de 22 dólares cada. O primeiro ano fiscal na bolsa é um grande sucesso, devido principalmente à popularidade da empresa no setor da educação.

A Microsoft alcança a posição de primeira empresa bilionária de software. A justiça, porém, passou a investigar a companhia, acusando-a de praticar preços anti-concorrência e de impedir a utilização de aplicativos de outras empresas em seus sistemas operacionais. As investigações continuaram até que a Microsoft concordasse em alterar os contratos com os fabricantes de PCs e eliminar as restrições sobre o uso de softwares concorrentes.

1990

A IBM lança seu primeiro computador pessoal, tendo um ano antes feito um contrato com a Microsoft para desenvolver o sistema operacional da máquina: o MS-DOS. O lançamento conjunto foi o estopim para o crescimento da Microsoft, mesmo que alguns anos depois o software fosse muito criticado por sua baixa capacidade e poucos recursos gráficos.

1983 É lançado o computador Lisa, com uma inovadora interface gráfica e mouse. Acaba por ser um fracasso de vendas devido ao seu preço inacessível. No ano seguinte, porém, o lançamento do Macintosh, com seu sistema operacional revolucionário que substituía comandos complicados por ícones simples e preço bem mais competitivo foi sucesso instantâneo de vendas.

1981 Apple enfrenta briga judicial contra a AppleCorps, dos Beatles. Mesmo tendo pago uma quantia de 80.000 dólares e feito um acordo de não se envolver mais no ramo da música, a empresa desenvolveu computadores e outros dispositivos capazes de tocar arquivos de música posteriormente, gerando inclusive novos processos.

Lisa.

A Microsoft abre o seu capital internacional, a 21 dólares por ação. As vendas cresciam cada vez mais e muito rapidamente. É aberta a primeira subsidiária da Microsoft no Brasil. Como entrada dos produtos da empresa era antes proibida, diversos fabricantes brasileiros pirateavam softwares como o MS-DOS. Alguns desses fabricantes insistiram na prática, gerando processos e multas posteriores.

1986 77

Anunciada em 1983, entra no mercado a primeira versão do Windows, evolução e complemento do MS-DOS. O desenvolvimento do sistema só foi possível pelo acordo com a Apple, que permitia a Microsoft a utilizar o sistema de interface gráfica do Macintosh. Anos depois, o acordo foi motivo de disputa: Apple acusou a Microsoft a passar dos limites nas versões posteriores do Windows.

1985 Convidado dois anos antes para a empresa, o ex-presidente da Pepsi John Sculley convence o conselho de diretores da Apple a demitir Jobs. Afastado de sua própria empresa, Steve Jobs fundou a NeXT e comprou um dos cineastas por trás do primeiro longa-metragem 100% animado, Toy Story.


A EVOLUÇÃO DA INFORMÁTICA

1993

1991 Na tentativa de bater a concorrência, a Apple faz uma parceria com a IBM, a maior fabricante de computadores da época, e com a Motorola, líder no setor de chips.

Lançado o Message Pad, conhecido como Newton, um dos primeiros assistentes pessoais digitais da história. Por ser grande e caro (699 dólares), mesmo sua funcionalidade não fez com que ele deslanchasse. O surgimento dos Palm Tops só abafou mais sua venda, ocasionando o cancelamento da produção.

Encabeçando a lista de homens mais ricos do planeta, Gates e sua empresa lançam o Windows 95, com 20 milhões de cópias vendidas nos primeiros quatro meses.

1995

Para a surpresa de todos, a Microsoft compra 150 milhões de ações da Apple, salvando-a da falência. Por trás de tudo, havia um acordo: o Internet Explorer, da Microsoft, seria embutido em todos os computadores da Apple. O software já estava integrado ao Windows, e essa e outras ações como a compra do Hotmail permitiram à Microsoft virar o jogo no terreno virtual, esmagando as outras empresas de browser.

1997

Message Pad.

1998 A Apple lança o iMac. Com design arrojado e que facilitava seu transporte, o produto foi sucesso de vendas e antecedeu o novo computador portátil da marca: o iBook.

A Microsoft, depois de ser acusada por práticas “monopolistas, anticompetitivas e predatórias”, perde a briga judicial e é obrigada a dividir a empresa em duas: uma, produtora de aplicativos, e outra, produtora do Windows. Depois de dez anos, após ter perdido 200 bilhões de dólares e o posto de mais valiosa do planeta, a empresa consegue anular a ordem de divisão.

2000 78

Uma série de erros estratégicos fez com que a fatia de mercado da Apple caísse muito, bem como o preço de suas ações. Jobs foi convidado a voltar para a Apple, que comprou a NeXT e foi salva pela compra de ações feita por Gates, que ocasionou o crescimento em 40% das ações da Apple.


Xbox.

A Microsoft lança o Office e o Windows XP, que tiveram um desenvolvimento de alto custo, mas foram sucesso de crítica e de vendas. No mesmo ano, a marca lança o videogame Xbox, para competir com a Sony e a Nintendo.

Gates, aos seus cinquenta anos, anuncia a sua aposentadoria. Disse que continuaria no controle da empresa apenas até julho de 2008, com o objetivo de se dedicar integralmente à Bille Mellinda Gates Foundation, instituição filantrópica que mantém junto com sua mulher. A empresa recebeu o anúncio em seu auge, mesmo com os sérios ataques sofridos nos quatro anos anteriores por novas empresas em terrenos estratégicos como internet. O principal concorrente: Google.

2005

2001 Mesmo com seu histórico de disputas com a Apple Corps, a Apple Computer ingressa no ramo da música, com o lançamento do reprodutor de áudio iTunes e o tocador de MP3 iPod, revolucionando a música digital.

2011

Ipod.

2007 2008 A Apple lança o tão esperado iPhone. Com tela sensível ao toque, câmera fotográfica, reprodutor de vídeos e de MP3 e acesso a internet, foi um sucesso de vendas já na primeira semana. Em 2008, logo no início do ano, Jobs comparece à feira do MacWorld para impressionar a plateia, tirando o que a Apple chamou de “o notebook mais fino do mundo” de dentro de um envelope ofício.

Depois s de deixar a direção da companhia devido à luta contra um câncer no pâncreas, Jobs vem a falecer, no dia 5 de outubro. A empresa até hoje é indiscutível sucesso de vendas, sempre entre os tops do mercado. Com os novos produtos, a marca nunca deixou para trás o conquistado por Jobs e Woz, mas há quem diga que, após a perda de seu gênio visionário, a Apple não é mais a mesma.

Primeiro Iphone.

MacBook.

Itunes.

79


Geometria Analítica Prof. Orientador: Luiz Fernando Vanzella. Alunos: Alícia Camacho, Carla Biasoli, Isabela Vilas Boas, Julia Elia, Juliane Abreu, Pablo Machado, Victoria Zini.

R

ené Descartes (1596-1650) é um pensador de grande relevância para a Filosofia e a Matemática. É considerado o pai da Filosofia Moderna por ter inaugurado um período que apresentou certa ruptura com a tradição escolástica que o precedeu. Já na Matemática, é reconhecido graças ao fato de ter sido capaz de relacionar a Álgebra e a Geometria de um modo nunca antes pensado. Descartes teve como uma de suas grandes obras, no campo da Filosofia, O Discurso sobre o Método, que é acompanhado por três ensaios científicos, os quais tinham o objetivo de exemplificar a aplicabilidade de seu método. O terceiro desses ensaios é A Geometria; nele, Descartes apresenta o Sistema de Coordenadas Cartesianas (nome que não foi dado pelo autor), que é uma generalização de construtos algébricos localizados num plano. Em A Geometria, o autor apresenta uma Geometria intima-

mente relacionada à Álgebra, e tal relação ficará conhecida mais tarde como Geometria Analítica e se mostrará como um ferramental importantíssimo para a própria Matemática e para as ciências em geral. A proposta cartesiana, em linhas gerais, tem como objetivo apresentar as construções geométricas em termos algébricos, algo diferente de simplesmente reduzir a Geometria à Álgebra. A intenção de Descartes vai muito além de simplesmente reduzir a Geometria à Álgebra; na verdade, o objetivo é dissociar as construções geométricas de diagramas e figuras utilizando-se de sentenças algébricas e, ao mesmo tempo, manter o significado dos cálculos e sentenças algébricas dentro da própria Álgebra

estabelecendo assim uma união complementar das duas áreas. A Geometria Analítica ou simplesmente GA permite compreender as soluções de um sistema linear de duas incógnitas através de retas em um plano; por exemplo, o ponto de intersecção entre duas retas é a solução de um sistema linear. A solução desse tipo de sistema pode também ser expressa unicamente em termos algébricos. A GA começa a ser estudada desde muito cedo. Ela está presente no conteúdo curricular da disciplina de Matemática para o Ensino Básico e, para os estudantes de áreas afins às exatas no Ensino Superior. Além disso, ela apresenta diversas aplicações na Física, nas Engenharias e nas ciências em geral. Em nossos dias,

80

1EMVE

é o fundamento de aparatos tecnológicos relativamente recentes como, por exemplo, o GPS e todas as suas aplicações, ou ainda, na Cartografia, onde já é aplicada há muito tempo. A contribuição cartesiana não se esgota na GA. Descartes oferece uma intrincada Filosofia Natural e seu Método é uma ferramenta que extrapolou o âmbito filosófico e se estabeleceu também em outras áreas. Em outros termos, René Descartes nos deixou o legado da “nova ciência”.


81


82


EDITORIAL “A crise contemporânea do Ensino de Ciências, evidenciada pelos altos índices de ‘analfabetismo científico’ e evasão de professores e alunos das salas de aulas de ciências, [...] contribuiu para que uma maior atenção recaísse sobre as abordagens contextuais do Ensino de Ciências.”

E

ssas abordagens contextuais podem ser o caminho para uma educação científica de qualidade. Nesse sentido, a história da ciência é uma área em expansão em todo o mundo, pois, representa um espaço de reflexão e contextualização das ciências. Sendo ela a interface das múltiplas áreas do conhecimento, a história da ciência é uma grande viagem a um labirinto fascinante e complexo. Cada vez mais, torna-se necessário que as escolas tenham a iniciativa de colocar a história da ciência em pauta. Com o positivismo, a revolução industrial e a necessidade de mão de obra especializada percebe-se que no século XIX houve uma fragmentação e superespecialização do conhecimento. A história da ciência, de certa maneira, é uma importante ferramenta de resgate à interdisciplinaridade, nos mostrando que um fenômeno natural pode ser biológico, químico e físico ao mesmo tempo. Pensando nisso, a presente seção traz artigos, escritos sob a ótica da história da ciência, desenvolvidos pelos alunos e orientados pelos professores de ciências da natureza do CEFSA. Esses trabalhos tratam de temas tão vastos que vão: da alquimia à química moderna; de Newton à física do esporte; desde a invenção do microscópio até o desenvolvimento de antibióticos, a biotecnologia e a Engenharia Genética. Aceite o convite para descobrir os caminhos e atalhos, refletindo sobre o passado, o presente e o futuro da ciência. Desejamos a todos uma agradável e frutífera leitura! Cesar de Barros Lobato

¹ C. N. El-Hani, “Notas sobre o ensino de história e filosofia da ciência na educação científica de nível superior”, in C. C. Silva, org., Estudos de história e filosofia das ciências: subsídios para aplicação no ensino, p. 3.

83


Alquimia: A Química Antiga Prof. Orientador: Edson Camarini Alunos: Alline Alvarez, Beatriz Dias, Gabriel Navarro, Gabriel Pigato, Guilherme Souza, Gustavo Ortolan, Juliana Tamashiro.

P

raticada na Idade Média, a Alquimia envolvia o estudo da atual Química, Física, Astrologia, Magia, Arte, Metalurgia e Religião. O século XIII é definido como o momento do nascimento da Alquimia clássica, mas muito antes disso ela já começava a se desenvolver simultaneamente entre os árabes, egípcios, gregos e chineses. Ela teve início devido à mistura de três correntes: o misticismo oriental, a filosofia grega e a tecnologia egípcia. Mas, em razão das invasões islâmicas a partir do século XII, a Alquimia foi introduzida primeiramente na Espanha e depois disso se disseminou por toda a Europa. As primeiras bases teóricas da Alquimia foram lançadas entre os séculos VIII e XIII. Alguns acham que a palavra “Alquimia” vem da expressão árabe “al Khen”, que significa “o país negro”, nome dado ao Egito na Antiguidade, e que é uma referência ao hermetismo (estudo e prática da filosofia oculta e da magia, de um tipo associado a

escritos atribuídos ao deus Hermes Trismegistus), com o qual a Alquimia tem relação. Outros pensam que está relacionada com o vocábulo grego “chyma”, que se relaciona com a fundição de metais. O principal objetivo da época era encontrar o elixir da vida, substância a qual proporcionaria a cura para todas as doenças e, consequentemente, a vida eterna. Outro ponto principal do estudo da Alquimia era a Pedra Filosofal, substância que tinha o poder de transformar qualquer objeto metálico em ouro.

A Alquimia tinha metas com valor simbólico que visavam à transmutação espiritual. O Elixir da Vida é também um ponto importante na filosofia da ioga. Os elementos essenciais dos trabalhos alquímicos eram: fogo, ar, água e terra. Na Alquimia, é muito frequente a utilização dos astros para se referir às substâncias alquímicas, da seguinte maneira: - O Sol com o ouro; - A Lua com a prata; - Mercúrio com o mercúrio; - Vênus com o cobre;

84

1EMVF

- Marte com o ferro; - Júpiter com o estanho e - Saturno com o chumbo. A Alquimia, atualmente, não é considerada uma ciência baseada no conhecimento e no rigor científico, e sim uma visão espiritual mais preocupada com antigas tradições do que com a descoberta de coisas novas, além de ser considerada a ancestral da Química e da Medicina modernas. Muitas descobertas podem ter sido feitas naquela época, só que não temos conhecimento delas, pois a maio-


ria dos alquimistas não registrava ou divulgava seus trabalhos e descobertas. Portanto, não é possível saber ao certo a quantidade de experiências que podem ter sido feitas naquele tempo. Muitos alquimistas, durante a Idade Média, foram acusados de ter pacto com o demônio e, por esse motivo, foram presos, excomungados e queimados vivos na fogueira pela Inquisição da Igreja Católica. Um dos alquimistas mais importantes foi o francês Nicolas Flamel, que escreveu muitas obras a respeito da Alquimia e, principalmente, relatos sobre sua busca da Pedra Filosofal. Na Antiguidade, alguns elementos descobertos pelos alquimistas foram: ouro, prata, ferro, carbono e enxofre. Outro alquimista importante foi Henning Brand, um mercador e alquimista alemão. Brand descobriu o elemento químico fósforo em 1669 ao destilar uma mistura de urina e areia, na procura da pedra filosofal. Ao vaporizar a ureia, obteve um material branco que brilhava no escuro e ardia como uma chama brilhante. Por este efeito, Brand deu-lhe esse nome (do latim phosphŏrus, e este do grego φωσφόρος = “Fonte de Luz”). Esta descoberta foi mantida em segredo até 1675. Outro elemento desc-

oberto no tempo da Alquimia foi o ácido clorídrico, pelo alquimista persa Jabir Ibn Hayyan por volta de 800 DC. Ele misturou ácido sulfúrico (H₂SO₄) e cloreto de sódio (NaCl), (H₂SO₄ + 2 NaCl Na₂SO₄ + 2 HCl) encontrando o novo elemento (HCl). Jabir descobriu ou inventou um grande número de produtos químicos e relatou suas descobertas em mais de vinte obras, que permitiram a propagação de seus conhecimentos sobre o ácido clorídrico e outros produtos químicos através dos séculos. A água régia, sua invenção, uma mistura do ácido clorídrico com o ácido nítrico, permite dissolver o ouro, e foi resultado de uma experiência sua na famosa busca dos alquimistas pela Pedra Filosofal. A alquimista que mais se destacou foi Maria, mais conhecida como “A Judia”. Por sua causa, dá-se nome hoje ao famoso método “banho-maria”, que foi concebido aproximadamente no ano de 300 DC. Maria desenvolveu vários equipamentos para sublimação, decantação, destilação e separação de materiais utilizados na constante busca dos alquimistas pela Pedra Filosofal. Segundo Aristóteles, o enxofre era considerado a expressão do elemento fogo, e Maria o tomou como base para os

Símbolos dos elementos químicos da Alquimia

principais processos que estudou. Ela menciona o enxofre em frases sempre misteriosas como “uma pedra que não é pedra” e “tão comum que ninguém a consegue identificar”. A alquimista conta que Deus lhe revelou uma maneira de calcinar (transformar em cal pela ação do fogo, submeter à temperatura muito elevada) cobre com enxofre para produzir ouro. Talvez tenha sido essa a origem da lenda da transformação de metais menos nobres em ouro. O marco da transição da Alquimia para a Química atual são os registros. A partir do momento em que as experiências e descobertas são registradas, tem início a Química que conhecemos hoje, a Química Moderna. Atualmente, a Alquimia ainda é mencionada em filmes, livros, séries, entre outros. Um grande exemplo é o filme e o livro de J. K. Rowling, Harry Potter e a Pedra Filo-

85

sofal, no qual o vilão da história, Voldemort, procura o objeto na tentativa de alcançar a vida eterna. Mesmo que não seja atual, a Alquimia foi de grande importância para o mundo moderno, já que os alquimistas deixaram receitas sobre a obtenção de pólvora, de alguns ácidos, bases e sais, do álcool através da destilação do vinho. Supõese que os elementos arsênio, antimônio, bismuto e zinco também foram obtidos por eles. Talvez os principais legados dos alquimistas sejam a técnica e a aparelhagem utilizadas. Eles desenvolveram destilações, cristalizações, aparelhos para refinar metais e obter ligas (metalurgia), enfim, foram os autores das práticas de laboratório. E estas colaborações foram de grande importância para o mundo moderno.


a descoberta do Gás oxigÊnio Prof. Orientador: Edson Camarini Alunos: Aurélio Paiva, Douglas Lopes, Erick Santos, Gustavo Oliveira, João Marcos, Maria Eduarda, Vitor Henrique.

O

gás oxigênio (do grego “oxis” = ácido, e “genes” = produtor) é um gás incolor, inodoro e insípido (ou seja, sem cor, sem cheiro e sem gosto), pouco solúvel em água, fazendo-se presente na natureza sob a forma de três isótopos estáveis: o oxigênio 16 (presente em 99,75% das ocorrências no meio ambiente); o oxigênio 17 (0,37% das ocorrências) e o oxigênio 18 (0,20% das ocorrências). Em temperatura ambiente, sua molécula é inerte; na presença, porém, de substâncias catalisadoras ou ao receber calor, reage com grande parte dos elementos

químicos originando diversos compostos. Os responsáveis pela descoberta do oxigênio foram o inglês Joseph Priestley (1733-1804) e o francês Antoine Lavoisier (1743-1894). Joseph Priestley percebeu a presença de outro elemento por meio de uma experiência de calcinação do óxido de mercúrio. Priestley observou que, à medida que a reação ia ocorrendo, formava-se nas paredes da retorta um pó vermelho, o óxido de mercúrio II e, ao mesmo tempo, o volume do mercúrio na cuba ia subindo. Isso significava que o volume de ar estava diminuindo, pois ele estava sendo sub-

stituído pelo mercúrio. O próprio Priestley respirou esse gás e escreveu que, até aquele momento, apenas ele e seus ratos haviam feito isso, mostrando desconhecer que o gás era o oxigênio, que ele respirou por toda a sua vida. A reação ocorrida, na linguagem química utilizada atualmente, é a seguinte: O problema de Priestley foi que ele procurou explicar o novo fenômeno usando uma teoria antiga, e não tentou elaborar uma nova. Antoine Lavoisier, químico francês que viveu na mesma época de Priestley, elaborou uma nova teoria. A simplicidade

86

1EMVE

de sua ideia fez desaparecer a teoria do flogístico – nome usado no século XVIII para explicar uma suposta substância que surgia durante o processo de combustão - principalmente depois que novas observações científicas foram sendo feitas. Priestley foi a Paris logo depois dessa experiência com o óxido de mercúrio, e então contou a Lavoisier detalhes da pesquisa. O químico francês já fazia pesquisas com o aquecimento de diversas substâncias. Ele sabia que o óxido de mercúrio perdia massa quando aquecido, mas que substâncias como o fósforo ganhavam massa no aquecimento.


Reação do fósforo branco com o oxigênio do ar. Na queima, o fósforo ganha seis átomos de oxigênio e fica mais pesado. Lavoisier havia feito a mesma experiência que Pristley, mas observou que a massa do mercúrio diminuía enquanto a do ar ganhava a massa com a mesma quantidade que o mercúrio havia perdido. Isto o levou a formular a Lei de Conservação de Massas, que diz: “Em toda transformação, uma quantidade igual de matéria existe antes e depois dessa transformação”. Ou, na frase que ficou famosa: “Na natureza nada se cria, nada se perde: tudo se trans-

forma”; então Lavoisier elaborou uma nova teoria afirmando que a combustão não ocorria por causa da presença de um flogístico misterioso, mas sim, porque o mercúrio ou qualquer outro material combustível reagia com outro elemento presente no ar. Depois, Lavoisier fez outro experimento em que usava uma cuba de vidro sobre uma vela acesa em uma boia com água; foi então que ele observou que à medida que a vela ia se apagando, a água subia. E quando a água atingia um quinto do volume, a vela se apagava totalmente. Suas conclusões foram que: 1) A água subia porque a vela estava consumindo o ar;

2) O “ar desflogisticado” não era o ar atmosférico todo, mas sim, a quinta parte dele. Lavoisier descobriu que esse ar estava misturado com todo o ar atmosférico e que ele era necessário para a queima; sem ele, a queima não ocorria, chegando à conclusão de que ele era composto por 21% de oxigênio e 79% de outro componente, que ele chamou de azoto, um “tipo de ar” que não participava da combustão. Hoje sabemos que se trata do gás nitrogênio. No começo, ele chamou o ar desflogisticado de “ar respirável”, e depois mudou para “ar vital”, mas só em 1778 é que Lavoisier decidiu batizar o “ar vital” de oxigênio. Ele deu esse

nome porque até então seus experimentos o haviam levado à conclusão de que esse novo gás estava presente em todos os ácidos, o que depois se comprovou ser uma conclusão errada. Mesmo assim, o nome permaneceu.

Lavoisier

Priestley

87


um estudo

Modelos atômicos: histórico Prof. Orientador: César Lobato Alunos: Bianca Santorato, Emille de Jesus, Enzo Tersetti, Gabriela Paciulo, Giulia Ribeiro, Leilane Lisboa, Vitória Fernandes.

D

esde tempos remotos, o homem procura compreender a constituição da matéria. Na Antiguidade, diversos filósofos como, por exemplo, Demócrito de Abdera e Leucipo, formularam teorias relacionadas ao tema, que, com o passar dos anos, foram modificadas. Normalmente, no curso básico, é comum a aprendizagem dos modelos atômicos de Dalton, Rutherford, Thomson, Bohr, além do modelo atual. É importante ressaltar, porém, que, para as teorias dos modelos atômicos, tais cientistas foram influenciados e necessitaram da colaboração de outras pessoas que merecem também reconhecimento. Neste artigo, serão abordadas as experiências e as teorias dos principais cientistas, porém, não deixando de citar a atuação de seus colaboradores. John Dalton, cientista inglês, desenvolveu uma teoria sobre a estrutura da matéria retomando as ideias de Demócrito e Leucipo sobre o fato do átomo ser uma partícula indivisível, maciça e indestrutível. Os postulados de Dalton serviram, durante algum

tempo, para explicar as leis ponderais de Lavoisier e Proust, sendo relacionados às mesmas. Contudo, a teoria do inglês foi criticada por seu contemporâneo, o físico e químico alemão Gay-Lussac (17781850), que propôs a Lei Volumétrica de Gay-Lussac, a qual pode ser assim enunciada: “Em uma transformação química em fase gasosa, os volumes dos gases medidos nas mesmas condições de temperatura e pressão combinam-se formando produtos gasosos cujos volumes guardam entre si uma proporção de números inteiros pequenos.” Tal lei contraria Dalton em um de seus princípios fundamentais relacionados à indivisibilidade do átomo. Posterior a Dalton, John

Thomson também contribuiu para a realização de um modelo atômico, contudo, nesta investida, não trabalhou sozinho. Ao pensar na descoberta dos raios catódicos (definidos atualmente como feixe de elétrons que produz luminescência), perguntava-se se estes eram partículas carregadas ou não. Em 1897, Thomson foi capaz de concluir que os raios catódicos eram formados por partículas menores, se comparadas ao átomo, e carregadas negativamente; contudo, não conseguiu definir as propriedades destas partículas de forma mais específica. Desse modo, o físico americano Robert Andrews Millikan conseguiu medir a carga de um elétron e assim possibilitar o cálculo de sua mas-

88

2EMVE

sa. Outro colaborador importante foi Goldstein (1886), que descobriu a existência dos raios positivos, posteriormente denominados prótons. Com a ajuda dos experimentos realizados por estes cientistas, Thomson propôs um novo modelo atômico simples que ficou conhecido como “pudim de passas” e que consiste em uma esfera carregada positivamente, na qual os elétrons de carga negativa ficam anexados. Já em 1909, percebe-se a atuação de outros estudiosos com relação aos modelos atômicos. Rutherford, nascido na Nova Zelândia, realizou diversas descobertas como, por exemplo: radiações alfa e beta, o núcleo do átomo e o próton, além de sugerir a existência do nêutron.


Em 1908, Rutherford lecionava na Universidade de Manchester, onde também estudavam diversos alunos incríveis, entre eles, Johannes Hans Wilhelm Geiger e Ernest Marsden. O mestre pediu aos dois que fizessem o que ficou conhecido como experimento de Geiger-Marsden: eles bombardearam uma folha finíssima de ouro com radiação alfa e mediram o espalhamento dessas partículas. A grande maioria das partículas alfa atravessava a folha em linha reta e apenas algumas eram desviadas da trajetória. O experimento colocou fim à ideia de que o átomo era maciço, além de contribuir para a conclusão de que ele possuía um núcleo de carga elétrica positiva. Contemporâneo ao experimento, o cientista japonês Nagaoka Hamtaro (1865–1950) desenvolveu um modelo para o átomo baseado no planeta Saturno. A estabilidade dos anéis de Saturno se deve ao planeta possuir uma grande massa. Analogamente, Nagaoka propôs um modelo para o átomo em que haveria um núcleo positivo maciço e, girando em torno dele, os elétrons. O modelo de Nagaoka explicava alguns experimentos, mas falhava em outros, e foi abandonado pelo cientista japonês em 1908. Diferentemente, Rutherford decidiu utilizar o sistema planetário inteiro para desenvolver seu modelo. Em 1911,

propôs um novo modelo baseado no experimento Geiger-Marsden e em cálculos complexos; neste, o átomo consistiria em um núcleo muito pequeno no qual toda a massa estaria concentrada, e seria positivamente carregado, enquanto o núcleo seria rodeado por uma nuvem de elétrons. Contudo, o modelo de Rutherford não satisfazia todas as questões referentes ao átomo. Foi então que, em 1913, Niels Bohr propôs outro modelo. Sua história começa durante o doutorado, já que nesse período o cientista começou a interpretar as propriedades físicas dos metais, tendo como base a teoria atômica desenvolvida por Thomson em 1904. O avanço de suas pesquisas e descobertas levou-o até a Inglaterra, onde ele pretendia se encontrar com o próprio Thomson a fim de discutir ideias. Além dele, Bohr também teve a oportunidade de trabalhar com Rutherford, bem como com outros pesquisadores como Charles Galton Darwin (neto de Charles Darwin) e Georg von Hevesy e Moseley, que também tiveram considerável importância no campo das ciências. O modelo atômico de Bohr, que se baseou no de Rutherford, está relacionado ao movimento dos átomos ao redor do núcleo em trajetórias circulares, denominadas camadas ou níveis, sendo que cada um possui determinado

valor de energia. Mais tarde, em 1926, foi desenvolvido o Princípio da Incerteza pelo físico alemão Werner Heinsenberg. De acordo com esse princípio, desenvolvido a partir de conceitos da Mecânica Quântica, não é possível determinar exatamente qual a velocidade e a posição de um elétron em um átomo, já que, para isso, seriam necessários procedimentos que mudam de forma inevitável a posição do elétron, tornando tal experimento ineficiente. Dessa forma, viu-se necessário o desenvolvimento de um novo modelo atômico que agregasse essas ideias, incluindo conceitos da mecânica quântica. A partir de conceitos de probabilidade, Erwin Schrödinger formulou, em 1926, uma equação muito complexa que descreve o comportamento de sistemas microscópicos e que pode ser solucionada através de números quânticos, valores criados que relacionam-se com a quantidade de energia dos átomos e aos níveis e subníveis das camadas eletrônicas. A partir da equação de Schrödinger e de estudos anteriores, foi possível desenvolver o sistema de orbitais, no qual são definidos

89

espaços ou regiões em torno do núcleo do átomo onde há mais probabilidade de localização do elétron. Estes espaços relacionam-se também com a quantidade de energia presente em cada átomo. Percebe-se que a ciência está em constante evolução. Com o passar dos anos, são desenvolvidas teorias que modificam pensamentos anteriores, já que conseguem explicar com mais propriedade as questões relacionadas a determinados temas. Aconteceu dessa forma com os modelos atômicos: no decorrer de séculos, diversos cientistas se debruçaram em estudos, formulando postulados que mais tarde foram remodelados e até mesmo refutados, como no caso do modelo atômico de Dalton. Assim, fica claro que o conhecimento científico não é um dogma imutável, mas sim, algo construído ao longo do tempo, e nessa construção ninguém atua sozinho. As pesquisas e descobertas de um são desenvolvidas ou utilizadas por outros. Conclusão: por trás dos grandes construtores há sempre vários colaboradores.


PRÊMIO NOBEL: RUTHERFORD Prof. Orientador: César Lobato Alunos: Giovana Taborda, Isis Demarchi, Lucas Augusto, Luiza de Mattos, Rodrigo Larocca, Vinícius Nasser, Vitor Ferreira.

O

químico e físico Ernest Rutherford nasceu em Nelson, Nova Zelândia, em 30 de agosto de 1871. Ele estudou em escolas públicas e em 1893 graduou-se em Matemática e Ciências Físicas pela Universidade da Nova Zelândia. Com o auxílio de uma bolsa de estudo, ingressou em 1895 no Cavendish Laboratory, em Cambridge. Em 1898, tornou-se professor de Química e Física na McGill University, no Canadá, e na Manchester University, na Inglaterra, em 1907. Além disso, tornou-se diretor do Cavendish Laboratory em 1919, onde realizou importantes investigações, permanecendo no cargo até sua morte.

2EMVF

Rutherford.

Rutherford concentrou seus estudos na radiação do urânio e percebeu que esta se encontrava em duas naturezas, radiações alfa e beta, que posteriormente viriam a ser importantes para o modelo atômico por ele apresentado. Aprofundando mais seus estudos, o cientista percebeu que a radiação não era um fenômeno comum a todos os átomos, mas somente a alguns. Graças a essa descoberta, ele lança o livro “Radioatividade”. Em 1908, recebeu o Prêmio Nobel de Química por seus trabalhos no campo da radioatividade. Em 1911, apresentou seu trabalho aperfeiçoado, ou seja, um novo modelo atômico utilizando as partículas que havia descoberto. Segundo suas

experiências, os átomos teriam sua carga positiva concentrada em um pequeno e denso núcleo, e este estaria rodeado por elétrons que, por sua vez, estariam em movimentos circulares em uma área bem maior se comparada ao núcleo. Em 1919, realizou a primeira reação nuclear, fato que levou à descoberta de meios para a obtenção de energia nuclear. Por causa desses resultados e da influência para os futuros experimentos de diversos cientistas, ficou conhecido como o “Fundador da Física Nuclear”. Entre suas principais honrarias recebidas destacam-se a Order of Merit, em 1925, e a condecoração com barão Rutherford de Nelson, em 1931. Também foi presidente da Royal Society, de 1925 a 1930. Publicou os livros Radioatividade (1904), Transformações Radioativas (1906), Radiações de Substâncias Radioativas, em parceria com James Chadwick e CD Ellis (1919), A Estrutura Elétrica da Matéria (1926), As Transmutações Artificiais dos Elementos (1933) e A Nova Alquimia (1937). Faleceu em Cambridge, Inglaterra, em 19 de

90

outubro de 1937. Uma grande homenagem que recebeu foi a de ser enterrado na Westminster Abbey (Abadia de Westminster), uma antiga e importante igreja dedicada à coroação, sepultura e memorial de grandes nomes do campo da ciência, da literatura e da política dos últimos 1000 anos. MODELO ATÔMICO De fato, o modelo atômico foi um dos maiores marcos na carreira de Ernest Rutherford. Tal modelo fez cair em desuso o de J. J Thomson, que, por sua vez, fora mestre de Rutherford na Universidade de Trinity, em Cambridge. Com o modelo de Thomson, popularmente conhecido como “pudim de passas”, supunha-se que o átomo era composto por partículas positivas (a massa do pudim) e partículas negativas distribuídas por ele (as passas no pudim). Depois de fazer experimentos com radioatividade, Rutherford, ainda com seus estudos voltados para o átomo, realiza uma experiência que mudaria a concepção de átomo existente até então. Ele pegou um pedaço do metal Polô-


nio, o qual emite partículas alfa de carga positiva a uma velocidade de emissão da ordem de 20.000 km/s, e o colocou em uma caixa de chumbo com um pequeno orifício. As partículas alfa atravessaram a placa de chumbo e depois uma lâmina fina de ouro. Rutherford adaptou um anteparo móvel com sulfeto de zinco (fluorescente) para registrar o caminho percorrido pelas partículas. Se o modelo antecessor estivesse correto, deveriam ser observados desvios grandes na trajetória das partículas alfa. Com esse experimento, o físico observou que a maioria das partículas alfa atravessavam a lâmina de ouro e apenas algumas se desviavam ou até mesmo retrocediam. Refutando seu mestre Thomson, Ernest constata, por meio de seu experimento, que a carga positiva de um átomo se encontra no centro, em um minúsculo e denso núcleo, em torno do qual giram as cargas negativas, em órbitas circulares. É assim que funciona o Modelo Atômico de Ernest Rutherford. O modelo atômico aceito hoje difere, porém, do proposto por Rutherford e Bohr: ele é fruto da teoria quântica introduzida por Louis Victor de Broglie, Werner Heisenberg, Erwin Schroedinger e outros. Mas o estudo feito por Rutherford e Bohr rep-

Rutherford e antecessor baseando-se na descodo cargo de dir+etor no berta do núcleo atômiCavendish Laboratory. co, realizada por Rutherford. Bohr acreditava Johannes (Hans) Wilhelm que, utilizando a teoria Geiger - físico alemão (1882 - quântica de Planck, 1945) seria possível criar um novo modelo atômico, Autor da lei Geiger-Nut- capaz de explicar a fortall, juntamente com o ma como os elétrons cientista Mitchel Nutall, absorvem e emitem enalém de autor de diver- ergia radiativa. sos experimentos que Ernest Thomas Sinton colaboraram para que Walton seu colega na Universidade de Manchester, Ernest Rutherford, real- Ernst Walton foi um izasse seu experimento físico irlandês que, juntamente com Jonh com partículas alfa. Cockcroft, ganhou o Ernest Marsden - físico inglês prêmio Nobel. Ele se (1889 - 1970) tornou a primeira pesEm 1909, enquanto soa na História a dividir ainda era aluno na Uni- artificialmente o átoversidade de Manches- mo, inaugurando a era ter, conduziu o experi- nuclear. mento Hans-Marsden, Durante o início da déjuntamente com o físico cada de 1930, Walton e alemão Hans Geiger, sob John Cockcroft colabora supervisão de Ernest aram para construir um aparelho que conseguia Rutherford. dividir os núcleos de átomos de lítio, bomAlunos: bardeando-os com um fluxo de prótons acelerBohr ados dentro de um tubo Um dos alunos de Ruth- de alta tensão (700 KV). erford foi o dinamar- A divisão dos núcleos quês Niels Henrick David de lítio produziu núBohr, que na primavera cleos de hélio. Esta foi a de 1912 passou a tra- verificação experimenbalhar no laboratório do tal da teoria sobre a professor Rutherford, estrutura atômica, que em Manchester. Ele real- havia sido proposta anizou um importante tra- teriormente por Ruthbalho sobre a absorção erford, George Gamow de raios alfa, que viria a e outros. O bem-suceser publicado na “Philo- dido aparelho era um sophical Magazine”, em tipo de acelerador de 1913. partícu De regresso à Dinamarca, em 1913, Bohr passou a se dedicar ao estudo da estrutura do átomo,

resentou um avanço significativo na sua época, tendo sido essencial para o desenvolvimento das teorias posteriores. Experimento de Geiger–Marsden (Universidade de Manchester, 1909) O experimento conduzido por Hans Geiger e Ernest Marsden buscava conhecer a estrutura do átomo. Um dos objetivos era a contagem de partículas alfa em fenômenos radioativos e os resultados do bombardeamento de radiação em certos materiais Para alcançar esses objetivos, foi feito o bombardeamento de partículas alfa em lâminas finíssimas de diversos metais diferentes (estanho, ouro, platina, chumbo, prata, cobre, ferro e alumínio). Assim, a maior parte das partículas alfa atravessava as lâminas, mas poucas, quando voltavam, faziam um ângulo perpendicular em relação ao ponto inicial, ou voltavam na mesma direção da incidência. Foi relatado o ouro como material de destaque. Como resultado, o experimento provou a existência do núcleo dos átomos e serviu de base para o modelo atômico proposto anos mais tarde pelo supervisor do projeto, Ernest Rutherford. J. J. Thomson (1856 - 1940) Foi professor de Ernest

91


a Descoberta do Gás amônia e suas aplicações no início do século XX Prof. Orientador: César Lobato Alunos: Beatriz Toreta, Bruna Takai, Débora Araujo, Giovanna Zanovello, Guilherme Beraldo, Laura Nogueira, Micaella Rocha.

H

á exatos 100 anos, teve início a Primeira Guerra Mundial, que envolveu disputas territoriais pelas grandes potências da época. No dia 1º de agosto de 1914 começava oficialmente a guerra, em que não só a História, como também a Química entravam em jogo. O que poucos sabem é que houve diversos desenvolvimentos e crescimentos extremamente importantes para o ramo químico durante esse período, que, infelizmente, são ofuscados. Porém, como em toda a História, há o outro lado da moeda e se, para alguns as armas químicas causaram devastação, mortes e caos, para outros, as pesquisas desenvolvidas nesse período trouxeram progressos benignos utilizados nos dias atuais. No total, durante a Primeira Guerra Mundial, as mortes causadas por diversos gases venenosos somaram entre 100.000 e 1,3 milhão de feridos. O mais importante, entre os gases usados, foi a amônia ( 〖NH〗_3), desenvolvido pelo processo de síntese estudado por Fritz Haber, que durante a guerra testou a potên-

2EMVE

cia causada pelo novo gás, o qual, mesmo em desenvolvimento e sob estudos, mostrou o seu grande poder diante da produção de explosivos. Inicialmente, o principal enfoque de Haber na elaboração desse processo era suprir com urgência a necessidade que não só a Alemanha, mas toda a Europa tinha de aumentar a produção alimentícia devido ao crescente aumento da população. Por esse motivo, a finalidade inicial da amônia seria para a fabricação de fertilizantes baratos que pudessem ser utilizados na agricultura para atender à demanda cada vez maior da população europeia. A necessidade de produzir esse gás em escala industrial e a dificuldade de encontrar materiais resistentes o suficiente para aguentar as altas pressões a que seriam submetidos fez com que Haber contasse com o apoio fundamental do químico industrial Carl Bosch. A parceria resultou, em 1910, no anúncio da síntese da amônia, mais conhecida como processo “Haber-Bosch”. Contudo, a ameaça iminente da guerra e o sentimento nacionalista dissipado por toda a Europa fizer-

Fritz Haber

am com que Haber voltasse seus estudos para a produção de amônia com fins bélicos e assim ajudasse seu país. Foi com esse pensamento que ele colaborou para organizar o departamento de guerra química do Ministério da Guerra da Alemanha, setor responsável pelo uso de certos gases durante a I Guerra Mundial, entre 1915 e 1917. O envolvimento de Haber na Primeira Guerra não foi apenas científico; ele estava disposto a testar pessoalmente as armas químicas que havia desenvolvido. Com sua ajuda, a Alemanha conseguiu prolongar a guerra e mais de 22 agentes químicos

92

diferentes foram testados na época. Condecorado com o Prêmio Nobel de Química de 1918 por ter realizado o processo de síntese da amônia, Haber foi muito criticado por ser considerado um criminoso de guerra. Vários ganhadores daquele ano se recusaram a participar da cerimônia de entrega do prêmio em sinal de protesto. Mesmo sendo muito contestada na época, sua pesquisa é de grande importância até os dias atuais. Para mensurar a relevância de seu estudo, durante o século XX o processo de síntese da amônia foi responsável por um aumento de 30 a 50 por cento da pro-


dução agrícola mundial, garantindo assim a sobrevivência de mais de um quarto da população do planeta. Dessa forma, Haber foi o responsável por desbancar a teoria do economista inglês Thomas Maltus, que acreditava que a população cresceria tanto que a produção de alimentos seria insuficiente para suprir a demanda. A amônia continua sendo utilizada como fertilizante na produção agrícola contemporânea. Após a sua síntese utilizando o nitrogênio atmosférico, ela reage com o ácido nítrico e forma o nitrato de amônio (〖NH〗_4 〖NO〗_3) frequentemente utilizado nas lavouras de cana de açúcar, café e frutas cítricas (principais produtos agrícolas de exportação do Brasil), por suas características de baixo índice de volatilização, acidificação e salinidade. Hoje, esse composto está presente indiretamente na fabricação da metade da produção alimentícia do mundo.

Embora as tecnologias nos campos agrícolas e nos centros de pesquisas e desenvolvimento de armamentos estejam evoluindo a cada dia, o processo “Haber-Bosch” não sofreu grandes alterações com o passar do tempo. Os avanços têm se restringido à melhoria da eficiência dos catalisadores utilizados para acelerar o tempo da reação. Os fertilizantes nitrogenados, tão fundamentais para a agricultura mundial, também são os grandes responsáveis por problemas ambientais graves como a contaminação de ambientes terrestres, aquáticos e da atmosfera, o que contribui para a diminuição da biodiversidade desses ecossistemas. Além disso, o nitrogênio desperdiçado pelos produtores causa a liberação dos gases que provocam o efeito estufa e influencia nos fenômenos do aquecimento global e na diminuição da camada de ozônio. A síntese da amônia é considerada a

maior descoberta do século XX. Alguns afirmam que isso se deve à revolucionária solução que foi encontrada para a crise alimentícia, oferecendo o nitrogênio atmosférico como uma matéria-prima extremamente abundante e de fácil acesso; outros acreditam que o leque de possibilidades criado após o desenvolvimento desse processo e as inúmeras utilizações que o homem deu aos compostos de amônia, como tinturas de cabelo, desinfetantes, materiais plásticos entre outros justificam essa escolha. O fato é que nenhuma descoberta científica foi e continua sendo tão benéfica, mas, ao mesmo tempo, tão prejudicial à vida humana como a síntese da amônia. Entre os diversos usos que lhe foram destinados, fertilizantes e explosivos convivem em igualdade na alta demanda desse composto. Finalidades tão distintas, manter a vida provendo qualidade a ela e pôr fim a esse bem, encontram-se lado a lado em

Reaçao de formação da amônia.

93

um único composto. A História evidencia diversos fatos que comprovam a eterna contradição criada pelo homem na utilização da amônia. Euclides e os Elementos (Corina 2 E) A civilização grega legou aos nossos tempos avanços em diversas áreas da Ciência e da Filosofia impulsionados pelo chamado “milagre grego”. Pela primeira vez na História, a busca pelo conhecimento desvinculou-se do pensamento mitológico, ancorada na análise racional. A matemática de Euclides de Alexandria foi uma das principais manifestações do brilhantismo do período, instituindo uma geometria que transformou a lógica e o pensamento científico de então. Seu Magnum Opus, Os Elementos, é considerado o livro didático mais influente da História da civilização ocidental. A vida de Euclides permanece turvada por um véu de mistério. As poucas referências a ele, feitas por Proclos e Pappus de Alexandria, foram escritas séculos depois dos supostos acontecimentos. As datas de seu nascimento e morte são desconhecidas. Acredita-se, porém, que o matemático grego estudou na famosa Academia de Platão, em Atenas, tendo sido convidado por Ptolomeu I para lecionar em Alexan


dria, o centro do saber na época. Além de Os Elementos, que inclui análises da teoria dos números, ele também produziu trabalhos sobre rigor matemático, perspectiva, secções cônicas e geometria esférica. Seus interesses incluíam a música, a mecânica, a Astronomia e a Astrologia. Com o fim do Império Romano, suas obras foram preservadas pelos povos árabes da Península Ibérica, que as receberam dos bizantinos por volta de 760 DC. Após a Reconquista, o pensamento euclidiano foi adotado pelos grandes intelectuais dos centros europeus. Os Elementos, um dos tratados gregos mais antigos de que se tem notícia, consiste em treze livros redigidos por volta de 300 AC. Neles, Euclides, partindo de um pequeno conjunto de axiomas (isto é, sentenças consideradas autoevidentes), deduz uma série de proposições, desenvolvendo as provas matemáticas para fundamentá-las. Grande parte do material incluído no tratado não foi descoberta por Euclides: ele reuniu várias ideias discutidas na época, como a Teoria dos Cinco Sólidos Regulares, a Teoria das Proporções de Eudoxo e a Teoria dos Irracionais de Teeteto, sistematizando o conhecimento geométrico do mundo grego até então. No entanto, o seu esquema

axiomático e a solidez de sua abordagem completaram as lacunas das teorias da época e fascinaram matemáticos por séculos, inspirando pensadores como Baruch Spinoza, Bertrand Russell e Alfred North Whitehead, que adotaram as estruturas dedutivas introduzidas por sua obra. A geometria engendrada pelos postulados de Euclides reinou absoluta por mais de dois mil anos até o século XIX, quando surgem as geometrias não euclidianas, estudadas por Carl Friedrich Gauss, Nikolai Lobachevsky, János Bolyai e Bernhard Riemann. Nelas, é modificado o controverso postulado das parale-

las, de acordo com o qual “por um ponto exterior a uma reta passa uma reta paralela à inicial”. Desta forma, são obtidas as geometrias elíptica e hiperbólica. No século XX, a teoria geral da relatividade mostrou que a geometria do espaço-tempo só pode ser descrita de forma não euclidiana. Se três raios de luz forem posicionados de maneira a formar um triângulo, a soma dos ângulos internos deste não será equivalente a cento e oitenta graus, devido ao campo gravitacional. Portanto, ou a geometria não euclidiana é fisicamente real, ou a noção de testes físicos dos axiomas da Geometria deve ser

94

descartada. Além disso, Einstein estabeleceu a finitude do Universo, o golpe de misericórdia na noção euclidiana de uma realidade sem fim. No entanto, não se deve subestimar a importância do gênio de Euclides na história do conhecimento humano. Seu pensamento é uma obra prima da aplicação da lógica à Matemática, sendo extremamente influente em várias áreas da ciência. Sua abordagem axiomática e o seu rigor lógico são válidos até os dias de hoje. De acordo com George Simmons, Os Elementos foi “responsável por uma influência sobre a mente humana maior que qualquer outro livro, com exceção da Bíblia”.


A ciência em movimento: embates entre o geocentrismo e o heliocentrismo na perspectiva de johannes Kepler Prof. Orientador: Modesto Pantaleo Alunos: Arthur Leal, Gabriel Rodrigues, Giulia Alves, Melyssa Lopes, Victoria Souza, Vinicius Rodrigues, Ygor Araujo.

2EMMA

D

esde seu surgimento, o ser humano tem procurado compreender o segredo das estrelas. Cada conhecimento adquirido sobre os mistérios acerca do universo o tem levado a uma série de construções e desconstruções racionais em seu caminho. Na medida em que surgem novas concepções, que sejam de certa forma comprovadas, novos questionamentos transformam a ciência em um jogo interminável de perguntas e respostas que é essencial para a evolução do homem. Para que se entenda a organização do sistema solar nos dias atuais, por exemplo, foram necessários vários debates, opiniões divergentes, teorias e experimentos durante a História. Entre várias discussões, o Geocentrismo foi uma teoria que contrastou com o Heliocentrismo durante muito tempo, fato posterior à ideia da Terra ser plana. É deste pressuposto que surgem as figuras de grandes pensadores ao longo do tempo, até que finalmente fosse possível determinar a verdadeira posição dos corpos celestes.

Muitos fatos marcaram o início do século XVII, entre eles, o desenvolvimento intelectual. A Renascença, período de novas ideias e descobertas, inspirou muitos pensadores a se aprofundarem em suas teorias para provar, a partir da razão, como o Universo atua. Estes pensadores contemporâneos iniciaram seus estudos comparando suas ideias com as de pensadores do passado, tentando encontrar novos caminhos a serem seguidos ou se

aprofundando ainda mais em suas teses. A ideia da Terra se localizar ao centro do Sistema Solar, ou até mesmo do Universo, foi defendida principalmente por Ptolomeu, um homem nascido no alto Egito por volta do ano 90 DC, que contribuiu nas áreas de Matemática, Geografia, Física, Geometria, Astronomia e Química, e que, ao determinar um sistema de epiciclos, pôde enfrentar várias contestações sobre tal teoria.

95

A igreja católica, durante a Idade Média, além de defender o Geocentrismo, utilizou desta vertente como uma forma de controle racional, determinando a superioridade do homem ao colocá-lo no centro do Universo e, não obstante, ainda perseguia aqueles que a contestavam, entre eles, os grandes pensadores: Nicolau Copérnico, Johannes Kepler e Galileu Galilei. Foi Nicolau Copérnico o


principal astrônomo a se contrapor à teoria geocêntrica, propondo uma mais plausível, na qual o Sol ocuparia o centro do Universo e os planetas orbitariam à sua volta (Heliocentrismo), o que o levou a escrever seus livros “Pequeno Comentário sobre as Hipóteses da Constituição do Movimento Celeste” e “Das Revoluções dos Corpos Celestes”, este último publicado um ano antes de seu falecimento. Copérnico, por sua teoria heliocêntrica muito bem conceituada, foi importantíssimo para a Astronomia moderna, sendo estudado por muitos a partir de então. O principal estudioso que aprofundou a teoria copernicana foi Johannes Kepler, nascido em Weil der Stadt, Württemberg, atual Alemanha. Foi astrônomo, matemático e astrólogo conhecido por sua audácia e inteligência. Johannes Kepler veio de uma família muito conturbada e desde muito jovem trabalhava para ajudá-la. A escola, portanto, servia como uma escapatória para ele. O pequeno pensador ingressou no seminário de Tubingen por volta dos 17 anos, onde teve como seu mestre Maestlin, um homem muito sábio

que concordava com as ideias de Copérnico em segredo, pois elas divergiam das explicações religiosas. Johannes sempre foi um aluno excepcional, elogiado por todos os professores, e muito interessado em entender como o Universo funcionava, e Maestlin viu nele alguém com quem pudesse dividir seu ponto de vista sobre o heliocentrismo. Kepler fazia debates em sigilo com seu mestre, o que o incentivou a defender cada vez mais as teorias de Copérnico, sem nunca querer profanar as crenças religiosas da época. Tal fato pode ser

observado no seguinte trecho do romance “A Harmonia do Mundo”, de Marcelo Gleiser, que utiliza de registros históricos reais para a criação de um enredo fictício. “É perfeitamente razoável pôr o Sol no centro do cosmo com os planetas girando ao seu redor, ordenados com o tempo que cada um leva para dar uma volta completa. Em minha opinião, nenhum arranjo cósmico pode ser mais natural. O cosmo de Ptolomeu é corcunda com a terra imóvel no centro. Acho absurdo supor que todos os objetos celestes – Sol, planetas, estrelas

1- Teoria de Kepler - Livro “A Harmonia do Mundo” de GLEISER, Marcelo

96

- girem em torno de si mesmos como um pião. Sei que Deus nos criou segundo sua imagem e dotou nossas mentes com fagulhas de sua sabedoria, mas não estou convencido de que esta esfera sobre a qual viajamos através dos céus seja assim tão importante para Ele.” ¹ Durante seus estudos, Kepler fazia uma reflexão sobre três perguntas: Por que existe tal quantidade de planetas? Por que estão dispostos a estas distâncias do Sol? E por que se deslocam a esta velocidade? Para chegar a uma conclusão, Johannes contou com as observações feitas por Tycho Brahe, astrônomo nascido na Dinamarca e que, em sua época, era reconhecido como o maior astrônomo de toda Europa. Os estudos do dinamarquês se baseavam nos livros de Ptolomeu e, mesmo com os poucos métodos de observação do Universo existentes na época, notou falhas na teoria ptolomaica, o que despertou nele o interesse em aperfeiçoar os instrumentos para observações astronômicas. Graças à sua disposição para as pesquisas nesta área, o astrônomo contribuiu grandemente com as futuras teorias que surgiriam, como, por exemplo, as teorias de Kepler, o qual, ao se tornar sucessor de Ty-


cho, estudou suas observações planetárias, em especial, do planeta Marte. Kepler passou cerca de dezesseis anos tentando chegar a uma dedução matemática do sistema que movimentava os planetas para justificar as observações realizadas. Em sua análise, concluiu que as órbitas não eram circulares, e sim, elípticas. Concluiu, também, a partir desta descoberta, que a velocidade com que o planeta dava voltas em torno do Sol dependia de sua distância em relação ao astro. Baseadas em suas descobertas, foram criadas as Leis de Kepler, que serviram como estudos do Universo para outros astrônomos e ainda são analisadas atualmente. Galileu Galilei, artesão, físico, matemático, filó-

sofo e astrônomo italiano nascido em Pisa, o mais importante cientista de sua época e um dos maiores sábios que a humanidade já teve, interrompeu o curso de Medicina para se dedicar ao estudo da Matemática e das ciências. Foi professor de Matemática em Pádua, universidade fundada muito tempo antes, e no seu tempo livre se aprofundava nas teorias de Copérnico e Kepler. Suas habilidades artesãs o levaram a criar dentro da universidade uma oficina onde eram inventados e fabricados materiais científicos; dessa forma, aprimorou o desenvolvimento das lentes ópticas criadas por pesquisadores holandeses e inventou um telescópio capaz de aumentar 32 vezes uma imagem, tornando

possível o uso de uma luneta para observar os corpos celestes. Ao descobrir que existiam quatro satélites ao redor de Júpiter, obteve a primeira prova de que é possível que corpos celestes orbitem em torno de outros astros. Observou que, como a Lua girava ao redor da Terra, Vênus orbitava em torno do Sol e apresentava as mesmas fases que o satélite terrestre, sendo elas: Nova, Crescente, Cheia e Minguante, comprovando assim o sistema heliocêntrico de Copérnico. Galileu publicou sua descoberta e a Igreja Católica acusou-o de heresia e o obrigou a negar a teoria desenvolvida. Para não perder a vida, o grande cientista negou suas evidências e se manteve em prisão domiciliar

Galileu Galilei

97

por longos anos até sua morte. A partir do momento em que o Heliocentrismo foi compreendido pelos estudos de Kepler e comprovado por Galileu, a ciência passou a se preocupar com questionamentos cada vez mais aprofundados sobre o cosmos, abrindo espaço para figuras como Newton, Einstein, Stephen Hawking, entre muitos outros vultos importantes para a elucidação do desconhecido. A procura pela verdade leva o homem muito além do que ele pode alcançar, visto que ele é apenas um pequeno, minúsculo resto de poeira estelar em relação à imensidão do Universo. A ciência, portanto, é seu veículo, importante instrumento para percorrer a estrada de infinitos, ou finitos, anos-luz.


Surgimento das pilhas e baterias Prof. Orientador: Edson Camarini Alunos: Felipe Corá, Fernanda Cruz, João Henrique, Lucas Hernandes, Rodrigo Torres, Vitor Rodrigues, Wallace Pinto.

2EMMC

A

s primeiras pilhas surgiram no ano de 1800 e foram produzidas pelo italiano Alessandro Volta, que empilhou placas de zinco e de prata, intercalando-as com pedaços de papelão molhados com uma solução salina. Em 20 de março de 1800, ele divulgou o sistema que criou, o qual, ao ser conectado em suas extremidades por um fio metálico, produzia uma corrente elétrica. Entretanto, Volta atribuiu o fenômeno exclusivamente ao contato entre os distintos metais. Trinta e quatro anos depois, o inglês Michael Faraday descobriu que a descarga elétrica deu-se, não devido aos metais, mas sim, à solução eletrolítica, justificando o papel do eletrólito. O funcionamento da pilha criada por Volta dá-se pela reação de oxirredução entre os metais envolvidos, onde há a troca de elétrons entre os referidos metais. O eletrodo negativo da pilha sofre oxidação, já que é constituído por um metal com menor potencial de redução, o que libera seus íons na solução eletrolítica e seus elétrons no fio que o liga ao eletrodo positivo. Este último, por sua

Esquema de pilha.

vez, recebe os elétrons do fio e reage com os íons da solução, visto que é constituído pelo metal de maior potencial de redução. A pilha aproveita essa transferência de elétrons para gerar energia elétrica. Tal sistema eletroquímico passou por diversos aprimoramentos até chegar à tecnologia atual. Geralmente, os sistemas são classificados como primários e secundários. Os sistemas primários são aqueles que, quando esgotados, não podem ser recarregados e devem ser descartados, como é o caso das pilhas alcalinas, de Volta e de Leclanché. Os sistemas secundários são aqueles que podem

ser recarregados e reutilizados, suportando 300 ciclos ou mais de carga e descarga, como as pilhas de níquel-cádmio, de chumbo e ácido e de íons de lítio. Já as baterias são aquelas de ácido e chumbo, que são compostas por placas de chumbo e placas de dióxido de chumbo mergulhadas numa solução de ácido sulfúrico e água. Dentro dessa solução ocorre uma reação onde o ácido citado corrói a placa de chumbo, produzindo sulfato de chumbo, água e elétrons livres, liberando energia. Ao ser recarregada, os elétrons da bateria são devolvidos, fazendo com que ela volte ao seu estado inicial.

98

Quanto às suas aplicações, são inúmeras. Desde um simples celular até um carro, as pilhas e baterias estão presentes em muitas das coisas que utilizamos diariamente. Para os objetos portáteis que necessitam de mais carga, como celulares e notebooks, a bateria mais recomendada é a de íons de lítio, pois, além de correr um risco quase nulo de acidentes, possui grande capacidade de armazenamento de energia em pouco espaço. Veja as aplicações abaixo.

Em carros elétricos Em carros elétricos, a bateria serve para acionar o motor elétrico ou, mais


precisamente, ela liga um controlador, que por sua vez envia energia para o motor elétrico. Então, ela precisa ser potente e durar o bastante para locomover o veículo e os passageiros até onde eles precisam ir com um mínimo de recarga. Até recentemente, nenhuma bateria que pudesse tornar os carros elétricos competitivos com os movidos a gasolina havia sido fabricada. Atualmente, as baterias mais cotadas para os carros elétricos são as de íons de lítio, devido à sua alta capacidade de armazenamento de energia. Em marca-passos A bateria de lítio-iodo-vinilpiridina apresenta

“Carregador” de carro elétrico.

uma nova tecnologia, a fractal, que elevou a vida útil do eletrodo agregando-lhe mais estabilidade. Sua duração, antes de 19 meses, passou a ser de 5 a 10 anos, beneficiando o paciente que pode se preocupar menos com o aparelho e viver com um coração quase saudável. Na incessante busca por melhorias, médicos cri-

aram um microgerador acoplado ao marca-passo que produz eletricidade conforme o doente se movimenta. Seu uso só não é comum por causa dos riscos cirúrgicos e do preço. Adesivos eletrônicos O incentivo à tecnologia de ponta, somado à cria-

O que mantém o funcionamento de marca passos (imagem) é uma pilha de lítio-iodo-vinilpiridina.

99

tividade, deram às pilhas funções inimagináveis. A bateria de lítio, por exemplo, ganhou uma versão flexível. Mede 0,37mm por 0,45mm e pode ser aplicada na Medicina, em adesivos colados em determinadas partes do corpo, injetando medicamento através da pele de acordo com a dosagem e o horário programados. Esses adesivos também marcam a temperatura, os batimentos cardíacos e exercem outras tantas funções.


Blaise Pascal e a ciência moderna Prof. Orientador: Modesto Pantaleo e Pablo Carneiro. Alunos: Giullia Abrão, Gustavo Rodrigues, Karin Suato, Letícia Atademos, Paula Moreno, Otávio Yuki, Victor Borges.

U

ma mente avançada para seu tempo, um físico extraordinário, filósofo e matemático, Blaise Pascal nasceu no dia 19 de junho de 1623, em Clermont-Ferrand, França. Desde criança, ele tinha interesse nos estudos científicos e matemáticos. Aos doze anos, elaborou a 32ª prop-

Blaise Pascal

osição de Euclides1 ; aos dezenove, inventou uma calculadora mecânica. A partir dos vinte e três anos, revolucionaria a ciência moderna com o Tratado sobre o equilíbrio dos líquidos, relacionado à pressão dos fluidos com hidráulica. Durante o século XVII, a razão dominava a Europa. O conhecimento passou a ser mais estru-

1. A soma de todos os ângulos internos de um triângulo é igual a dois ângulos retos. 2. Segundo o Dicionário Aurélio: s.m. Filosofia Doutrina filosófica que encara a experiência sensível como a única fonte fidedigna de conhecimento. 151; O filósofo empirista baseia-se na observação e na experimentação para decidir o que é verdadeiro. Chega a conclusões através do emprego do método indutivo, baseado no que observou. O filósofo racionalista enfatiza a razão como fonte de conhecimento. Começa com princípios a priori, ou verdades

turado e prático, e o empirismo2 era a doutrina referente, cujos estudos eram comprovados ou refutados por meio de experiências e observações. Assim, os filósofos acreditavam que a natureza era regida por suas próprias leis, sem a interferência de nenhuma entidade superior, ideia predominante anteriormente. Entretanto, é importante ressaltar que o conceito de Teologia e ciência dialogam, uma vez que ambos têm o objetivo de adquirir conhecimento, porém sobre diferentes realidades. Assim, Pascal foi influenciado, e partir disso, seus estudos foram embasados. Com as transformações ocorridas na mentalidade científica, surge um físico, Evangelista Torricelli3 (1608-1647), com uma experiência4 . A partir dela seria comprovada a existência da pressão atmosférica. Torricelli realizou o seguinte estudo: pegou um tubo de vidro vedado em um dos lados com um metro de comprimento

2EMMB

preenchido com mercúrio. Este tubo foi invertido num recipiente contendo a mesma substância; observou-se que o mercúrio desceu até uma altura de 76 centímetros ao nível do mar. Em virtude desse experimento, foi comprovada a existência da pressão atmosférica, a qual equilibrava a coluna deste material. Dessa forma, Torricelli encerrava dois preceitos fundamentais: a ideia do que impedia a descida completa do mercúrio, e a de que o espaço acima da coluna era consideravelmente vazio, portanto, o vácuo5. Nessa época, os cientistas questionavam a existência do vácuo . Entre eles estavam Pascal e Étienne Noël6 (1581-1659). Blaise Pascal acreditava que o ar atmosférico, por possuir uma massa mensurável, tinha peso, e admitia também que a ideia do horror vacui7 era falsa, sendo possível produzir uma situação de vácuo na natureza. Deste modo, Pascal procurou explicar o experimento de Torricelli

evidentes, e usa o método dedutivo. 3. Italiano, foi matemático e físico. Criou o Cálculo Integral e descobriu o princípio do barômetro, além de dedicar-se às construções e aos estudos de instrumentos de precisão, telescópios e microscópios. 4. Expérience d’Italie ou Experimento Barométrico de Torricelli. 5. Espaço onde não existe substância. 6. Francês; foi jesuíta, gramático, teólogo católico, tutor de filosofia de René Descartes e pré-empirista. 7. Concepção de que a natureza tem horror ao vácuo.

100


de maneira empírica, realizando experimentos para comprovar a existência do vácuo no alto do tubo de mercúrio. Ao contrário dele, Noël era a favor da ideia da inexistência de peso do ar; uma vez que o Universo era pleno, logo o vácuo absoluto não existiria. Assim, escreveu uma carta a Pascal, comprovando e explicando seu ponto de vista quanto ao experimento de Torricelli. Noël acreditava que na natureza e no Universo em geral toda matéria era composta pelos quatro elementos fundamentais, sendo que um era mais sutil e rarefeito em relação ao outro, adotando respectivamente a seguinte ordem: fogo, ar, água e terra. Desse modo, pôde explicar o experimento de Torricelli, afirmando que partículas de ar rarefeito estariam armazenadas nos poros do tubo de vidro8, e no momento em que o mercúrio descesse no tubo pelo seu peso, forçaria o ar arma-

zenado nos poros a sair, fazendo daquela região do tubo uma parte composta pelo elemento ar, consideravelmente puro, explicando a baixa pressão exercida em cima da coluna de mercúrio. A resposta de Pascal à carta de Noël foi incisiva às teorias apresentadas por este. O brilhante cientista valeu-se da suposição de que se houvesse naquele espaço aparentemente vazio o ether9, este poderia ser provado. Assim, como o preenchimento daquele espaço não poderia ser sentido, ouvido, reagido ou de alguma forma provado, aquilo não existia, e logo, era a ausência de matéria: o vácuo. Além disso, uma das principais contribuições de Pascal à ciência moderna é o Princípio de Pascal relacionado à hidrostática. Este princípio dita que um líquido, quando sofre acréscimo na pressão, transmite esse acréscimo integralmente a todas as áreas e a todos os pontos em que o líquido está contido. Tal princípio está presente em grande parte do nosso cotidiano, sendo utilizado por muitas indústrias. O Princípio de Pascal ajusta-se diretamente ao conceito do elevador hidráulico, onde se aplica certa força de um lado de um tubo preenchido por um fluido com o objetivo de atingir uma força maior do outro lado. Esse meExpérience d’Italie canismo é vastamente uti-

Esquema de elevador hidráulico.

lizado na nossa sociedade e pode ser observado em vários equipamentos: nos elevadores dos postos de combustível para levantar os carros, onde se realiza a troca de óleo; em oficinas mecânicas para facilitar o acesso à parte de baixo do veículo; em fábricas de automóveis para a moldagem de chapas de metal; em desmanches de carros para prensá-los; e há inúmeros outros exemplos das aplicações do Princípio de Pascal no nosso cotidiano. Em decorrência do afirmado anteriormente, é evidente que Blaise Pascal foi uma pessoa de extrema importância para o mundo e para a ciência. Todavia, é necessário contextualizá-lo historicamente no tempo em que viveu, salientando-se a Revolução Científica exerceu influência direta sobre ele, fazendo com que sentisse a necessidade de que suas teorias fossem

8- Que seria composto por terra e água, portanto mais densos que o ar. 9- Matéria sutil, ígnea e perfeita (sem atrito).

101

comprovadas ou não de maneira empírica. Vale lembrar que o contexto da época afirmava que a ciência era desligada da religião (imutável), e passava por transformações, procedentes de métodos científicos, contribuindo dessa maneira para suas opiniões e seu ceticismo ideológico. Como ele dizia: “O aumento do conhecimento é como uma esfera dilatando-se no espaço: quanto maior nossa compreensão, maior nosso contato com o desconhecido.”


A determinação e os modelos para o cálculo da velocidade da luz Prof. Orientador: Rafael Cajano e Rubens Dechechi Alunos: Arnizal Almeida, Camilla Ferreira, Dayane Berto, Eduardo da Costa, Gabriel de Góis, Gabriel Magalhães, Henrique de Novaes, Kamila Bodi, Luan Rodrigues, Lucas Manzano, Murilo Moura, Rodrigo Candido, Rodrigo Ichikawa, Victor Falcon.

A

velocidade da luz nunca foi uma ideia pronta; na realidade, ela significou vários séculos de pesquisas, dúvidas, conclusões equivocadas e, por fim, uma teoria incerta. O questionamento a respeito desse tema surgiu nos primórdios do pensamento humano, mas de uma forma diferente. O filósofo que deu o primeiro passo para tentar explicar a velocidade da luz foi Empédocles, que, em 5 AC, dizia que o semelhante conhece o semelhante, de tal modo que nossos olhos seriam repletos de poros, seu interior seria composto por fogo e seu lado externo por água, teoria esta apoiada por Platão, que também acredita-

va que a visão era produzida por raios que se originavam nos olhos, de modo a colidirem com objetos, proporcionando assim a visão. Outro filósofo grego cujas obras são de grande importância histórica, e que fez objeção a tal teoria, foi Aristóteles, concluindo que “se o olho fosse realmente fogo, como disse Empédocles e, tal como se afirma, se a visão tivesse efeito quando a luz saísse do olho, como de uma luminária, por que não seria igualmente possível a visão no escuro?”. A partir de tais refutações, Aristóteles veio a fundamentar outra tese, a Teoria da Transparência, que se baseava em um objeto transparente que poderia receber a luz, tornan-

do-se um veículo para a cor, ou seja, a luz era a cor da transparência segundo tal teoria. Aristóteles supunha que o arco-íris era um reflexo das gotas de chuva. Seguindo os ensinamentos de Platão, Euclides conseguiu entender a lei da reflexão e a propriedade dos espelhos, e acreditava que a velocidade da luz era muito rápida, de tal forma que quando fechamos nossos olhos, os objetos observados desaparecem momentaneamente, mas, ao reabri-los, mesmo as estrelas distantes aparecem instantaneamente. Muitos continuaram a estudar a luz e suas aplicações. Em 1629, o holandês Isaac Beekman fez uma experiência que tinha como objetivo com-

102

1EMMA

provar se a luz possuía uma velocidade definida; tal experiência consistia no posicionamento de vários espelhos em diferentes distâncias de uma detonação de pólvora, tendo algumas pessoas para observar a experiência. Enquanto Beekman realizava o processo, ele questionava os observadores se estes conseguiam relatar quaisquer diferenças no lampejo de luz refletido nos espelhos que estavam em seu campo de visão. Entretanto, essa experiência foi denominada de inconclusiva, por possuir um método difícil de medição. Assim como Beekman, em 1638, o cientista Galileu Galilei também realizou um teste para comprovar se a luz possuía uma velocidade finita, utilizando um método simples, que consistia no posicionamento de duas pessoas, uma afastada aproximadamente um quilômetro e meio da outra, com lanternas que deveriam ser cobertas e descobertas, para que o cientista pudesse relatar se havia algum atraso entre a luminosidade das duas lâmpadas. Tal experimento também foi denominado de inconcluso; entretanto, Galileu tinha certeza de que a velocid-


ade não era instantânea, porém extraordinariamente rápida. Outro cientista que tentou desvendar tal mistério foi o astrônomo dinamarquês Ole Romer; quando trabalhava no Observatório Real de Paris, em 1676; observando uma das luas de Júpiter, ele percebeu que o tempo de duração dos eclipses dependia da posição relativa entre Júpiter e a Terra. Assim, concluiu de início que, quando a Terra estava perto de Júpiter, a lua daquele planeta parecia se acelerar; quando estava longe, ela parecia diminuir sua velocidade. Como a distância não afeta a velocidade de ambos os corpos, Romer deduziu que o tempo despendido para que a imagem chegasse até ele era o tempo que a luz levava para chegar a seus olhos. O cientista chegou à conclusão de que a luz deveria ter viajado a 200.000 quilômetros por segundo. Os erros presentes em seus cálculos provavelmente surgiram de valores equivocados dos elementos orbitais de Júpiter. Mais tarde, Christian Huygens converteu os cálculos de Romer em números mais reais, mostrando que, segundo tais estimativas, a luz viajava a cerca de 220.000 km/s. A partir das definições de Romer, muitos outros cientistas basearam-se em suas conclusões para tentar estimar tal velocidade. Anos mais tarde, James Bradley, em 1728, estimou, por meio da refração estelar, que a velocidade da luz no

Fibra Óptica.

vácuo seria em torno de 301.000 km/s; outro cientista que deu seu parecer sobre tal valor foi o físico francês Armand Hyppolyte Louis Fizeau, em 1849, que o definiu como sendo 313.300 km/s. Para chegar a tal conclusão, ele se baseou em uma experiência simples que consistia em uma roda dentada com 720 dentes, um espelho semitransparente, um espelho, um conjunto de lentes e uma fonte intensa de luz. O objetivo era fazer a luz da fonte atingir o espelho semitransparente colocado em um ângulo de 45 graus. O feixe refletido pelo espelho passaria por um dos vãos da roda dentada até atingir o segundo espelho colocado, estrategicamente, em uma montanha situada em Montmartre, a cerca de 8 quilômetros de distância. Ali, o feixe de luz seria refletido de volta, passaria novamente pelo vão da roda dentada e atravessaria o espelho semitransparente até chegar aos olhos de Fizeau. Quan-

do ele pôs a roda a girar, aumentando gradativamente a velocidade, em um determinado instante a luz refletida pelo espelho em Montmartre sumiu. Reduzindo a velocidade, a luz voltou a completar seu ciclo. Graças a tal experimento, Fizeau concluiu que o feixe de luz que passava pelo vão da roda e era refletido pelo espelho mais distante era bloqueado pelo dente seguinte ao vão e isso acontecia quando a velocidade de rotação da roda era de 12,5 rotações por segundo. Esta foi a primeira medida da velocidade da luz feita na própria Terra, sem utilizar métodos astronômicos. No ano de 1850, o físico e astrônomo Jean-BernardLéon Foucault repetiu a experiência de Fizeau, substituindo apenas a roda dentada por um espelho gigante. Essa mudança possibilitou que Foucault conseguisse medir a velocidade da luz dentro de um longo tubo com água. O resultado foi a comprovação de que a

103

luz se propaga mais lentamente na água do que no ar. Ainda em 1862, Foucault já estava bem próximo de nosso atual valor oficial, estimando que a velocidade da luz no vácuo seria de 299.796 km/s. Graças aos avanços da tecnologia ao longo dos séculos, outros cientistas se utilizaram de métodos mais modernos para medir a velocidade da luz com grande precisão. Até que, em 1983, a Conferência Geral de Pesos e Medidas estipulou que o valor oficial para a velocidade da luz seria de 299.792.458 metros por segundo. De acordo com os trabalhos de Albert Einstein, seria uma velocidade insuperável por qualquer corpo a partir de um referencial inercial, mas estudos recentes têm colocado esta ideia em prova. Entretanto, tais objeções ainda estão no campo da suposição.


O

primeiro relato de questionamento sobre a velocidade da luz partiu do filósofo Empédocles que acreditava que esta era infinita.

O Desenho de Römer

O

holandês Isaac Beeckman realizou o primeiro experimento tangível para testar se a luz possuía mesmo uma velocidade definida.

Empédocles.

SÉC V A.C

astrônomo dinamarquês Ole Römer, após observar as eclipses de uma das luas de Júpiter, chegou à conclusão que levava cerca de 22 minutos para a luz atravessar a distância da órbita da Terra ao redor do Sol, e que ela devia ter viajado a 200.000 km/s.

1675

1629 1638

SÉC IV A.C

G

alileu também acreditava que a velocidade da luz não era infinita. Ele partiu para o seu experimento a fim de fazer a primeira medição dessa velocidade na História. Apenas deduziu que a luz viaja ao menos dez vezes mais rápido do que o som.

D

écadas mais tarde Aristóteles discordou da afirmação do outro filósofo, levando a discussão por mais de 2 mil anos.

Aristóteles.

A DESCOBERTA DA 104


O

O

valor atual foi estipulado definitivamente pela Conferência Geral de Pesos e Medidas com o número de 299.792.458 metros por segundo, devido à redefinição da medida do metro no Sistema Internacional de Unidades.

Experimento de Fizeau.

francês Hippolyte Louis Fizeau estimou o valor de 313.300 km/s em uma experiência com luz, espelhos e uma roda dentada.

1849 1983 1862

1728

J

ames Bradley estimou que a velocidade da luz no vácuo seria em torno de 301.000 km/s, utilizando a r efração estelar para calcular esse valor.

L

eon Foucault já estava quase chegando ao valor oficial que temos atualmente, e o estimou como sendo de 299.796 km/s.

James Bradley. Leon Foucault.

VELOCIDADE DA LUZ 105


Termodinâmica e a Revolução Industrial Prof. Orientador: Modesto Pantaleo. Alunos: Bianca de Melo, Camila Colombo, Camila Vasconcelos, Isabela Rosa, Rodrigo Mayer, Sumay de Lima, Thays Campos.

O

todo tempo, as pessoas encontram-se em situações que envolvem troca de energia e calor. A grosso modo, “calor” significa energia em trânsito, e “dinâmica” está correlacionada ao movimento. Sendo assim, a Termodinâmica, essencialmente, tem por objetivo estudar o movimento da energia e o modo pelo qual ela ganha movimentação. As considerações do estudo termodinâmico se resumem, superficialmente, nas Leis da Termodinâmica, as quais postulam a transferência de energia entre dois sistemas nas formas de calor ou trabalho. Desde que “surgiu”, a

Ciência sempre foi influenciada pelo contexto histórico na qual estava inserida. Dentre os exemplos que podem ser citados, destacam-se os estudos sobre Hisdrostática e Hidrodinâmica feitos por Newton, visto que foram resultado de uma demanda da época: o modo de produção passava da economia feudal para o mercantilismo, e o comércio marítimo se desenvolvia, o que exigia um aperfeiçoamento dos navios, como aumento da capacidade de carga e da velocidade; para isso, o ramo da ciência aprimorado foi aquele que estudava os líquidos. Com a termodinâmica não foi diferente. Como efeito da primeira Rev-

olução Industrial, ocorrida na Inglaterra no século XVIII, surgiria a máquina a vapor, invenção de suma importância para a época. Essa máquina ajudaria e aperfeiçoaria as produções industriais, pois visava um processo mais rápido e eficiente de fabricação, diferentemente do artesanato, modo de trabalho que vigorava anteriormente. Partindo desse contexto, a Revolução Industrial marca uma nova fase da Física, pois o aprofundamento nos estudos e a análise de questões como trabalho, energia e temperatura se tornaram necessários para o avanço das técnicas industriais. A primeira máquina a vapor, criada pelo inven-

106

2EMMB

Calorímetro de gelo, um dos primeiros métodos usados para se medir o calor contido nos corpos.

tor inglês Thomas Newcomen (1664-1729) em 1698, tinha por objetivo drenar a água acumulada nas minas de carvão. Este modelo seria posteriormente aperfeiçoado pelo engenheiro escocês James Watt (1736-1819), que introduziria melhoramentos no motor a vapor. O avanço da máquina a vapor proporcionou uma completa mudança nos mais variados tipos de indústria da época como, por exemplo, a bélica, a mineradora e muitas outras, influenciando o modo de produçãoatéosdiasatuais. Contudo, uma máquina a vapor não cria energia. Dentro dela há uma fornalha, na qual se queima algum combustível como


óleo, madeira ou carvão (o mais utilizado), a fim de transformar a energia térmica liberada pela queima do combustível em energia cinética (a energia do movimento) que movimenta a máquina, gerando trabalho. Neste exemplo, está embutida a Primeira Lei da Termodinâmica: nenhum tipo de energia pode ser criado ou destruído, apenas transformado. Foi em torno do desempenho dessas máquinas que o engenheiro francês Sadi Carnot (1796-1832) estabeleceu uma das mais relevantessistematizações termodinâmicas já criadas, que delimitava a transformação de energia térmica (calor) em energia mecânica (trabalho). A Revolução Industrial influenciava cada vez mais os estudos físicos do período: em 1761, o físico inglês Joseph Black (1728-1799) desenvolveu a calorimetria, o estudo quantitativo do calor, introduzindo o calor sensível (relaciona-

do ao aumento da temperatura), o calor latente (relacionado à mudança de estados físicos) e o calor específico (energia necessária para elevar em 1ºC um grama de alguma substância) no mundo físico; em 1784, os franceses Antoine Lavoisier (17431794) e Pierre Laplace (1749-1827) criaram o calorímetro de gelo, uma das primeiras formas desenvolvidas para medir o calor contido pelos corpos. Em 1798, o físico e inventor anglo-americano Benjamin Thompson (1753-1814), também conhecido como Conde de Rumford, publicou o livro “An Experimental Enquiry Concerning the Source of the Heat which is Excited by Friction” (Uma Investigação Experimental sobre a Fonte de Calor que é Incitada pelo Atrito), contribuindo para o conhecimento termodinâmico que futuramente seria estudado por Joule. Neste livro, o autor demonstra,

através de um experimento, que o calor era formado devido ao movimento das partículas dos corpos, eliminando a teoria anterior, pela qual acreditava-se que o calor era constituído pelo “calórico”, uma substância que seria forçada para fora do metal em uma operação de usinagem, por exemplo. Conclui-se, portanto, que o estudo da Termodinâmica foi tanto causa como consequência da Revolução Industrial: foi por causa dela que se desenvolveram as

107

James Watt, aperfeiçoador da máquina à vapor.

máquinas que seriam utilizadas e, com o passar do tempo, a demanda industrial deste tipo de conhecimento aumentava, sendo necessário o aperfeiçoamento dos conceitos conhecidos. Os resultados desses estudos são de suma importância na atualidade, e foi devido a eles que foram desenvolvidos vários mecanismos essenciais, como o termômetro e os motores a combustão, entre outros.


CÉSAR LATTES E O DESENVOLVIMENTO DA PESQUISA CIENTÍFICA NO BRASIL Prof. Orientador: Modesto Pantaleo Alunos: Arthur Stivanello, Fernando Miam, Júlio Ramon, Nathália Luz, Nicolas Macedo, Victoria Assis, Walace Gomes.

C

ésar Mansueto Lattes, mais conhecido como César Lattes (filho de imigrantes italianos), nasceu no dia 11 de julho de 1924 em Curitiba, Paraná, onde iniciou seus estudos. Posteriormente, mudou-se para o estado de São Paulo e se formou pela Faculdade de Filosofia, Ciências e Letras da USP, no ano de 1943, ganhando destaque desde o processo seletivo pela forma clara com que explicava seus raciocínios. Lattes teve aulas com Giuseppe Occhialine, um importante físico italiano, que o convidou para participar de um grupo de Física experimental, que tentava comprovar a existência do méson-pi,

2EMMC

conceito que seria fundamental para a compreensão das forças que atuam no interior do átomo. Em meados dos anos 30, Hideki Yukawa foi quem melhor descreveu essa partícula. Sabe-se que as partículas de carga positiva se repelem; então, para formar o núcleo do átomo, é provável que exista uma espécie de “cola” que as manteriam juntas, e esta foi denominada méson. Entretanto, a comprovação de sua existência foi feita através de pesquisas do grupo de Física experimental de Bristol, Inglaterra, no qual o trabalho que Lattes desenvolveu foi fundamental para tal comprovação.

Por conseguinte, na Inglaterra, Lattes juntou-se à equipe de Cecil Powell no H. H. Wills Laboratory (o grupo experimental de Física de Bristol), e colaborou para ajudar a melhorar a emulsão nuclear, uma espécie de fotografia na qual se observa a energia e a massa de partículas através da análise das trajetórias em uma chapa fotográfica. Essas emulações passaram a registrar os rastros dos raios cósmicos que entram na atmosfera terrestre. Dessa forma, César Lattes percebeu que, quanto maior a altitude em que as placas fossem expostas, maior seria a incidência de partículas para análise, e assim, poder-se-ia obter resultados mais precisos,

108

pois os raios cósmicos vão se perdendo ao atravessar a atmosfera até atingir regiões mais baixas. Foi então que no ano de 1947, Giuseppe Occhialine, apelidado de Beppo, passou suas férias em Pic-du-Midi (alta cadeia de montanhas na fronteira entre a França e a Espanha). Cesar Lattes aproveitou tal fato para realizar seus experimentos com as chapas, e solicitou a Occhialine que as expusesse em uma altitude superior a 2800 metros nessa região. Posteriormente, ao estudá-las, ele percebeu que poderia ter encontrado a partícula que tanto procurava, já que as características das trajetórias não se encaixavam em nenhuma das já conhecidas.


Porém, precisava obter mais evidências para comprovar de fato a existência do méson. Nesse mesmo ano, Lattes verificou que o Monte Chacaltaya, na Bolívia, seria o lugar ideal para provar a existência do méson. Dessa maneira, depois de expô-las naquela região, nosso pesquisador levou as placas para estudá-las no Rio de Janeiro. Ao revelar algumas, mesmo em condições inadequadas, conseguiu verificar a trajetória de alguns mésons. Posteriormente, Lattes retornou a Bristol com as chapas e, ao revelá-las, com um estudo criterioso e em condições mais adequadas, conseguiu evidenciar de forma concreta a existência da partícula méson-pi, pelos registros dos raios cósmicos. Em 1948, ano seguinte à descoberta do méson-pi na natureza, César Lattes e Eugene Gardner detectaram o méson-pi artificial, produzido em um cíclotron de 184 polegadas. Este acelerador de partículas era o equipamento com maior limite de energia da época, equivalente a 380MeV (milhões de elétrons-volt). Em 1949, ao invés de aceitar os diversos convites de centros de pesquisa internacionais, César Lattes retornou ao Brasil e, com o auxílio de outros cien-

tistas e políticos, criou a Fundação do Centro Brasileiro de Pesquisas Físicas (CBPF), um projeto de Lattes que visava melhorar a formação, o trabalho e a pesquisa de cientistas brasileiros, já que o famoso físico enxergava muito potencial humano desperdiçado por falta de institutos de ciência no Brasil. Lattes sempre valorizou muito sua graduação nacional e reforçava a necessidade de melhores investimentos e apoio para a fundação de novos institutos de ensino e pesquisa, a fim de contribuir para a formação de novos cientistas brasileiros. Quando estava na Califórnia, o físico brasileiro conheceu Nelson Lins de Barros, um músico, irmão de João Alberto Lins de Barros, político influente que participou do movimento Coluna Prestes. Nelson viabilizou o contato do físico com João Alberto, o que significava um importante passo para a criação do instituto. José Leite Lopes, outro eminente cientista, foi o articulador responsável por utilizar o prestígio que Lattes alcançou com suas descobertas para angariar recursos junto à iniciativa pública e privada. Por fim, com a ajuda política de João Alberto e com as doações obtidas graças à influência de Lattes, em

15 de janeiro de 1949 foi criado o CBPF, como uma entidade civil. O CBPF contou com vários nomes da Física internacional, como Lattes (Diretor Científico); José Leite Lopes; Jayme Tiomno e professores convidados como Guido Beck e Rychard Feynman. O centro atuou na área de fronteira física, ou seja, nas descobertas mais recentes e na formação de novos pesquisadores. Assim, o prestígio na área científica cresceu no país. O Conselho Nacional de Pesquisa (CNPq) também foi fundado com a participação de Lattes e o apoio do político Getúlio Vargas, tendo por objetivo fortalecer a ciência brasileira e criar uma genuína e autentica Física nacional. Além disso, tinha como propósito o desenvolvimento de tecnologia bélica, visto que, a partir da Segunda Guerra Mundial, esse tipo de tecnologia avançou, especialmente a nuclear e, consequentemente, os países passaram a reconhecer a importância da pesquisa científica. Assim, a bomba atômica, por exemplo, era a prova real e atemorizante do poder que a ciência poderia conceder ao homem, e isso fez com que os mais diversos países começassem a acelerar suas pesquisas científicas, ou montar estruturas de fomento para desen-

109

volvê-las, como no caso do Brasil. César Lattes recebeu incontáveis prêmios e nomeações. Ele era uma pessoa simples e nacionalista, que valorizou e transformou a realidade brasileira nos campos científico e educacional. Foi um cientista preocupado com o futuro de seu país. Hoje, podemos ver a grande atuação desse homem, tanto pelas suas comprovações, pesquisas e estudos quanto pelos centros que foram criados com seu auxilio, que atuam ativamente até os dias atuais, como a UNICAMP, universidade a qual ajudou a fundar. César Lattes faleceu no dia 8 de março de 2005, em Campinas, vítima de uma parada cardíaca. Infelizmente, não alcançou o prêmio Nobel, já que Powell foi agraciado em 1950 com o método de emulsão fotográfica que desenvolveu. Entretanto, Lattes poderia até ter ganhado tal prêmio com Gardner, pela descoberta do mésonpi em acelerador de partículas, mas nosso cientista morreu cedo, e a academia não premia cientistas falecidos. Apesar de tudo isso, o prêmio Nobel não se compara, de maneira alguma, com o legado que Lattes deixou à humanidade.


CHARLES DARWIN

A trajetória e os estudos de um dos mais famosos naturalistas da história Prof. Orientador: Orson Wohnrath Alunos:Aline Luz, Gustavo Lopes, Marcela Costa, Matheus A. Potonyacz, Renata Madaleno. Tamires de Oliveira.

C

harles Darwin, famoso naturalista inglês amplamente conhecido no mundo acadêmico por sua obra “A Origem das Espécies”, nasceu em 1809, em Shrewsbury. Neto do também naturalista (além de filósofo e poeta) Erasmus Darwin, Charles tinha como pai o físico e médico Robert Darwin. Ainda jovem, Darwin deixou Shrewsbury para estudar Medicina na Universidade de Edinburgh. Porém, forçado pelo desejo do pai e por não se adaptar ao curso escolhido (graças aos métodos cirúrgicos sem anestesia, a qual não era conhecida na época), Darwin foi para Cambridge, com a finalidade de ser clérigo.

Desinteressado pela nova carreira, Darwin abandona a vida religiosa (principalmente após conhecer o botânico John Stevens Henslow) e, em dezembro de 1831, aceita o convite para uma viagem, com fins científicos, que seria feita ao redor do mundo, a bordo do navio inglês H. S. S. Beagle. Durante os cinco anos de viagem, o navio teve como destino diversas ilhas e partes do território ístmico da América do Sul (tendo, inclusive, parado no Brasil em alguns momentos). Quando chegou ao Brasil, Darwin tinha apenas 24 anos, sendo que sua função como naturalista era realizar observações biológicas e geológicas durante a viagem (além de ser

2EMMA

botânico e zoologista também). Logo no início da viagem, o navio passou pelos estados da Bahia (mais exatamente na cidade de Salvador) e no Rio de Janeiro (onde acredita-se que o naturalista tenha passado quatro meses, hospedado em Botafogo). Além disso, tiveram como destino Fernando de Noronha e Abrolhos (ambas as ilhas localizadas no Oceano Atlântico). A natureza bela e diferenciada (até certo ponto), além de exuberante, chamou a atenção do naturalista, cujas observações sobre o cenário tropical foram reunidas e divulgadas, alguns anos depois, no livro “A Viagem do Beagle”. As belas flores, o “verde das folhas” e outros as-

110

aspectos da natureza brasileira foram exaltados por Darwin, que usou de adjetivação abundante em seu relato sobre o país: “Delícia é um termo fraco para exprimir os sentimentos de um naturalista que, pela primeira vez, se viu perambulando por uma floresta brasileira”. (Trecho de uma das anotações de Charles Darwin.) Já sobre a sociedade, Darwin fez anotações criticando as condições de escravidão de parte da população, apesar de seus escritos, segundo a visão de alguns estudiosos, também serem dotados de uma visão preconceituosa (devido às questões burocráticas e ao modo como foi tratado): “Darwin fez algumas generalizações sobre os bra-


ileiros e, às vezes, julgava as pessoas pela sua aparência ou pela forma como se vestiam” (Ildeu Moreira) É interessante destacar, porém, que, geralmente, os cientistas eram auxiliados por habitantes locais (inclusive indígenas) ao realizar os estudos sobre o interior das matas. Em relação ao restante do continente sul-americano, Darwin fez, entre outras, a seguinte observação: “As relações geológicas que existem entre a fauna extinta da América meridional, assim como certos fatos relativos à distribuição dos seres organizados que povoam este continente, impressionaram-me profundamente quando da minha viagem a bordo do Beagle, na condição de naturalista. Estes fatos (...) parecem lançar alguma luz sobre a origem das espécies (...) julguei que, acumulando pacientemente todos os dados relativos a este assunto e examinando-os sob todos os aspectos, poderia, talvez, elucidar esta questão”. (Trecho de uma das anotações de Charles Darwin.) Em 1836, ao fim da viagem, Darwin retornou à Inglaterra, onde reuniu suas observações sobre rochas, plantas, animais e fósseis (que já haviam sido enviadas ao território britânico) e iniciou seus estudos,

deduções e anotações sobre a evolução, baseados nos dados coletados durante a viagem sobre as variações entre as espécies. Dava-se continuidade ao trabalho que constituiria a obra “A Origem das Espécies¬”, tendo como a grande “questão inicial” o que levava ao surgimento e ao desaparecimento das espécies. As variações foram observadas, por exemplo, entre emas e avestruzes. Além disso, os tentilhões das ilhas Galápagos tornaram-se “destaque” quando nos referimos a Charles Darwin. Segundo o cientista, a distinção entre essas espécies ocorria, também, devido aos diferentes locais onde se encontravam (a disponibilidade de alimentos levava à “formação” de bicos adaptados nos tentilhões, por exemplo; essa nova “formação” era fruto da evolução biológica, ou seja, aqueles que eram mais adaptados sobreviveriam às diferentes condições). Essas questões, assim como as alterações sofridas por seres vivos de acordo com o tempo ou com o local de seu habitat e a alteração no número das populações foram respondidas com o auxílio da literatura, principalmente das obras do demógrafo e economista Iluminista Thomas Malthus. Resumidamente, as prin-

cipais contribuições de Malthus estão ligadas à ideia de que o número de indivíduos de uma população cresce de maneira mais rápida (“geométrica”) que a quantidade de alimentos (meios de subsistência) disponíveis. Assim, não seria “incomum” existir pobreza; pelo, contrário, seria apenas uma consequência. Muito criticado, Malthus defendia o controle da taxa de natalidade. Inspirado (parcialmente) no livro “Ensaio sobre a População”, Darwin elaboraria a ideia da “seleção natural”. Basicamente, os indivíduos que possuem as características mais “adequadas” (mais rápidos, mais fortes ou mais aptos para encontrar alimentos) são selecionados pelo meio ambiente, tendo mais chances de sobreviver e passar suas características para seus descendentes. Baseada na Teoria da Evolução (elaborada, também, graças às pesquisas feitas durante a viagem), seria publicada a obra “The Origin Of Species by Means of Natural Selection” (A Origem das Espécies por Meio da Seleção Natural), em junho de 1858. Assim, Darwin defende a evolução biológica como a responsável pelo surgimento, desaparecimento e pelas

111

variações entre as espécies. Conhecida como Darwinismo, sua teoria se diferenciava das anteriores devido às ideias de ancestralidade comum (todos os seres vivos compartilham de um mesmo ancestral em algum ponto de seu passado) e de que a seleção natural era responsável pela evolução. Nessa trajetória entre a volta da viagem e a publicação da obra, porém, houve alguns empecilhos. Devido ao seu passado religioso (sua ligação com a Igreja) e ao fato de a crença vigente sobre a origem das espécies ser baseada no criacionismo (segundo o qual Deus teria criado os seres vivos tal qual eles são e que eles não se modificariam), Darwin hesitou em publicar seu longo trabalho escrito em 1844. Imaginava que suas “novas” ideias, as quais iam contra as concepções da época, não seriam bem aceitas. O naturalista continuou com essa concepção até 1858, quando recebeu uma carta de Alfred Russel Wallace. Nessa correspondência, Wallace apresentava ideias praticamente idênticas às de Darwin. Ele também teria chegado à conclusão de que as espécies se modificam por seleção natu-


ral ao realizar estudos na Amazônia e nas Índias Orientais. O “pioneiro”, agora, tinha um dilema: poderia publicar sua teoria e ser criticado devido às concepções da época ou teria seu trabalho “ultrapassado” por Wallace (e, então, ao publicar suas ideias, o acusariam de “plagiador”). Pressionado, Darwin publica suas ideias, de maneira resumida, junto com o trabalho de Wallace, em uma reunião na Linnean Society of London. Somente um ano depois ele publicaria o trabalho completo e Wallace o reconheceria como sendo o primeiro a conceber as ideias apresentadas. Historicamente, Charles Darwin consagrou-se como o principal autor da teoria da seleção natural. Após esse episódio, Darwin continuou escrevendo trabalhos relacionados à Biologia (como “A Descendência do Homem”, onde explica o surgimento da raça humana), passando a viver em Downe com sua família. Anos depois, devido à Síndrome de Pânico e ao Mal de Chagas (adquirido durante a viagem), viria a falecer em 19 de abril 1882. Para muitos, as ideias e teorias de Darwin esclarecem a possível o-

rigem de novos seres, seu desaparecimento e as mutações existentes dentro de uma mesma espécie, derrubando de vez as teorias criacionistas. Nesse quesito, porém, não há um “consenso”. Alguns pensamentos são influenciados pela fé, outros pelo senso comum e outros, até mesmo, por teorias científicas diferenciadas (como as de Lamarck). Apesar de tudo, é indiscutível a importância das concepções inovadoras trazidas pelo naturalista inglês para os diferentes ramos da Biologia (Botânica, Zoologia, estudos relacionados à nomenclatura e até mesmo para a Medicina). As relações de parentesco (ligadas à ideia de ancestralidade), a análise de peculiaridades dos organismos e sua classificação, entre outras, estão relacionadas, até certo ponto, com o Darwinismo. Um uso comum da ideia de seleção natural é a explicação do motivo pelo qual infecções (como dores de garganta) não são eliminadas do organismo (pelo contrário, “voltam”) quando é usada a medicação de forma incorreta: tendo como exemplo o uso do antibiótico, essa medicação pode se tornar um meio de “seleção artificial”, promovida pelo homem (caso aplicada de ma-

neira incorreta), no momento em que não elimina todas as bactérias do organismo. Uma vez eliminadas aquelas que são vulneráveis ao antibiótico, as bactérias resistentes (vivas devido às mutações que as tornam imunes aos efeitos do medicamento) se reproduzem, passando essa característica para suas descendentes. Os sintomas voltam ao organismo infectado e, agora, o antibiótico poderá não surtir mais o efeito esperado. Além da área da Biologia, outras áreas do conhecimento fizeram uso do Darwinismo: a Filosofia, a Antropologia, a Sociologia e a Literatura. Para exemplificar as três primeiras, pode-se tomar como referência a época da Segunda Revolução Industrial. Com as crises de superprodução, a burguesia europeia se viu obrigada a procurar novos mercados consumidores, novos locais onde investir seu capital, além de fontes de matéria-prima e mão de obra baratas. Para tanto, saíram de seu continente, rumando para a África e para a Ásia. Essa intervenção nos novos continentes, porém, muitas vezes, significava violar os costumes, os hábitos e as regras morais das distintas sociedades.

112

Diante de tal situação, para justificar sua intervenção, filósofos, sociólogos e antropólogos europeus desenvolveram e aliaram-se ao chamado “Darwinismo Social”. A proposta era a seguinte: assim como os seres vivos na natureza, existem sociedades mais “fortes e mais fracas”. As sociedades que tivessem o maior avanço tecnológico, as mais “civilizadas”, por exemplo, conseguiriam sobreviver, enquanto as outras seriam extintas. Aliada a essa concepção, havia a “missão civilizadora”. Era dito que o homem branco (europeu) tinha a “missão” de levar a “civilização”, o “Cristianismo”, para os povos dos continentes citados (uma vez que eles nunca os alcançariam sozinhos). Hoje essas ideias são tidas como “incorretas” e até “absurdas”, uma vez que não é cabível julgar as diferentes culturas por seus hábitos, costumes e regras morais distintas (sendo tal atitude considerada crime em alguns casos). Porém, tais situações acabaram criando visões preconceituosas e racistas que, infelizmente, perduram até os dias atuais. Também na Literatura, os autores do movimento conhecido como Realismo fizeram uso do Darwinismo.


Mais especificamente no Naturalismo (uma espécie de “ramo” do movimento já citado), os autores tentavam analisar a sociedade como um todo, usando a teoria darwinista para analisar, compreender e criticar a sociedade, além de formular novas ideias (baseadas nas anteriores) para solucionar os problemas encontrados.

Autores como Antero de Quental, Eça de Queirós, Aluísio Azevedo e Machado de Assis basearam-se nas teorias desse cientista para realizarem suas críticas sociais em algumas obras. Apesar de revolucionário para a época, o pensamento ainda não estava “completo”. Darwin sabia que ocorriam mutações nos indivíduos de uma mes-

ma população, mas ele não tinha ideia de onde elas surgiam. Somente em 1900, com a retomada (“redescoberta”) dos estudos de Mendel, as ideias relacionadas à genética “seriam incorporadas” pelo mundo da ciência. Posteriormente, entre 1930 e 1940, essas novas concepções seriam incluídas na teoria darwinista, formando o que hoje é conhecido

113

como Neodarwinismo (graças ao trabalho de cientistas como Dobzhansky, Simpson e Mayr). Na chamada “teoria moderna da evolução”, esta última é condicionada pela mutação gênica, pela recombinação gênica e pela seleção natural.


GOOGLE GLASS

Prof. Orientador: Orson Wohnrath Alunos:Amanda Cavalcante, Bruna Videira, Diego Valenzuela, Erika Saito, Isabela Rodrigues, Lucas Matsumura, Vinícius Polido.

O

desenvolvimento de aparats médicos foi e é essencial para o avanço do campo da medicina. O estudo de reações a ervas e de processos fisiológicos por povos antigos, como os gregos, chineses e egípcios, possibilitou um maior conhecimento do ser humano, mas isso não seria possível sem certos instrumentos servindo como auxiliares em pesquisas e operações. Com a melhoria desses, houve o aperfeiçoamento de técnicas, e consequentemente, a análise do indivíduo e de suas patologias tornou-se mais precisa e com mais riqueza de detalhes, sendo possível descrever as causas e os efeitos de do-

enças, realizar um tratamento e inclusive conseguir a cura. Hoje, já existem vários equipamentos que auxiliam na medicina, como os utilizados em ressonância magnética, tomografia, radioterapia e quimioterapia, além de microscópios ópticos e eletrônicos, lentes intraoculares, e implantes dentários. Um exemplo bem atual é o Google Glass, que será lançado em breve pela empresa Google. Esses óculos prometem revolucionar muitos procedimentos médicos, além de poderem beneficiar outros campos de atuação. O Google Glass possui uma série de mecanismos disponíveis para o usuário: computador interno com Wi-Fi e armazenamento de 12

114

GB, transmissor de áudio, controle de toque para gerenciar as ações a serem realizadas, microfone para comandos de voz e câmera. O áudio é captado por meio de um transmissor, que é uma espécie de botão que se localiza logo atrás da orelha, e que por meio de vibrações, oscila os ossos do ouvido interno e levam o som ao usuário. Já a estrutura de visão traz uma realidade aumentada por meio de um sistema de projeção prismática, onde um mini projetor lança a imagem no Prisma semitransparente, que, por sua vez, projeta a cena diretamente na retina da pessoa. Desse modo a figura não chega diretamente ao olho, o que faz com que ela se combine com o

2EMMB

mundo real. Portanto, as informações ou aplicativos do Google Glass são vistas por cima da cena real, sem que isso atrapalhe a visão do usuário. Por conta de seu recurso de percepção, esses óculos poderão ser utilizados até mesmo na área do turismo. O usuário será capaz de concentrar informações sobre as companhias aéreas, hotéis e restaurantes, recebendo indicações de disponibilidade, horários e rotas até cada um deles, podendo também ler sinais e placas no idioma local, traduzindo-as instantaneamente para a língua escolhida por ele.


Esse novo invento ajudará demasiadamente a medicina, podendo ser utilizado das mais diversas maneiras e situações. Já está sendo testado em alguns hospitais quando o clínico, usando o Google Glass, entra no departamento de emergência e olha para um código mantido na parede da sala. O aparelho imediatamente lê o código e reconhece a sala e o paciente, enviando o prontuário ao profissional. Além disso, socorristas com os óculos conseguirão acudir

acidentados ao chegar no local do acidente, já que o estado da vítima será exibido e instruções de como deve ser efetuado o salvamento serão passadas diretamente da central, enquanto a sala de emergência é preparada adequadamente. A realidade aumentada poderá contribuir muito em operações, mapeando os limites cirúrgicos, orientando o cirurgião e evitando possíveis erros, além da possibilidade de transmissão ao vivo de uma cirurgia para estudantes da área.

Com tamanha funcionalidade e importância, ainda mais na área médica, esses óculos estão ganhando cada vez mais popularidade e mais aplicativos a cada dia que se passa. Ao longo do tempo, as técnicas e os utensílios são melhorados, atualizados e incrementados, juntamente com a medicina, que evolui a partir dessa melhoria. Sendo assim, pode-se dizer que a tecnologia e a área médica se correlacionam, trabalham em conjunto no desenvolvimento de métodos para facilitar diagnósti-

115

cos, passar mais segurança aos pacientes, proporcionar tratamento e encontrar a cura de enfermidades.


Microcosmo, a vida por trás das lentes Prof. Orientador: Gisélia Lima. Alunos: Amanda G. de Souza, Caroline Sasak, Cibele Matioli, Gabriela Trindade, Hector Ikemoto, Natália Nakamura, Rafael Monteforte.

C

om as novidades tecnológicas cada vez mais acessíveis, ficou muito mais fácil obter novas ferramentas e recursos que transformam seu smartphone em qualquer coisa. Basta um clique, e já é possível, por exemplo, ter uma lupa

com um gadget. As lentes de aumento foram a inspiração de dois holandeses, Hans e Zacharias Jansen, fabricantes de óculos, que, por volta de 1595, produziram um objeto denominado microscópio. Contudo, ainda havia dúvidas sobre a importância do in-

1EMMA

strumento para a ciência, pois era algo rudimentar e sem precisão científica. Porém, o invento deles foi algo decisivo para abrir novos caminhos para a ciência. A forma mais antiga e usual de desvendar o microcosmo é a lupa, seguida do microscópio óptico,

que ilumina o objeto com luz visível ou luz ultravioleta. A primeira vez que uma observação microscópica utilizou materiais biológicos foi em 1660, durante estudos realizados por Antonie van Leeuwenhoek, o qual fez uso de um microscópio simples, de uma única lente.

Representação gráfica de visão microscópica.

Por volta de 1663, o inglês Robert Hooke introduziu uma segunda lente ao microscópio; a partir de então, o instrumento contaria com uma lente próxima do olho do observador, a ocular, e outra perto do objeto observado, a objetiva. Era o nascimento do microscópio composto, usado inicialmente nas ob-

servações de um pedaço de cortiça, que revelou pequenas estruturas semelhantes a caixas, unidas entre si, as quais o pesquisador chamou de “cell”, termo inglês para “cela” ou “cavidade”, de onde surgiu a palavra célula. Hooke publicou no século XVII o livro “Micrographia”, e tornava público pela primeira vez como era a

visão de alguns objetos e insetos pelas lentes de um microscópio. Hoje, é possível observar detalhes desta publicação no Google Books. O microscópio de duas lentes possibilitou a investigação de materiais biológicos, porém ainda havia problemas que os cientistas da época não conseguiam resolver: o

116

poder de resolução das lentes. Por volta de 1692, Isaac Newton propôs que, ao invés de lentes, fossem usados espelhos côncavos para acabar com a aberração cromática, reflexos e feixes de luzes que atrapalhavam a performance do observador. Tal ferramenta só foi introduzida em meados


Robert Hooke.

de 1736, inspirada nos primeiros telescópios, e é usada na fabricação dos microscópios até hoje. As novas descobertas e os novos recursos do mundo microscópico estimularam os pesquisadores a investigar seres vivos, como plantas e animais. Tais pesquisas possibilitaram as descobertas do citoplasma, do núcleo e da parede celular nas células vegetais. Mas, a principal e mais importante descoberta foi relacionar a célula como unidade fi-

transmissão. Esse novo equipamento transmitia para uma tela o que era observado nele, aumentando seu poder de resolução e deixando o material disponível para futuras pesquisas e estudos. Além do microscópio de transmissão, o microscópio de varredura surgiu com uma proposta um pouco diferente, que era a de “varrer” a superfície do objeto observado para transmitir a imagem formada através de um

siológica e morfológica de todo ser vivo, o que fundamentou a Teoria Celular, elaborada por Theodor Schwann e Mathias Schleiden, em 1839. A partir deste fato, os microscópios se tornaram equipamentos mais potentes e completos, usando a luz e feixes de elétrons para desvendar o mundo microscópico por trás das lentes. Por volta de 1930, pesquisadores americanos encabeçaram o projeto de criação do microscópio de

117

feixe de elétrons lançados sobre o objeto. Porém, seja qual for o tipo de microscópio, precisamos ter em mente que ele não é apenas uma ferramenta de laboratório, mas sim, o limite entre o visível e o invisível do vasto mundo microscópico das descobertas e das investigações científicas.


O desenvolvimento dos antibióticos Prof. Orientador: Orson Wohnrath. Alunos: Beatriz Aparecida, Beatriz Gimenez, Eduarda Moreira, Barbara Ribeiro, Miriã Felix.

O

s antibióticos são fármacos amplamente utilizados nos dias atuais no tratamento de infecções bacterianas. Essas substâncias podem ser artificiais ou produzidas a partir de organismos vivos, tais como fungos e bactérias. Este tipo de medicamento tem como função a destruição ou o controle da disseminação desses organismos infecciosos pelo corpo do paciente. Em 1910, Paul Ehrlich, um importante bacteriologista alemão, desenvolveu o primeiro antibiótico de origem sintética, o Salvarsan, usado contra a sífilis, porém o real marco da descoberta do fármaco ocorreu em 1928, pelo também bacteriologista

inglês Alexander Fleming. Fleming, aos 47 anos, ao retornar de suas férias, observou que havia esquecido algumas placas com culturas da bactéria Staphylococcus aureus sobre sua bancada no laboratório, e ao observar atentamente, percebeu que algumas dessas placas haviam sido contaminadas por fungos que, por algum motivo, haviam matado as bactérias que ali existiam. Instigado pela observação, o bacteriologista se propôs a trabalhar sobre aquele novo assunto e, isolando o fungo em outras placas, descobriu que se tratava do gênero Penicillium, o qual sintetizava alguma substância com ação bactericida, descobrindo a atual e tão famosa penicilina.

2EMMC

Após esse acontecimento, diversos avanços foram realizados no decorrer dos anos. Em 1934, houve a introdução da Profalina, agente amplamente utilizado na Segunda Guerra Mundial, principalmente contra infecções em feridas profundas e, em 1935, Gerhard Domagk descobriu o corante vermelho Prontosil, um pró-fármaco que originou uma nova classe de antibióticos sintéticos. Entre os anos 1940 e 1960, vários antibióticos foram descobertos at-

Alexander Fleming

118

ravés da técnica de triagem de produtos naturais microbianos, que consiste na seleção de tais substâncias; e, de 1980 a 2000, as principais ferramentas utilizadas para a busca desses novos fármacos foram a genômica, através da informação hereditária, e as triagens de coleções de compostos, substituindo a técnica de triagem anterior. Atualmente, é necessário lembrar que os antibióticos devem ser prescritos somente por um médico e unicamente quando há evidências clínicas de que o problema é causado por bactérias. As infecções mais comuns ocorrem na garganta, ouvidos, vias urinárias, nariz, vias respiratórias e estômago, podendo a aplicação ser local, oral ou parenteral (intravenosa ou intramuscular).


Uma alternativa médica Prof. Orientador: Orson Wohnrath. Alunos: Gabriel Soarez, Giovanny Fenelon, Kevin Lima, Marcos Rodrigues, Pedro Gama, Pedro Luis, Victor Chaves.

E

m um mundo de descobertas científicas, a aliança entre os produtores de medicamentos e a natureza tem sido cada vez mais importante para o tratamento de enfermidades. Não é novidade o uso de substâncias presentes em plantas na fabricação de remédios. Isso já era feito desde que o ser humano passou a interagir com a flora buscando seu próprio benefício. Contudo, nas últimas décadas, houve um grande aumento neste tipo de produção, sobretudo com os avanços da ciência na descoberta de tratamentos mais eficazes e rápidos para a cura dos mais diversos tipos de doenças. Devido ao fato de possuir 20% de toda a biodiversidade do mundo, o Brasil ocupa uma posição de destaque no mercado de fármacos à base de plantas. Sua enorme fauna e flora servem como um

grande laboratório para as pesquisas de cientistas de todo o mundo. Algumas substâncias extraídas de plantas como, por exemplo, a babosa (Aloe arborescens) e a camomila (Chamomilla recutita), já vêm sendo utilizadas há anos em medicamentos e são grandes conhecidas dos consumidores. Graças aos produtos naturais, incluindo as toxinas extraídas de animais, de bactérias, de fungos ou de plantas, os cientistas puderam compreender fenômenos complexos relacionados à biologia celular e molecular, o que permitiu que enzimas, receptores e outras estruturas biológicas fossem identificados, isolados e clonados. Isso possibilitou à indústria farmacêutica desenvolver medicamentos mais eficazes contra várias doenças de maior complexidade. Além disso, os produtos naturais são muitas vezes usa-

dos como matéria-prima na síntese de moléculas complexas de interesse do mercado farmacológico. Outro emprego importante da biodiversidade refere-se à produção dos fitomedicamentos, também conhecidos como fitoterápicos. Esses remédios constituem-se em preparados contendo extratos padronizados de uma ou mais plantas, hoje amplamente comercializados em países pobres ou ricos. De acordo com a definição proposta pela OMS (Organização Mundial de Saúde), os fitomedicamentos são substâncias ativas presentes na planta como um todo, ou em parte dela, na forma de extrato total ou processado. Nas últimas décadas, houve um aumento expressivo no mercado mundial dos fitomedicamentos, especialmente nos países industrializados, cujo mercado mundial atinge mais de US$ 20 bilhões anuais. Os países europeus, especialmente a Alemanha, os países asiáticos e os Estados Unidos, são os principais mercados consumidores desses medicamentos. Todavia, nem tudo são flores nessa poderosa indústria farmacológica, pois existem alguns problemas que dificul-

119

2EMVD

tam o aproveitamento da biodiversidade para o desenvolvimento de novos medicamentos, entre eles: falta de leis específicas para o acesso à biodiversidade, desconhecimento de certas estruturas químicas, relutância de certas empresas em introduzir produtos naturais na composição de medicamentos, entre outros. A utilização de produtos naturais na produção de fármacos já é uma realidade; seu desenvolvimento já está presente em todo o mundo. Agora, o grande desafio para o aproveitamento racional da biodiversidade brasileira visando à produção de medicamentos é, sem dúvida, como transformar um imenso patrimônio genético natural em riquezas, criando indústrias de base tecnológica e gerando empregos qualificados.


Biotecnologia: passado, presente e futuro Prof. Orientador: Gisélia Lima. Alunos: Barbara Moraes, Bruna Teixeira, Gabriella Passos, Gabriela Kawamura, Giulia Sabrina, Giovanna Santiago, Gabriel Poletti.

N

ão resta dúvida que a Biotecnologia do século XXI é muito diferente daquela do século passado, que explicava a produção de pães, derivados lácteos e vinhos. Na passagem da Biotecnologia artesanal para a Biotecnologia Industrial, esta última contou com as tecnologias desenvolvidas pela Engenharia Genética. Atualmente, existem 139 setores distintos que utilizam essa ciência em seus produtos ou serviços, sendo o setor de medicina e saúde

1EMVD

humana o que mais emprega recursos biotecnológicos. Este setor comercializa produtos e serviços especializados para a saúde humana, tais como kits de diagnóstico, vacinas, proteínas recombinantes, anticorpos, materiais para próteses, meios de cultura, produção de reagentes e antígenos, terapia celular, curativos e peles artificiais, biofármacos e biossensores. A Biotecnologia é uma ciência multidisciplinar cujo objetivo é desenvolver melhorias para a sociedade por meio de proces-

sos e produtos com o uso de agentes biológicos. No entanto, nos anos 80, quando a Biotecnologia passou a ocupar a atenção da ciência e da sociedade, a maioria dos leigos sentia-se desconfortável, pois acreditava-se que o homem estava brincando de ser Deus. No entanto, basta um olhar para as ervilhas de Mendel para entender que seus experimentos estavam no caminho da Biotecnologia e do melhoramento genético da espécie. A Biotecnologia opera em nível molecular, desapa-

120

recendo as barreiras entre os organismos, pois a unidade de manipulação é uma molécula, o DNA. Dessa maneira, as diferentes aplicações da Biotecnologia para qualquer ser vivo aumenta o interesse por novas práticas tecnológicas, visando o desenvolvimento desta ciência e das infinitas possibilidades econômicas da bioindústria. Entre as múltiplas aplicações das técnicas biotecnológicas, destacam-se aquelas relacionadas à transferência de genes entre organismos


diferentes e o aumento da eficiência metabólica. Estas técnicas, quando associadas a procedimentos de cultura de tecidos, permitem a propagação rápida de genótipos saudáveis. O futuro da Biotecnologia permeia muitos caminhos, mas um em especial é fruto de uma solicitação da ONU: a Biotecnologia deve desenvolver tecnologias nos países em desenvolvimento para combater a fome. As empresas brasileiras com projetos inovadores em Biotecnologia são,

geralmente, beneficiadas desde que apresentem o grau de inovação tecnológica, os impactos de mercado, a importância do projeto para a sociedade e a capacidade técnica para desenvolver e implementar o projeto. A Biotecnologia ambiental apresenta diferentes aplicações. Um exemplo recente é o uso de micro-organismos que podem realizar a biorremediação. Neste caso, os micro-organismos decompõem alimentos ou adaptam-se às toxinas para sobreviver, conver-

tendo a poluição em substâncias inofensivas. Em âmbito mundial, muitas tecnologias relacionadas às áreas de fronteira foram desenvolvidas e estão disponíveis à sociedade. No entanto, os nanobiomateriais ainda necessitam atingir o grau de maturidade necessária para bioindústria. Algumas barreiras devem ser superadas para promover o desenvolvimento biotecnológico nos próximos anos. Porém, entre as estratégias de desenvolvimento, destacam-se a inovação, a produção

121

e a comercialização de todas as tecnologias, as políticas tributárias, além de marcos regulatórios para o setor.


A FÍSICA APLICADA AO ESPORTE Prof. Orientador: Rafael Cajano. Alunos: Alessandro Biz, Gabriel Coluci, Henrique Gaza, Caio Carnevali, Karina Motoda, Vinicius Von Randow, Vitor Hongo.

P

araquedismo, boxe, tênis, vôlei, futebol, natação, atletismo; muitas são as modalidades esportivas que coexistem atualmente. Semelhantes ou não em suas regras, todas apresentam uma característica em comum: são regidas pelas leis da Física, ciência que também vem se mostrando imprescindível para o desenvolvimento de novas tecnologias que auxiliam na prática esportiva, de modo que tal avanço torna-se, certas vezes, motivo de polêmica. No caso do futebol, a Física está presente em diversas situações, como na força para mover a bola, na corrida dos

1EMVD

jogadores, no formato aerodinâmico da bola, na confecção dos uniformes e ainda na análise de diversos parâmetros ligados às suas regras. Com relação às bolas de futebol, existem inúmeros fatores que podem alterar completamente sua velocidade e trajetória; ao analisar algumas delas utilizadas ao longo da História podemos encontrar diversas curiosidades e deficiências como, por exemplo, a Azteca, bola utilizada no Mundial de 1986, que por ser confeccionada com um material sintético totalmente à prova d’água, superava o problema que as bolas de couro utilizadas em Copas do Mundo anteriores apresentavam: o au-

mento de peso quando se encharcavam. Outra bola recentemente utilizada, apelidada de Jabulani(1), utilizada no Mundial de 2010, foi alvo de diversas críticas por sua imprevisibilidade causada pelo chamado “knuckling effect(2)”, que fazia com que a direção fosse alterada ao ser atingida uma determinada velocidade. Em 2014, após cuidadosas pesquisas que visavam à solução desse problema, a Brazuca (bola de futebol utilizada no Mundial do Brasil) foi apresentada. Ela atingia o ponto de instabilidade citado anteriormente a 48 km/h, o que a tornava mais precisa, visto que os desvios de um chute fraco eram atenuados pela baixa ve-

locidade. A rugosidade do material que revestia a Brazuca proporcionava essa melhora; também a ajudava a alcançar maiores distâncias. Ainda no futebol, foi desenvolvida uma nova tecnologia chamada Tecnologia da Linha do Gol (TLG), usada em uma Copa pela primeira vez em 2014, para a qual foram necessários os conhecimentos físicos de eletromagnetismo e óptica respectivamente, pois estes utilizam campos magnéticos e câmeras para o seu funcionamento. O TLG consiste em câmeras posicionadas pelo campo todo que possibilitam a criação de imagens em 3D em tempo real e que mostram a posição da bola com

(1): Bola de futebol que foi utilizada na Copa do Mundo FIFA de 2010, realizada na África do Sul. (2): Efeito encontrado na bola de futebol, proveniente da força atuante no lado que não está girando ou girando lentamente, que altera sua direção acima de determinada velocidade.

122


relação à linha do gol. Essa tecnologia auxiliou na validação ou não de gols, até então, submetidos apenas ao julgamento da equipe de árbitros. Outra inovação ocorrida no futebol e apresentada em 2010 foi a costura da camisa da Seleção Brasileira, que usava cola ao invés de fios; isso fazia com que as camisas fossem mais leves, o que ajudava a melhorar o desempenho dos jogadores. Tecnologia semelhante a essa é usada em uniformes de pilotos de Fórmula 1, com o intuito de diminuir o peso total do conjunto carro e piloto. A Física também é aplicada em outros esportes através de diversos fatores como, por exemplo, de que maneira a altura do praticante é fator determinante em cada modalidade, em virtude de a

altura implicar na posição do centro gravitacional, que acaba interferindo no equilíbrio. Outro esporte em que a ciência dá sua contribuição é a natação, cujos trajes também interferem no desempenho dos atletas. Os antigos, que já foram confeccionados de algodão e que, ao serem molhados ficavam gelados e pesados, agora, depois de diversos testes, foram confeccionados com náilon e lycra (LZR Racer[3]) em virtude de sua estrutura absorver menor quantidade de água. No Mundial de Roma, a natação foi palco de uma polêmica após ter 43 de seus recordes mundiais quebrados, em função do uso de outra tecnologia, o fast skin(4); inspirado na substância que reveste o corpo dos tubarões e feito de

fibras de carbono, o fast skin apresenta mais durabilidade e resistência, pois consegue um menor atrito entre o atleta e a água, dando, portanto, condições para que os nadadores boiem mais. Porém, esse traje de alta tecnologia foi proibido em competições, pois tornava desigual a disputa entre os atletas. Podemos ainda destacar a tecnologia nos esportes paraolímpicos como, por exemplo, no lançamento de disco, em que o atleta Derek Derenalagi, que teve as duas pernas amputadas, se deparava com uma armação de aço desconfortável que o impedia de usar as próteses, até que elas foram substituídas por um modelo mais leve de alumínio. A estrutura que se prende ao chão através quatro tiras ajustáveis conta também

com dois cintos de segurança, além de espaços que permitem o encaixe dos pés. A armação foi desenvolvida visando à criação de uma estrutura que suporte a grande energia que o arremesso produz, porém sem muito peso. Portanto, a Física está envolvida com tudo o que nos rodeia. Ela pode ser uma grande aliada dos atletas que, para chegarem à perfeição, lidam com desafios similares aos de um mágico, em que o objetivo é conseguir realizar coisas até então impossíveis. No caso do atleta, a Física pode ser o ingrediente principal a seu favor. E, para isso, não é preciso mágica; somente inteligência e disposição para saber usá-la.

(3): Roupa de alta qualidade produzida pela Speedo, composta de poliuretano e nylon-elastano, utilizada em natação. (4): Roupa produzida com base na substância que reveste o corpo dos tubarões e possui uma textura que faz o atleta deslizar com maior facilidade durante as competições.

123


Mendel, um monge cientista Prof. Orientador: Gisélia Lima. Alunos: David Conde, Eduardo Henrique Cortez, Emily Kimoto, Evelin Caroline Oliveira, Fernanda Encinas, João Victor Maretti, Leonardo Malenoski.

G

regor Johann Mendel nasceu em 1822, na Áustria. Filho de fazendeiros, após ter sido ordenado monge em 1847, ingressou na Universidade de Viena onde estudou matemática e ciências. Mendel possuía uma curiosidade insaciável sobre o mundo físico e biológico. Seu desejo era ser professor de ciências naturais, mas foi mal sucedido nos exames. Ao voltar para o mosteiro da cidade de Brunn, hoje Brno, fez estudos meteorológicos, estudou a vida das abelhas e cultivou plantas, tendo produzido novas variedades de maças e peras. Entre 1856 e 1865, realizou uma série de experimentos com ervilhas, com o objetivo de entender como as características hereditárias eram transmitidas de pais para filhos, o que lhe conferiu o título de “pai da genética”. A genética, como a conhecemos, surgiu principalmente de um trabalho publicado por Gregor Mendel, em 1866. Compreender a genética como ciência é entender o processo pelo qual as característi-

1EMMC

cas são passadas dos genitores para sua prole. Mendel utilizou a ervilha-de-cheiro (Pisum sativum) devido ao seu fácil cultivo e polinização artificial, grande produção de descendentes férteis em curto espaço de tempo, grande facilidade de identificar as diferentes características. Por meio da autopolinização, produziu e separou diversas linhagens puras, sem variação ao longo das gerações. O primeiro cruzamento foi feito utilizando pólen de uma planta de semente amarela depositado no ovário de outra de semente verde. Essas

plantas foram denominadas geração parental (P) e como resultado foi obtido a geração F1, onde todas as sementes produzidas eram amarelas. Mendel as chamou de geração híbrida, uma vez que foi resultado do cruzamento de plantas com características diferentes. Ele deixou, então, as sementes germinarem e realizou a autopolinização em uma delas, obtendo a geração F2 de sementes híbridas, na qual as sementes verdes haviam reaparecido numa proporção de 3:1. Com essas informações, Mendel chegou à con-

clusão de que, as características das sementes verdes nunca haviam desaparecido, elas apenas não haviam se manifestado na geração F1, isso acontece porque todas a características são determinadas por dois fatores ou genes em pares, onde o gene dominante (amarela) determina sempre quando expressa com um gene recessivo (verde), este por sua vez, só se expressa em dose dupla, quando é considerado puro.

O trabalho publicado em

P Linhagem pura

Planta produtora de sementes amarelas

100%

Planta produtora de sementes verdes

Planta produtora de sementes amarelas

F1 Linhagem híbrida

F2

X

Auto-fecundação

Planta produtora de sementes amarelas

Planta produtora de sementes verdes

3/4

1/4

124


1886, ficou praticamente desconhecido do mundo científico até que, 35 anos depois, três pesquisadores independentes redescobriram suas ideias sobre a hereditariedade. A partir de então, as leis propostas para explicar a transmissão das características hereditárias abriram grandes portas para a Ciência. Em 1909, Johannsen propõem que os fatores hereditários de

Mendel fossem denominados genes. As contribuições de Mendel para a ciência foram inúmeras, uma vez que ele explicou por meio de leis, a herança e a atividade gênica: a Lei da Segregação ou Lei da Pureza dos Gametas; Lei da Segregação Independente dos Gene ou Lei da Distribuição. A partir da década de 70, quando desenvolveram tecnologias para a análise

125

do DNA, foi possível para os cientistas identificar, caracterizar mutações e entender a natureza dos produtos proteicos dos genes, sendo possível uma maior compreensão de diferentes características, distúrbios e anomalias de origem genética.


A termodinâmica e a primeira revolução industrial Prof. Orientador: César Lobato. Alunos: Beatriz Rogatto, Clara Domingues, Demerson Fonseca, Denise Seguchi, Giulia Tasca, Guilherme Antonio Salmeron, Luísa Galhego.

1EMVD

A

té a primeira metade do século XVIII, os produtos eram feitos manualmente, sem ajuda de máquinas, geralmente elaborados por uma pessoa em sua casa ou em uma oficina. Grande parte da população vivia no campo; o carvão não era usado como fonte de energia para fábricas e o ar ainda muito puro. Porém, nesse mesmo século, surgiu na Inglaterra algo que mudaria todo o restante do mundo e iniciaria uma nova era: a Primeira Revolução Industrial. Mas, para que isso acontecesse, era preciso ter conhecimento sobre a Termodinâmica, ciência que “permite determinar a direção na qual vários processos físicos e químicos irão ocorrer”. Com a ajuda das leis da Termodinâmica seria possível entender e modernizar a máquina a vapor, que utiliza o vapor de água para liberar a energia de calor (calorífica) liberado pela queima de carvão, fazendo um movimento alternado de rotação de vai-e-vem, realizando o trabalho. Essa máquina possibilitou avanços na produção, tornando-a mais rápida, padronizada e barata. Deu-se, assim, o início da Revolução Industrial e a ascensão da burguesia. Neste contexto, um cientista se mostrou extremamente importante. Seu nome: James Prescott Joule. Quem foi Joule?

Uma das leis da Termodinâmica, mais precisamente a primeira, foi desenvolvida por James Prescott Joule, nascido em 1818 na Inglaterra. Ele era filho de um rico fabricante de cerveja que incentivou seus estudos montando um laboratório para ele. Joule estudou na Universidade de Manchester tendo o químico John Dalton como seu professor. Aos 15 anos, Joule assumiu a cervejaria do pai e, contando com uma boa renda pessoal, continuou seus estudos. Ele passou uma década tentando entender a relação entre o calor e o movimento mecânico. Essa década de experiências resultou na primeira determinação do equivalente mecânico do calor, chamado de Equivalente de Joule. O cientista também conduziu pesquisas sobre a relação entre o calor e a eletricidade. Em seu estudo intitulado “On the Production of Heat by Voltaic Electricity” (‘Sobre a Produção de Calor por Eletricidade Voltaica), publicado em 1840, ele chegou à fórmula conhecida como Lei de Joule: ‘O calor produzido é diretamente proporcional à resistência do condutor multiplicado pelo quadrado

da corrente’. Como James era dono de uma cervejaria, autodidata e fraco em Matemática, as sociedades físicas rejeitaram seus trabalhos: Joule, no entanto, para atrair atenção para suas ideias, deu uma palestra pública e convenceu um jornal de Manchester a publicar o texto de sua pesquisa. Isso gerou tanto interesse que o físico escocês William Thomson foi assistir à sua palestra seguinte. Thomson era muito respeitado e, com seu apoio, a competência de Joule foi reconhecida. A sociedade real, então, convidou o pesquisador a apresentar sua teoria através de palestras e, em 1850, o aceitou como um de seus membros. Joule e Thomson trabalharam juntos e, dessa forma, criaram a lei fundamental em que se baseiam a refrigeração e o ar condicionado: quando um gás se expande livremente, sua temperatura cai. Sua obra completa foi publicada em dois volumes pela Physical Society of London, sob o título Trabalhos Científicos, entre 1885 e 1887. Ele continuou sendo cientista pelo resto de sua vida. A unidade métrica para trabalho e

126

energia recebeu o nome Joule em sua homenagem, sendo que uma das maiores descobertas por ele feitas foi a Primeira Lei da Termodinâmica, comumente chamada de Lei da Conservação de Energia. A Experiência de Joule Joule verificou que, ao empregar certo valor de energia mecânica para fazer um dínamo funcionar, tal valor era o mesmo que o calor produzido pela corrente elétrica fornecida pelo dínamo. Em outras palavras, a quantidade de energia mecânica que faz o dínamo funcionar equivale à mesma quantidade de energia elétrica obtida ao final do processo. Isto o convenceu de que existiria, de fato, uma equivalência entre trabalho e calor. Joule então passou a realizar experiências com o objetivo de demonstrar essa equivalência. Uma delas se tornou famosa por conseguir determinar a quantidade de trabalho necessária para elevar em 1°C a temperatura de 1 grama de água. O aparelho de Joule transforma energia potencial de corpos, que caem presos a um fio de massa desprezível, em trabalho realizado sobre a água.


Os resultados que Joule alcançou estavam sujeitos a uma incerteza de 5 %, o que, para os padrões da época, era uma excelente precisão. Deixavam-se cair dois corpos, de massas M1 e M2, de uma altura h, ligados por fios inextensíveis e de massas desprezíveis a um eixo que fazia girar várias palhetas dentro d’água e com um calorímetro contendo um termômetro ligado a ele. Devido à diminuição da energia mecânica dos corpos, produzia-se o aquecimento do líquido. O aquecimento da água era equivalente à transferência da energia para ela, sendo a capacidade calorífica específica da água, ou capacidade térmica mássica da água, a sua massa e a elevação da sua temperatura, gerando a seguinte equação: A fim de conseguir uma elevação de temperatura apreciável, Joule fez cair os corpos dezenas de vezes seguidas. Para simplificar o raciocínio, vamos supor que cada corpo só caiu uma vez e vamos imaginar também que só a água se aquece (não podemos esquecer que o calorímetro que a contém, o termômetro e as palhetas também a aquecem. Só que o elevado valor da capacidade térmica mássica da água justifica essa aproximação). Para conseguir o movimento das palhetas dentro da água era necessário vencer sua resistência e, assim, realizar trabalho sobre ela. Esse trabalho, W, mede a diminuição da energia mecânica dos corpos que chegam ao fim da queda com energia cinética, Ec, de valor inferior ao da energia potencial gravitacional, Ep, que os corpos possuíam inicialmente em repouso a uma certa altura h, antes de se iniciar a queda. Temos então que v é a velocidade dos corpos de massa M1 e M2, no fim da queda, e h a altura, resultando na seguinte fórmula: A conclusão a que o célebre pesquisador chegou

foi de que se podia considerar constante a razão entre W e Q, ou seja, de que é constante a razão entre trabalho e calor, tal que: Em que J é uma constante (a letra foi usada para homenagear Joule) cujo valor é 4,1855 J cal-1. Esta constante, muitas vezes designada por “Equivalente Mecânico de Calor”, não é mais que um fator de conversão de unidades (não confundir equivalente mecânico de calor com J (joule), símbolo da unidade SI de energia, assim denominada também em homenagem a Joule). Após todas as correções, ele obteve o resultado final de que 772 libras pés (ft lb) de trabalho produziriam o calor necessário para aquecer 1 libra de água em 1°F. Em nossas unidades, isso corresponde a J = 4, 154. 1/cal. Joule realizou várias experiências substituindo a água por mercúrio e óleo, mantendo as palhetas movendo-se dentro destes líquidos, além de efetuar outras experiências com motores elétricos e dínamos. Posteriormente, e por processos diferentes, outras determinações foram feitas, todas elas em conformidade com as descobertas de Joule. A ideia de que a energia não pode ser criada nem destruída (Lei da Conservação da Energia) também se consagrou neste período. Graças a essa lei definida por Joule, foi possível a concretização da Revolução Industrial. A importância desse movimento foi, com toda certeza, o fato de que serviu de base para novas tecnologias, que provocaram grandes alterações no modo de produção. Houve, além de outros resultados, uma mudança drástica na estrutura social da época. No campo, multidões de pequenos camponeses foram expulsos de suas terras por não poderem concorrer com o cultivo mecanizado de grandes agricultores e pelas leis que

favoreciam esses latifundiários, como a política de cerceamento. O destino destes desolados desempregados foram as cidades, onde procuravam emprego nas várias fábricas mecanizadas que estavam surgindo e crescendo Joule ainda vive! As aplicações das descobertas de Joule não se restringiram à Revolução Industrial, mas continuam a fazer parte da vida das pessoas nos dias de hoje. Os processos técnicos ou tecnológicos que envolvem calor e trabalho ( ) são baseados nos estudos deste cientista. Nas usinas térmicas, nucleares ou movidas a biomassa, carvão e outras fontes que levam a energia à maior parte das pessoas no mundo, os princípios de Joule são largamente utilizados, pois nessas usinas, o calor gera o vapor que cria movimento em turbinas, gerando energia elétrica que abastece milhões de pessoas. Dos clássicos motores a explosão presentes em automóveis até os modernos sistemas de propulsão para foguetes, a Primeira Lei daTermodinâmica se mostra correta e fornece ajuda para o desenvolvimento de cálculos de engenheiros, químicos e físicos. E não somente de transformações de calor em energia mecânica vive o legado do cientista. O princípio da conservação da energia está presente em todos os processos que envolvem o uso de qualquer transformação energética.

127

As descobertas de Joule estão em tudo que se faz. A transformação de energia elétrica em térmica de um chuveiro, ou em energia luminosa de uma lâmpada, a energia química dos alimentos transformada em energia mecânica quando nos movimentamos, todos esses processos podem hoje ser controlados com precisão graças aos seus estudos. Durante toda a história da humanidade, muitas pessoas foram desacreditadas e contestadas, tais como Albert Einstein, Charles Chaplin, Elvis Presley e tantas outras que hoje são grandes nomes em suas áreas, assim como aconteceu com James P. Joule. Os estudos que ele fez são de grande importância para a sociedade contemporânea. Esse pesquisador será lembrando eternamente, não apenas pelo desenvolvimento tecnológico que a Termodinâmica possibilitou, mas como um dos grandes exemplos de pessoas que enfrentaram as adversidades mesmo quando diziam que sua teoria não era possível ou que elas não eram capazes de provar suas teses.


Watson e Crick: o nobel que reinventou a biologia molecular Prof. Orientador: Gisélia Lima. Alunos: Allan O. Rodrigues, Bárbara Andrade, Gabrielle Novaes, Henrique Silva, Rodrigo Torres, Thayná Rosa, Ulisses Ferreira.

E

m 1946, Oswald Avery e seus colaboradores demonstraram que o DNA constituía o material genético. A partir desse fato, vários cientistas se interessaram em estudá-lo: virologistas, físicos, químicos e biologistas estruturais. Já era previsto que Watson ficaria animado ao saber do interesse de cientistas do King’s College e do Cavendish Laboratory, em Cambridge, pelos estudos estruturais da molécula de DNA. Watson saiu de Copenhague, onde realizava um pós-doutoramento, e com a ajuda de Salvador Luria, renomado geneticista e orientador do seu doutorado, mudouse para Cambridge. No Laboratório Cavendish, conheceu Crick, que trabalhava nos estudos sobre a estrutura da hemoglobina. Assim, começou a jornada dos jovens cientistas que não

1EMMB

sabiam quase nada sobre a estrutura molecular do DNA. O neozelandês Maurice Wilkins foi quem mostrou a James Watson, em 1950, uma imagem de raio X na qual era observada a forma de dupla hélice do DNA, uma forma helicoidal, como a de um saca-rolhas. Em novembro de 1951, Watson divulgou em um seminário do King’s College dados sobre a difração de raios X em amostras de DNA. Um primeiro modelo foi criado a partir de modelos primitivos e, por interferência de John Randall, Watson e Crick tiveram que suspender seus estudos preliminares e retomaram os trabalhos com a hemoglobina. Alexander Todd descobriu as bases nitrogenadas adenina (A), citosina (C), timina (T) e guanina (G), enquanto Erwin Chargaff descobriu que as quantidades de A, C, T e G eram

iguais em qualquer amostra de DNA. Porém, nos Estados Unidos, Linus Pauling se aproximava cada vez mais da descoberta de como o DNA era estruturado. A partir dos modelos primordiais feitos por Watson, ele percebeu que o pareamento entre adenina, timina, citosina e guanina tinham contornos geométricos, e que as pontes de hidrogênio eram responsáveis pela estabilidade da dupla hélice. Em 25 de abril de 1953, através de um artigo publicado na revista Nature e de uma nota no jornal New Chronicle era oficializada a descoberta do físico inglês Francis Crick. Ele havia construído um modelo em três dimensões do DNA (ácido desoxirribonucleico) junto com o zoólogo norte-americano James Watson. Watson e Crick sugeriram ao mundo uma estrutura tridimensional inédita para o sal de DNA.

128

Além disso, afirmaram que o pareamento específico sugere um possível mecanismo de cópia para o material genético, uma descoberta que despertou um grande interesse na comunidade científica. Desta descoberta, resultou a Crick e Watson o prêmio Nobel de Medicina e Fisiologia de 1962. Provavelmente, o que levou à unicidade dessa descoberta foi a mistura de ciência com arte. Primeiramente, a estrutura do DNA tem uma beleza peculiar e, em segundo lugar, há uma lógica química na estrutura que permite uma interpretação biológica da molécula do DNA percebendo-se, então, uma correlação estrutura-função. Graças aos estudos elementares sobre o material genético, inúmeros projetos e pesquisas fazem do DNA uma descoberta sempre nova e fascinante na compreensão da máquina da vida.




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.