Exercício de Pensamento 1. O Elétron e o Núcleo 2. Na Velocidade do Pensamuito 3. Quando a Cabeça Não Pensa o Corpo Paga 4. Cabeça Desocupada Oficina de Satanás 5. Pagando a Satanás 6. A Dívida Acumulada 7. A Cobrança 8. Os Cobradores 9. Exercício 10. O Excesso de Candura
1
Vitória, segunda-feira, 26 de outubro de 2009. José Augusto Gava.
1
Capítulo 1 O Elétron e o Núcleo Se o elétron é 1/1.840 do próton ou do nêutron, evidentemente é 1/3.860 do mais simples dos elementos. Desde muito cedo em minha trajetória escrevi que seria preciso “eletronizar” (para inventar agora esta palavra) a coletividade, fazendo a maior parte das tarefas sem nos mexermos muito. Aconteceu justamente o contrário: estimularam até onde puderam a produção de automóveis, mesmo quando a Internet despontou em 1989 no mundo e em 1995 no Brasil; em vez de uma sociedade sem papéis, a produção e o consumo deles foram ampliados desmesuradamente. 1.840/1 É ISTO (3.680/1 é o dobro, mas o dobro não é apenas um número, é uma dificuldade) 1
2
2
3
3
Lembre-se que você não precisa ir a todo lugar da Terra para estar lá, pois a humanidade cresceu muito. COMO ÉRAMOS E COMO ESTAMOS NOS TORNANDO A) PESSOAS • o indivíduo é 1 e fica no quarto; • a família chega a 4 (com 8 pernas, 8 braços e quatro cabeças; se duas cabeças pensam – isso nem sempre é verdadeiro - mais e melhor que uma, quatro fazem muito mais e muito melhor) ou mais, e tem casa; • o grupo envolve muito mais gente (que se espalha ao redor), já está na quadra; • a empresa vai ainda mais longe e algumas (dos estimados 120 milhões) têm centenas de milhares de empregados, atingindo cada qual o bairro; B) AMBIENTES • cidades-municípios podem chegar hoje a mais de 30 milhões de indivíduos; • estados há-os tão grandes quanto países (quais são os maiores do mundo?); • nações (a mais populosa, a China, tem oficialmente 1,3 bilhão, podendo chegar, com os nãoregistrados, a 1,7 bilhão); • o mundo em processo de globalização da visão, da audição, do paladar, do olfato, do tato, do processamento mental tem 6,7 bilhões de processadores em curso de reunião. Enfim, a humanidade é incomparavelmente mais vasta que qualquer um de nós. Já existe um agente seu em Paris. De fato, milhões de franceses são parisienses e podem dar (como dão) notícia de lá. Você não precisa ir a Quebec para estar (nem sempre expressando suas vontades) lá.
Capítulo 2 Na Velocidade do Pensamuito Quando a gente é criança (e muitas crianças adultas continuam com esse papo furado, continuam crianças) pensa que a “velocidade do pensamento” é tremenda, levando-nos a Netuno em segundos ou fração disso. Não é verdade, apenas pensamos em Netuno, não fomos lá, claro. Contudo, o pensar-muito realmente torna tudo muito rápido, porque você não precisa pensar em todas as produções das 22 tecnartes do corpo (da visão, da audição, do paladar, do olfato e do tato) ao longo de milênios.
4
4
EM CADA PONTINHO DESTA PSEUDO-ESFERA TEM GENTE PENSANDO POR VOCÊ E INVESTIGANDO OS CENÁRIOS, OS CONHECIMENTOS, A LÓGICA, A DIALÉTICA, A MATEMÁTICA
1. investigação da Magia-Arte; 2. investigação da Teologia-Religião; 3. investigação da Filosofia-Ideologia; 4. investigação da Ciência-Técnica: • da física-química; • da biologia-p.2; • da psicologia-p.3; • da informática-p.4; • da cosmologia-p.5; • da dialógica-p.6; 5. investigação da Matemática. Com isso há uma curva exponencial aumentando as quantidades e as qualidades. Você pode ter o que é local no local mesmo, perto de você, e até aprender a valorizar o lugar onde foi inserido; e pode ter o distante através dos outros, raramente indo tão longe. Quando eu ainda pensava parcialmente, ficava admirado de irem à Espanha mais indivíduos do que os moradores de lá durante um ano. ESPANHA LOCAL E DISTANTE (é bom isso, da visitação, as pessoas verem NO LOCAL as tarefas históricas dos espanhóis, mas se gasta uma enormidade de energia) – milhões em 2008 POPULAÇÃO (time da casa) VISITANTES (time de fora) P/V (%) 40,5 57,8 70,1 22/10/2009 Turismo na Espanha sofre com crise, mas "Madri está na moda" Com número de turistas 6,7% menor, espanhóis apelam para as touradas e tentam conquistar brasileiros Por Elisa Campos, enviada especial a Madrid*
Cibeles: local onde o Real Madri comemora seus triunfos Não estranhe se ao caminhar por alguma cidade no sul da Espanha encontrar num restaurante ou loja uma placa com os dizeres “Aqui também se fala espanhol”. A brincadeira, comum em algumas épocas do ano, revela o peso que o turismo tem na economia espanhola. Em 2008, o país recebeu 57,4 5
5
milhões de turistas, muito mais do que os 6,5 milhões do Brasil. A crise mundial, no entanto, deixou as praias espanholas mais vazias neste ano. O número de viajantes estrangeiros caiu 6,7% em 2009. A Espanha é um dos países que mais sofre com a crise na Europa. No segundo trimestre deste ano, o PIB espanhol recuou 4,2% em relação ao mesmo período de 2008. Com a recessão, a taxa de o desemprego do país pode chegar a 20% no ano que vem, segundo previsões do Fundo Monetário Internacional (FMI). As expectativas para 2010 não são promissoras. As projeções de organismos internacionais indicam que a Espanha pode continuar em recessão. “Será um ano muito duro. Igual ou ainda pior do que o que estamos vivendo. No turismo, dependemos muito da situação econômica dos outros países”, diz Ulrike Bohnet, responsável pelo escritório de turismo de Madri. Em busca de turistas Coincidência ou não, para atrair mais turistas, os espanhóis decidiram apelar recentemente para a divulgação de uma de suas tradições mais polêmicas, as touradas. “Antes, havia uma orientação em alguns lugares para simplesmente não citar as touradas, como na Alemanha. Agora, estão sendo produzidos folhetos para a divulgação desses eventos, com todo tipo de informações. Estavam negando uma faceta da Espanha e perceberam o potencial desse atrativo. É incrível o percentual de turistas estrangeiros em festas relacionadas às touradas”, conta Ulrike Bohnet.
Desenho de Picasso: espanhol e fã das touradas Atualmente, os principais visitantes com destino à Espanha são os franceses, seguidos dos britânicos, portugueses, italianos, alemães e americanos. Com boa situação econômica em meio à recessão mundial, o Brasil também começa a chamar a atenção do setor de turismo espanhol. “Nos últimos cinco anos, o número de brasileiros que visita o país tem aumentado bastante. Para 2010, teremos os brasileiros como foco prioritário”. O principal destino dos turistas brasileiros na Espanha é a capital do país, Madri. Na sequência aparecem as regiões da Catalunha (Barcelona), Andaluzia (Sevilha) e Galícia (Santiago de Compostela). A capital, aliás, resiste até agora à queda no número de visitantes. São 9 milhões de turistas por ano. “Madri é a única região da Espanha que não está perdendo visitantes em 2009. Não estamos crescendo, mas tampouco estamos com desempenho negativo”, afirma a responsável pelo turismo na cidade. Com 90 mil leitos a oferecer, cerca de 6% do PIB de Madri já vem do turismo. A região tem ganhado peso nos últimos anos. “Houve um trabalho muito forte de promoção do turismo na cidade. Madri está na moda”. Pois, para o bem da economia espanhola, que ela continue assim. * A jornalista Elisa Campos viajou a convite da Gol Linhas Aéreas 6
6
Ano População Posição
Mudança Porcentual
Data da Informação
2003 40.217.413
29
July 2003 est.
2004 40.341.462
29
0,31%
July 2005 est.
2005 40.341.462
29
0,00%
July 2005 est.
2006 40.397.842
30
0,14%
July 2006 est.
2007 40.448.191
29
0,12%
July 2007 est.
2008 40.491.051 30 0,11% July 2008 est. Fonte: CIA World Factbook - A menos que indicado de outra maneira, toda a informação en esta página es correta até Maio 16, 2008. População: 40.491.051 (Julho 2008 est.) Para levar tanta gente lá (3.680 vezes mais pesada que o equivalente eletrônico) é preciso gastar uma quantidade assombrosa de energia para mover aviões, trens, barcos, caminhões, automóveis. E, no entanto, todos aquelas dezenas de milhões de espanhóis se encontram lá TODOS OS DIAS e poderiam ser incumbidas de várias tarefas paralelas. Na realidade a presença local é inevitável em alguns casos, mas na maioria do tempo poderíamos ser mais “eletrônicos” do que somos, menos gastadores.
Capítulo 3 Quando a Cabeça Não Pensa o Corpo Paga Meu pai, José Attílio Gava, usava esse ditado, não sei de quem é, esqueci de perguntar. Significa que quando não pensamos bastante e com lógica obrigamo-nos a fazer MUITO MAIS tarefas do que seria necessário; pude ver no decorrer das décadas que é assim com a humanidade, pois trabalhamos, penso, uns 500 % a mais do que seria minimamente necessário para fazer as tarefas muito melhor. Movimentamo-nos demais (veja a cartilha Preço Natural e Custo Social), gastamos energia demais (veja a cartilha 100 Cavalos Puxando 1), com os resultados previsíveis de esgotamento perante a frente tecnocientífica de onda: por exemplo, o horizonte do esgotamento do petróleo está perto, em tese 2040, mais uma geração desde 2010. OS PAGAMENTOS DO CORPO (alguém que faça avaliação de quanto seria poupado em atividades alternativas plenamente satisfatórias, substitutas das atuais)
7
7
Cada caixinha dessas está cheia de exageros. De excessos. Quando saí da trilha comum da falta de visão geral pude rever muita coisa que estamos fazendo de estúpido e perdulário de nossa herança ancestral humana, de tudo que estamos desperdiçando da vida, do ar, da água, da terra/solo, do foto energia. A DESTRUIÇÃO DA BANDEIRA ELEMENTAR • destruição do ar; • destruição da água (ela não pode ser mesmo destruída, só separada nos elementos químicos; mas, para efeitos de uso humano, é como se fosse); • destruição da terra/solo; • destruição dos depósitos de fogo/energia; • destruição da vida (o biopatrimônio está sendo jogado pelo ralo).
PARECE ESQUISITO, ISTO De um lado Falta equilíbrio (ele não empanturramento em é ensinado nas escolas, mesas extremamente não é teorizado, não é fartas (excesso de praticado). ofertas de açúcar, sal, gorduras, massas)... Se gasta muito de um lado para encher o corpo de porcarias e gorduras... OS CONSELHOS DE WALTER FRANCO tudo é uma questão de manter:
... do outro lado a agonia permanente das academias de ginástica para malhar, submetendo o corpo a torturas. ... e do outro, em compensação, se gasta muito também para esvaziar. (já citei várias vezes) –
Coração Tranquilo Walter Franco
Tudo é uma questão de manter A mente quieta A espinha ereta E o coração tranqüilo 8
8
1. 2.
a mente quieta; a espinha ereta; 3. o coração tranqüilo. OS CONSELHOS DE MONSIER BINOUT
Monsieur Binot Joyce
Olha aí, monsieur Binot Aprendi tudo o que você me ensinou Respirar bem fundo e devagar Que a energia está no ar Olha aí, meu professor, Também no ar é que a gente encontra o som E num som se pode viajar E aproveitar tudo o que é bom
Bom é não fumar Beber só pelo paladar Comer de tudo que for bem natural E só fazer muito amor Que amor não faz mal
Então, olha aí, monsieur Binot Melhor ainda é o barato interior O que dá maior satisfação É a cabeça da gente, a plenitude da mente A claridade da razão E o resto nunca se espera O resto é próxima esfera O resto é outra encarnação!!! 4. bom é não fumar; 5. beber, só pelo paladar; 6. comer de tudo que for bem natural; 7. fazer amor (que amor não faz mal). O mundo está coalhado de bons conselhos de pessoas sensatas a que não prestamos atenção, que não observamos - continuando alegremente a nossa caminhada rumo ao precipício. A MARCHA DOS DEMENTES • supervitaminas; • “bombas”; • milhares de outras atitudes, que alguém poderia fazer o favor de listar (é importantíssimo mostrar nossa afrontadora falta de inteligência). Como não temos pensado o suficiente, nosso corpo tem pagado somas imensas de tudo, levando depois a doenças e estas a ainda mais custos (de energia, de matéria, de empenho humano em tratamentos, recursos que estariam mais bem empregados alhures). EMPARELHAMENTO DAS DEMÊNCIAS (as insanidades emparelhadas umas com as outras, cada uma das quais passando por ser boa atividade socioeconômica) – cadeia improdutiva, anti-dialógica, anti-minimax. 9
9
excesso de alimentação
excesso de exercícios
milhares de besteiras milhares de asneiras Que absurdos mentais levam as moças - em tudo o mais, bonitas - a deixarem de se alimentar e com isso ficarem bulímicas e anoréxicas, gastando depois fortunas para retomarem suas formas mínimas adequadas? Que aberrações cerebrais levam os rapazes a parecerem rãs? BULÊMICAS E BOMBADOS BULÍMICAS BOMBADOS
10
10
11
A coletividade alucinada paga todas essas psicoses individuais.
Capítulo 4 Cabeça Desocupada Oficina de Satanás Como disse aos meus colegas de serviço lá no posto fiscal, as pessoas medita-bundas só pensam merda e só falam cocô. Não obstante, quantas e quantas pessoas sábias existem no mundo! É incontável, mais agora que no passado, embora seja proporcional ou relativo ao quantitativo; porém, como o quantitativo vai aumentando e caminha para 7,0 bilhões de seres humanos, o mesmo percentual de antes significa agora uma quantidade incrível de gente produzindo todo o Conhecimento (os altos e baixos são 12), as tecnartes (são 22), as chaves (da proteção, 5; do sexo, 4; da economia, 5; da psicologia, 5) e tantas outras coisas que despontaram no modelo. Como dizia minha mãe, Alvira Perim Gava, “cabeça desocupada, oficina de satanás”, querendo falar de como o processamento contínuo do cérebro leva a inúmeros “pensamentos maus”: se o cérebro não processar coisas boas, processará coisas ruins. E pense que – segundo a Curva do Sino – 50 % são naturalmente tendentes a ficar desocupados ou propender à desocupação e à preguiça. Trabalhamos para fornecer toda essa superalimentação a uns poucos (ela não chega aos restantes, que passam fome) e trabalhamos de novo para retira-la - com mais energia e matéria, além de tempo de serviço dos obesos, dos gordos, daqueles que se acham com sobrepeso e dos que desejam “ficar elegantes”. É um inferno de sobretrabalho. O MUNDO OBESO (veja a cartilha O Mundo Obeso e as Reduções do Futuro) 11
12
12
13
13
Obesidade já é considerada epidemia mundial Mais de um bilhão de pessoas sofre com o excesso de peso Publicado em 11/4/2007 O mundo está mais gordo. Já faz tempo que a obesidade deixou de ser um problema meramente de ordem estética e foi alçado para a categoria de doença crônica. De acordo com os números da Organização Mundial da Saúde (OMS) são mais de um bilhão de adultos com excesso de peso no ano de 2000.Desse grupo, pelo menos 300 milhões são obesos contra 200 milhões em 1995. A situação é tão alarmante que doença já até ganhou estatus de epidemia. A estimativa é que em 2030 o mal aumente 70% nos Estados Unidos, 50% na Inglaterra e 30% no Brasil. Por aqui, uma pesquisa realizada pelo IBGE identificou que, pelo menos, 38 milhões de brasileiros são obesos. A ala masculina é a mais afetada somando 41% dessa farta fatia da população. Uma pesquisa realizada pelo Albert Einstein Medicina Diagnóstica com quatro mil executivos entre 2004 e 2006, revelou que 71% dos homens estavam acima do peso contra 26% das mulheres. Nenhuma faixa-etária está livre do mal. A obesidade infantil também já apresenta dimensões sinistras. Segundo a OMS, existem 17,6 milhões de crianças obesas no mundo inteiro com idade inferior a cinco anos. A maior autoridade de saúde dos Estados Unidos, o Surgeon General afirma que desde 1980 o número de crianças obesas dobrou e o de adolescentes triplicou no país. Embora o fator genético contribua para desenvolver esse mal, as principais causas da doença ainda recaem sobre o consumo crescente de comidas com alto valor calórico, ricas em gorduras saturadas e açúcares, além de atividade física reduzida, ou seja, sedentarismo.(aprenda a escolher bons alimentos para suas refeições) O padrão de medida para definir de uma pessoa é obesa ou não é ter um Índice de Massa Corporal (IMCI igual ou superior a 30 kg/m²). O índice é definido pelo cálculo do peso da pessoa em quilogramas dividido pela sua estatura em metros quadrado , explica o clínico geral Flávio Dantas, da Unifesp.(faça uma avaliação nutricional grátis e veja seu peso ideal) A doença alcança três níveis de gravidade. O primeiro deles, tomando-se como base o IMC, quem está com mais de 15 quilos já é considerado obeso. Nesse caso, uma dieta orientada e exercícios praticados regularmente funcionam para aplacar a doença , diz Flávio. (exercícios para fazer em casa substituem a academia) O segundo estágio é a obesidade mórbida, que abrange as pessoas que se encontram com 30 quilos a mais. Esse grupo apresenta outras doenças e não emagrece o suficiente com tratamento. Já a superobesidade atinge pessoas que pesam 50 quilos extras e, muitas vezes, não saem mais da cama nem fazem tarefas simples, como amarrar os sapatos. Um estudo publicado na revista científica BMC Public Health concluiu que os sobreviventes do acidente na usina nuclear de Chernobyl, em 1986, e das bombas atômicas que atingiram Hiroshima e Nagasaki, em 1945, sofrem conseqüências parecidas ou até menores do que quem vive em áreas poluídas, fuma ou é obeso. De acordo com o autor da pesquisa, Jim T. Smith, pessoas que fumaram a vida inteira podem ter dez anos a menos de vida por causa do vício, enquanto 14
14
que obesos, aos 35 anos, em grau elevado (com um IMC acima de 40) pode morrer de quatro a dez anos antes. Já os sobreviventes das bombas atômicas do Japão, que estavam num raio de 1,5 quilômetro do epicentro da explosão, têm a expectativa de vida reduzida em 2,6 anos, em média. Assustador não? E não é para menos. A obesidade por si só desencadeia uma série de conseqüências nefastas ao organismo. Os casos mais graves que podem levar à morte estão distribuídos em quatro categorias: doenças cardiovasculares, doenças como o diabetes (destrinçamos todos os detalhes dessa doença crônica), associadas à resistência de insulina; certos tipos de câncer, como o de intestino, e doenças da vesícula biliar. A probabilidade de desenvolver hipertensão e diabetes aumenta sensivelmente quando o paciente engorda, explica o Dantas, da Unifesp. A OMS calcula que, aproximadamente, 90% das pessoas com diabetes tipo 2 são obesas ou têm excesso de peso. Ter um IMC acima do ideal contribui para cerca de 58% do diabetes, 21% das cardiopatias isquêmicas e entre 8% e 42% de determinados tipos de câncer, como os de mama, cólon, próstata, endométrio, rins e vesícula biliar. No rol dos problemas de saúde considerados não fatais estão os problemas respiratórios, musculares e esqueléticos crônicos, doenças de pele, depressão e infertilidade. Nas mulheres, o excesso de gordura na barriga pode provocar o surgimento de ovários micropolicísticos, principal causa de baixa fertilidade (controle a ação dos seus hormônios). O IMC elevado também colabora para o aparecimento da osteoartrite ou artrose, principal causa para a incapacitação dos adultos. A doença promove um desgaste das cartilagens que ficam entre os ossos e que serviam para protegê-los do atrito natural. As principais regiões afetadas são as articulações da coluna vertebral, dos joelhos e das mãos. Os sintomas incluem dor ao subir ou descer escada, rigidez e dor na virilha. VOCÊ ME TEM FÁCIL E DEMAIS (estatísticas da ONU)
Nada Por Mim Paula Toller & Herbert Viana
Você me tem fácil demais Mas não parece capaz De cuidar do que possui Você sorriu e me propôs Que eu te deixasse em paz Me disse vai, eu não fui Não faça assim Não faça nada por mim Não vá pensando que eu sou seu Você me diz o que fazer Mas não parece entender Que eu faço só pra te agradar Me diz até o que vestir Com quem andar e aonde ir Mas não me pede pra voltar 50 % da gente têm 48 % da gente têm 2 % da gente têm 1 % da renda 49 % da renda 50 % da renda (1/50) x 1.000 = (49/48) x 1.000 = (50/2) x 1.000 = 20 ‰ 1.020 ‰ 25.000 ‰ 15
15
Bastaria treinamento para não comer demais, não sendo necessário retirar depois; não consumiríamos em excesso (nem comida nem objetos, pois as mentes é que são obeso-mórbidas, são elas que buscam a morte) e depois não precisaríamos gastar mundos de energia, de espaço, de matéria, de trabalho humano para retirar os exageros. LIPOS-INSPIRAÇÕES (muitas delas deixam seqüelas terríveis)
ACADEMIL (são milhares, dezenas de milhares, centenas de milhares, milhões através do mundo – até em Jacaraípe, balneário de, sei lá, 20 mil habitantes, há academias, pilates, hidromassagem)
BAAL-NALIZAÇÕES (inventaram mil técnicas para tratar ou pseudo-tratar a humanidade mentalmente doente) 16
16
botox
massagens
plásticas
cosméticos
17
photoshop
Incontáveis quantidades de gente estão empregadas nessa economia falsa, contada como positiva. Bastaria um leve toque - o de ensinar nas escolas desde o pré-primário - e toda essa descendência de Tanatos desapareceria da Terra. Na realidade o Oriente já possui o remédio para a cura há milênios, pois começou por ele; mas lá a contenção levou ao excesso de gente. Se os humanos não pagam de um jeito pagam de outro.
Capítulo 5 Pagando a Satanás Einstein foi quem propôs o “exercício de pensamento”, quer dizer, fazer dentro da mente a custo eletrônico para não ter que fazer fora a custo nucleônico 3.680 vezes mais caro. EXERCÍCIO DE PENSAMENTO (não quero dizer que as pessoas não façam ginásticas de tonificação, nem que deixem de correr para espairecer ou conversar, ou de fazer o que quer que seja – só proponho o fim da demência dos excessos) 17
18
18
Faríamos mentalmente para não se termos de fazer com grande gasto de materenergia. Poderíamos simbolizar essa socioeconomia da DUPLA RETIRADA (pelas duas pontas, tanto a de retirar os excessos de enchimento quanto a de retirar os excessos de esvaziar): quantas pessoas seriam retiradas para tarefas úteis? Quanto pasto seria poupado do gado desnecessário aos então inexistentes obesos? Se tantos não comessem carnes, gorduras, açúcares ou massas que áreas seriam liberadas para reflorestações? Se novas áreas não fossem desmatadas, as matas manteriam a vida que está desaparecendo. Se não houvesse excesso de produção, os oceanos não ficariam poluídos, nem o ar, nem as águas interiores, nem a terra/solo. A CONTABILIDADE DE DUAS CALÚNIAS EM VERMELHO EM PRETO Todos os excessos cometidos ... todas as faltas que padecemos demandando excesso de trabalho... para pagar os descomedimentos
O demônio não vem de Deus: a ferrugem da máquina vem da máquina enquanto possibilidade e realização; nossos desvios mentais não foram construídos pelo capeta, eles vem de nossas debilidades, de nossas fraquezas. Podemos nos curar. PROPONDO A CURA 1º curar o mundo; 2º curar as nações; 3º curar os estados; 4º curar os municípios-cidades; 5º curar as empresas; 6º curar os grupos; 7º curar as famílias; 8º curar os indivíduos. Antes não seria possível, pois curar uma nação seria colocá-la ainda à mercê das demais. Agora, é. Eles nos deram os instrumentos ao proporem a globalização. Agora podemos disseminar a cura por todo o mundo.
Capítulo 6 A Dívida Acumulada É tremenda a dívida acumulada por milênios de adoecimentos, de torturas e desavergonhadas autopunições. Contudo, tanta dor traz em si a dialética ou contraproposta da cura, do fim da dor: ELA EXIGE. Como uma grande fome trará em seguida empanturramento, agora essa grande fome de correção e decência traz a contenção. Por todo o futuro ficarão as lembranças dos abusos, dos descomedimentos, das auto-agressões; horror intensíssimo desses séculos negros em que vivemos com tanto distanciamento entre os que têm mais e os que nada têm, um fosso inacreditável de 1.250 para um entre os ricos e os miseráveis. 19
19
RETRATOS DA DÍVIDA (ela é paga imediatamente em inúmeros sofrimentos) obesidade
favelas
queimadas
hospitais lotados
comércio pirata
abusos sexuais
racismo
sexismo
desvios mentais
roubos e furtos
assassinatos
desvios de verbas
caixa 2 e sonegação
excesso de tributos
imoralidade
poluição
magia indecente
favelas
minas A lista é grande. Tanto fizeram que clamaram aos céus.
20
torturas
Capítulo 7 A Cobrança Os seres humanos se enganaram ou foram enganados por outros seres humanos: não existe nenhum capeta espreitanto os incautos. As pessoas mesmo se decidiram por ir até os pecados e a violência inaudita, que nem o final do império romano presenciou. A cobrança não será feita a satanás, será feita aos próprios seres humanos. Há que pagar a dívida, mas a cobrança será feita às nossas mentes e aos nossos corpos. Extraordinário período de depressão está vindo, com o agravante de não haver mais nenhum país para onde fugir: estamos e estaremos cercados dentro da jaula quando começar a pancadaria, quando as agressões principiarem. NÃO HÁ PARA ONDE FUGIR. Você não pode sair da Roma durante os ataques finais dos bárbaros em 476 e migrar para a Europa; não pode escafeder-se da Constantinopla desesperada de 1453 e ir para a Europa; não pode fugir da Paris sob ataque em 1789 e ir para a Europa; não pode escapar da Rússia de 1991 e ir para a Europa (veja que é sempre a Europa o lugar de fuga). CONVENÇA-SE, NÃO HÁ PARA ONDE FUGIR! Agora a Europa também será atacada. Não dá para fugir da Terra. Creia, isso que passou por ser a crise, começando nos EUA, ainda não é, o modelo não previu isso, previu a China de mais adiante, da década os 2010. 20
AVALIE O ABISMO PENSANDO EM TODAS AS DOENÇAS
Medite detidamente sobre todos os tópicos que você conseguir alcançar e pense em tudo isso colapsando de uma só vez! Tudo sendo jogado no buraco negro de nossas imperfeições de uma só tacada.
Capítulo 8 Os Cobradores Uma vez que tenha começado, não parará mais, pois não há nesta Terra de agora sábio-santo ou iluminado que a reoriente. Não há altura bastante nos seres. E, para mal dos pecados, os iluminados vem sendo rejeitados, todos e cada um (mesmo Maomé, nas altas esferas árabes). Quem são os cobradores? São os próprios seres humanos, tal como estou avaliando na cartilha Dimensões do Fim. Uma vez tendo sido posta em curso a supercrise, cada um tratará de colocar SUAS reclamações na balança, contra todos os outros; o movimento se purificará automaticamente para o lado bom e depois superbom do dicionário, causando os danos esperados. Para resumir, é isto: as suas reclamações juntar-se-ão a todas as de igual teor e serão idealmente classificadas contra o lado ruim e superruim do dicionário. Digamos, a falta de civilidade, para a qual contribuímos todos e cada um, um pouco: a virtude e a supervirtude serão elevadas até o ápice, castigando a todos os incivilizados pouco menos ou pouco mais. Todas as pessoas clamarão CONTRA a incivilidade e haverá alguém para representar esse extremo. TODAS as reclamações contra a incivilidade serão reunidas num cajado e baterão a torto e a direito, e assim sucessivamente com cada defeito individual e coletivo nosso. Ou seja, uma ditadura universal emergirá. OS COBRADORES ESTÃO EM TODA PARTE (são quaisquer uns; quando a formidável ira se levantar, ela será expressa contra 21
21
todos, mas em particular e imediatamente contra os mais destacados – por exemplo, os maritalmente infiéis, os obesos, os homossexuais, etc.)
obesos
judeus
infiéis
negros
mulheres
opositores políticos
imigrantes
estrangeiros em geral
22
22
homossexuais
índios
deficientes físicos
deficientes mentais
23 intelectuais contestadores
religiosos, de um modo geral
E, enfim, toda nova idéia, inclusive as futuristas. Os de sempre. A sociedade, sentindo-se ameaçada, fecha-se irremediavelmente, como se fora um alvo ao contrário, contraindo-se em lugar de se expandir como nas épocas libertárias. Procura-se culpar todos e cada um, inclusive desempregados, o que é absurdo. Os que não puderem se defender sozinhos ou em grupos serão massacrados.
23
Um fogo insopitável, irrefreável, irreprimível lavrará a Terra de cabo a rabo, pois os meios de divulgação universal foram acionados: telefonia planetária, Internet, viagens. O “julgamento final”, só aconteceria quando o “final” estivesse pronto e agora está. Os cobradores estão à sua roda. Estão à sua volta, são os seus vizinhos.
Capítulo 9 Exercício Nós poderíamos ter pensado muito mais, feito os exercícios de pensamento de que Einstein falou, e não somente na ciência alta. Não fosse a gente-umbigo (não adianta culpar “os outros”, você e eu também fizemos a mesma coisa com graus diferentes de culpabilidade e extremismo) teríamos podido poupar muita energia, matéria e gente de ser consumida nesse fogo da fome insaciável da humanidade. Tivéssemos sido mais ponderados! Agora não tem mais jeito, Inês é morta. Perguntaram-me o que poderíamos fazer e eu disse: podemos sofrer. De fato, podemos sofrer com dignidade e aprender a lição “para nunca mais”, como diz o povo. Tínhamos todos os instrumentos e os desprezamos. Como reparou Gabriel, meu filho agora com 23, não houve ainda uma guerra mundial, porque não havia mundo, havia nações: agora sim, haverá a Primeira Guerra Planetária. Mas não haverá a segunda, felizmente. Seja ou não o fim da humanidade, será a única. TERCEIRA E QUARTA GUERRA MUNDIAL (como disse Einstein: “não sei de que modo será travada a Terceira Guerra Mundial, mas a quarta será com paus e pedras”)
24
24
Terceira Guerra Mundial Origem: Wikipédia, a enciclopédia livre.
A Terceira Guerra Mundial está sempre associada a holocaustos nucleares. Este artigo debruça-se sobre uma guerra global nuclear hipotética. O termo Terceira Guerra Mundial também é por vezes usado para descrever a Guerra Fria do século XX. Terceira Guerra Mundial é o nome dado a uma hipotética guerra mundial que seria travada entre as superpotências com armas de destruição massiva tais como armas nucleares. Na segunda metade do século XX, a confrontação militar entre as superpotências levou a uma situação que constituía uma ameaça extrema à paz mundial, com a Guerra Fria a ser travada entre os capitalistas Estados Unidos da América e a socialista União das Repúblicas Socialistas Soviéticas. Se esta confrontação se tivesse intensificado até uma guerra em grande escala, pensa-se que o conflito teria sido a "Terceira Guerra Mundial" e que o seu resultado final seria o extermínio da vida humana ou, pelo menos, o colapso da civilização. Este resultado ombreia com um impacto de um asteróide, uma singularidade tecnológica hostil e mudanças climáticas catastróficas como um dos principais acontecimentos de extinção em massa que podem atingir a humanidade. Todas estas situações são às vezes designadas pelo termo bíblico Armagedom. «Não sei como será a Terceira Guerra Mundial, mas poderei vos dizer como será a Quarta: com paus e pedras..» (Albert Einstein [1][2][3][4]) O Wikinotícias tem uma ou mais notícias relacionadas com este artigo: Bush e Puttin discutem ameaças para Terceira Guerra Mundial • Segunda Guerra Mundial • Primeira Guerra Mundial • Guerra Fria • Armagedon • Guerra Mundial • Guerra contra o terrorismo • Apocalipse • Relógio do apocalipse • Holocausto nuclear • Guerra nuclear Referências 1. ↑ Calaprice, Alice. The new quotable Einstein. 25
25
.
2. ↑ Albert Einstein: a biography. ↑ Shapiro, Fred; Epstein, Joseph (2006), The Yale book of quotations, Yale University Press, p. 229, ISBN 0-300-10798-6 ↑ Uma variação da citação, está presente em Call of Duty 4: Modern Warfare, como: I know not with what weapons World War III will be fought, but World War IV will be fought with sticks and stones... Sem um choque tão apavorante assim jamais aprenderíamos, pois é na beira da morte que a árvore produz frutos, na tentativa de salvar-se através de sua descendência. É provável que (segundo a Curva do Sino) poucos mundos racionais tenham escapado das devastações de um conflito planetário préeclosão do ovo cósmico. Por tudo que posso ver a Terra-racional não escapará do conflito, talvez escape do fim.
Capítulo 10 O Excesso de Candura O que nos trouxe até esse patamar fatídico do qual estamos prestes a pular? Por um lado, claro, foram as chicotadas, todos os maustratos. Por outro foi o excesso de candura, de brandura, de doçura, pois nos negamos a enfrentar. O QUE NOS TROUXE AO CONFLITO UNIVERSAL FORAM DOIS EXCESSOS esquerdismo Não caminhamos direitismo verdadeiramente esquerda = C direita = T pelo centro. Céu Terra o/candura candura Se tivéssemos adotado a postura eletrônica também cometeríamos erros, pois a aplicaríamos em excesso: impediríamos a qualquer custo as pessoas de se moverem e isso nos mataria dentro dos torniquetes, entalando-nos na imobilidade. Caminhar pelos extremos da Curva do Sino é errado, assim como o é atender exclusivamente à média: há que respeitar os 2,5 % de cada extremo e seus aderentes. O excesso de candura é ruim, mas a candura em si é fundamental. O excesso de impureza é ruim, mas sem a impureza em si não viveríamos, está no desenho do mundo. Os seres humanos se comportaram como crianças mimadas. Agora vamos ver o chororô. Serra, domingo, 01 de novembro de 2009. José Augusto Gava.
ANEXOS Capítulo 1
ELÉTRON FRENTE AO NÚCLEO Átomo 21 02 2009 O Átomo Todas as substâncias são formadas de pequenas partículas chamadas átomos. Para se ter uma ideia, eles são tão pequenos que uma cabeça de alfinete 26
26
pode conter 60 milhões deles. Os gregos antigos foram os primeiros a saber que a matéria é formada por tais partículas, as quais chamaram átomo, que significa indivisível. Os átomos porém são compostos de partículas menores: os prótons, os nêutrons e os elétrons. No átomo, os elétrons orbitam no núcleo, que contém prótons e nêutrons. Elétrons são minúsculas partículas que vagueiam aleatoriamente ao redor do núcleo central do átomo, sua massa é cerca de 1840 vezes menor que a do Núcleo. Prótons e nêutrons são as partículas localizadas no interior do núcleo, elas contém a maior parte da massa do átomo.
O Interior do Átomo No centro de um átomo está o seu núcleo, que apesar de pequeno, contém quase toda a massa do átomo. Os prótons e os nêutrons são as partículas nele encontradas, cada um com uma massa atômica unitária. O Número de prótons no núcleo estabelece o número atómico do elemento químico e, o número de prótons somado ao número de nêutrons é o número de massa atómica. Os elétrons ficam fora do núcleo e tem pequena massa. Há no máximo sete camadas em torno do núcleo e nelas estão os elétrons que orbitam o núcleo. Cada camada pode conter um número limitado de elétrons fixado em 8 elétrons por camada. Características das Partículas: Prótons: tem carga elétrica positiva e uma massa unitária. Nêutrons: não tem carga elétrica mas tem massa unitária. Elétrons: tem carga elétrica negativa e quase não possuem massa. DEFINIÇÃO DE ÁTOMO Todas as substâncias são formadas de pequenas partículas chamadas átomos. Para se ter uma idéia, eles são tão pequenos que uma cabeça de alfinete pode conter 60 milhões deles. Os gregos antigos foram os primeiros a saber que a matéria é formada por tais partículas, as quais chamaram átomo, que significa indivisível. Os átomos porém são compostos de partículas menores: os prótons, os nêutrons e os elétrons. No átomo, os elétrons orbitam no núcleo, que contém prótons e nêutrons. Elétrons são minúsculas partículas que vagueiam aleatoriamente ao redor do núcleo central do átomo, sua massa é cerca de 1840 vezes menor que a do Núcleo. Prótons e nêutrons são as partículas localizadas no interior do núcleo, elas contêm a maior parte da massa do átomo. 27
27
O Interior do Átomo
No centro de um átomo está o seu núcleo, que apesar de pequeno, contém quase toda a massa do átomo. Os prótons e os nêutrons são as partículas nele encontradas, cada um com uma massa atômica unitária. O Número de prótons no núcleo estabelece o número atômico do elemento químico e, o número de prótons somado ao número de nêutrons é o número de massa atômica. Os elétrons ficam fora do núcleo e tem pequena massa. Há no máximo sete camadas em torno do núcleo e nelas estão os elétrons que orbitam o núcleo. Cada camada pode conter um número limitado de elétrons fixado em 8 elétrons por camada. Características das Partículas: Prótons: tem carga elétrica positiva e uma massa unitária. Nêutrons: apresenta carga elétrica nula, mas tem massa unitária. Elétrons: tem carga elétrica negativa e quase não possuem massa. Estudo do Átomo Em 1911 o físico neozelandês Ernest Rutherford fez sua "experiência da dispersão" para suas novas descobertas sobre a estrutura do átomo e dela surgiu a base para o modelo de átomo que estudamos até os dias de hoje.
Rutherford bombardeou uma fina camada de ouro com partículas alfa (partículas atômicas emitidas por alguns átomos radioativos), sendo que a maioria atravessou a lâmina, outras mudaram ligeiramente de direção e algumas rebateram para trás. Ele concluiu que isso acontecia porque em cada 28
28
átomo de ouro há um denso núcleo que bloqueia a passagem de algumas partículas. Física Nuclear O estudo do núcleo (centro) do átomo é chamado Física Nuclear. Como resultado desse estudo os cientistas descobriram maneiras de dividir o núcleo do átomo para liberar grandes quantidades de energia. Ao se partir um núcleo, ele faz com que muitos outros se dividam, numa reação nuclear em cadeia. Nas usinas nucleares as reações são controladas e produzem luz e calor para nossos lares. Usinas nucleares produzem artificialmente grandes quantidades de energia. O Sol é a maior fonte de energia nuclear. A cada segundo no interior do Sol, ocorrem milhões de reações nucleares em cadeia, pois, o intenso calor do Sol fazem com que seus átomos se choquem uns contra os outros e simulam em reações conhecidas como fusão nuclear. O núcleo de cada átomo libera energia que sentimos na forma de calor e enxergamos na forma luz. Enormes explosões de energias, chamadas de protuberâncias solares, ocorrem ocasionalmente na superfície do Sol. Física de Partículas Tudo que conhecemos consiste em minúsculos átomos, que são formados por partículas ainda menores e a Física de Partículas é o estudo dessas últimas que constituem os mais básicos blocos formadores da matéria no universo. O estudo das partículas dá aos cientistas o conhecimento amplo do Universo e da natureza da matéria. Grande parte deles concorda que o universo se formou numa grande explosão, chamada de Big - Bang. Segundos após o Big Bang, acredita-se que as partículas atômicas e a radiação eletromagnética foram as primeiras coisas que passaram a existir no Universo. Partículas Fundamentais Os físicos dividem as partículas atômicas fundamentais em três categorias: quarks, léptons e bósons. Os léptons são partículas leves como o elétron. Os bósons são partículas sem massa que propagam todas as forças do Universo. O glúon, por exemplo, é um bóson que une os quarks e estes formam os prótons e os nêutrons no núcleo atômico. Os quarks se combinam para formar as partículas pesadas, como o próton e o nêutron. As partículas formadas pelos quarks são chamadas hádrons. Tal como outras partículas tem cargas diferentes, tipos diferentes de quarks tem propriedades distintas, chamadas "sabores" e "cores" , que afetam a forma de como eles se combinam.
Acelerador de Partículas Partículas atômicas são estudadas como uso dos aceleradores de partículas, as quais são máquinas complexas que disparam partículas atômicas a velocidades altíssimas, fazendo-as colidir com outras. Tais colisões expõem novas partículas que podem ser analisadas. Há dois tipos de aceleradores: 29
29
Circular: As partículas são disparada sem círculos cada vez mais rápidos, por meio de poderosas forças elétricas e quando ganham suficiente rapidez são soltas em uma trilha central onde colidem com partículas alvo. Linear: São disparadas duas trajetórias de partículas em alta velocidade, uma contra a outra.
Nos dois tipos de aceleradores de partículas acima, as trajetórias são registradas e as informações são fornecidas a computadores, que investigam as novas partículas. Fissão Nuclear Há dois tipos de reação nuclear: a fissão e a fusão. As usinas nucleares usam a fissão para produzir sua energia. Partículas atômicas que se movem com grande rapidez, chamadas nêutrons, são atiradas contra o núcleo do átomo para dividi-lo. Essa divisão é chamada fissão e faz com que os outros átomos também se dividam, numa reação em cadeia. Nesse processo, um pouco da massa (o número de partículas pesadas dentro do átomo) se perde, convertendo-se em imensas quantidades de energia. Ao se iniciar uma reação de fissão nuclear, uma partícula rápida chamada nêutron é disparada contra o núcleo de um átomo de Urânio 235. O nêutron de alta velocidade, tem potência suficiente para penetrar no interior do núcleo onde é absorvido, em seguida, o núcleo se divide em duas partes num processo chamado fissão. Essa fissão produz mais dois ou três nêutrons que vão dividir mais núcleos numa reação em cadeia. Cada vez que um átomo sofre uma fissão, libera grande quantidade de energia.
Reações Nucleares em Cadeia 30
30
Urânio-235 é uma forma de urânio utilizada em reações nucleares em cadeia, por que seus átomos instáveis se desintegram facilmente. Se o fragmento de urânio ultrapassar certo tamanho(conhecido como massa crítica), seus átomos se desintegram automaticamente.A massa crítica de urânio-235 equivale a mais ou menos o tamanho de uma bola de tênis. Se for maior, os átomos automaticamente se desintegram e cada um, por sua vez, libera dois ou três nêutrons. Cada nêutron desintegra o núcleo de dois ou três átomos. A cada vez que um átomo se desintegra, enorme quantidade de energia é liberada. Uma reação em cadeia, não controlada, prosseguiria indefinidamente. Reatores de Fissão Nuclear Os reatores de fissão produzem energia nuclear em usinas geradoras. No centro do reator, há barras cilíndricas de urânio-235,cujos átomos se desintegram em reações nucleares em cadeia.
As reações são intensificadas e diminuídas, ou mesmo interrompidas, por um moderador (usualmente grafita), por barras de boro ou cádmio. As energias dessas reações aquece água ou dióxido de carbono. Isso produz o vapor. O reator de fissão é alojado no interior de uma cúpula de paredes de concreto. Por segurança, no centro ou núcleo do reatoras barras de urânio combustível ficam sob 10,5 m de água. Termos Nucleares Existem muitos termos especiais para descrever os processos e os equipamentos usados nas usinas geradoras de energia. Os mais freqüentes estão relacionados a seguir: Lixo Nuclear: O lixo nuclear é o material radioativo já usado, que precisa ser 31
31
descartado com segurança. É extremamente perigoso, pois emite ondas de alta freqüência, chamadas radiação, capazes de danificar tecidos vivos. A radiação pode perdurar por milhares de anos e, alguns casos milhões de anos. O lixo nuclear é produzido em laboratórios de pesquisa, usinas, hospitais, bem como nos reatores nucleares de fissão. Mas a maior parte do lixo "quente" provém dos reatores. Parte do lixo pode ser reprocessada para a produção de novo combustível nuclear, mas o restante tem de ser enterrado, ou tratado em usinas especiais. Guardar o lixo nuclear é difícil, porque há sempre o perigo de um vazamento. Reatores Rápidos: Funcionam deforma semelhante aos de fissão nuclear. A diferença é que, fornecem energia para o presente, eles criam o combustível para as reações futuras. Fusão do Núcleo do Reator: Se sair do controle devido a falha mecânica, a reação em cadeia que ocorre no interior do reator fará com que o núcleo desse reator se funda, quando a intensidade do calor crescer. Finalmente, o núcleo do reator poderá explodir ou queimar juntamente com o restante do reator, disso resultando efeitos desastrosos. Em 1986, na usina de Chernobyl, na Ucrânia, um dos reatores explodiu e ficou queimando durante duas semanas, até que o incêndio foi, finalmente, extinto. Fusões parciais já ocorreram em acidentes ocorridos em várias outras usinas nucleares. Sistema de Refrigeração: Um refrigerante é um fluído utilizado para remover o calor de um sistema, seja para controlar a temperatura, seja para transportar o calor para outra parte. Nas reações nucleares, o refrigerante é usado para transferir o calor gerado durante a reação, do núcleo do reator para a usina onde será convertido em eletricidade. Barras de Controle: São inseridas no núcleo dos reatores nucleares. Quando elas penetram no núcleo do reator, a reação da cadeia dos átomos que se desintegram diminui de velocidade; quando são retidas, a reação aumenta de velocidade. As barras de controle contém os elementos boro ou cádmio, que absorvem nêutrons produzidos pela reação. Isso garante que a reação prossiga equilibradamente. As barras também podem ser usadas para parar totalmente a reação em cadeia no caso de uma emergência. Moderador: Um nêutron de baixa velocidade causará uma reação de fissão de maior probabilidade do que um nêutron rápido. Movendo-se muito depressa, o nêutron pode ricochetear contra um átomo vizinho, em vez de desintegrálo. Muitos reatores necessitam de um moderador para manter o andamento de uma reação em cadeia, diminuindo a velocidade dos nêutrons. O moderador se localiza no núcleo do reator; pode-se usar vários materiais, inclusive água e grafita. Fusão Nuclear A fusão nuclear é um tipo de reação que produz imensas quantidades de energia. Ela ocorre naturalmente no interior do Sol, gerando a energia térmica que necessitamos para sobreviver na Terra. A temperaturas de 14.000.000 ºC (quatorze milhões de graus Célcius), os núcleos de dois átomos de hidrogênio se fundem ou unem. No processo, um pouco de massa é perdida e convertida em energia. No sol, onde a fusão nuclear ocorre naturalmente, os núcleos de tipos de gás hidrogênio se fundem formando o gás hélio e mais uma partícula atômica chamada nêutron. Nesse processo se perde uma pequena quantidade de massa que se converte em enorme quantidade de energia. As temperaturas extremamente altas que existem no Sol, fazem com que este processo se repita continuamente. 32
32
Reatores de Fusão Nuclear Para alcançar as temperaturas necessárias para a fusão nuclear, os átomos de hidrogênio são aquecidos em um reator de fusão. Os núcleos dos átomos são separados dos elétrons (partículas com carga elétrica negativa) e se forma um tipo especial de matéria chamado plasma. Para que os núcleos separados de hidrogênio possam se fundir, o plasma deve ser conservado a temperatura de aproximadamente 14.000.000 ºC (quatorze milhões de graus Célcius). O campo eletromagnético dentro do reator, mantém as altas temperaturas necessárias para a fusão nuclear. Ainda estão sendo feitas pesquisas para fundir núcleos de hidrogênio em larga escala, nos experimentos de fusão da Joint European Torus, na Inglaterra.
Relógio Atômico A medição do tempo para fins científicos deve ser muito precisa e o Relógio Atômico é o mais preciso de todos que existem atualmente. Ele mede as diminutas trocas de energia do interior dos átomos do metal Césio. Por serem muito regulares, as trocas criam um padrão preciso para medir o tempo. O Relógio Atômico mede as vibrações naturais dos átomos de Césio. Eles vibram mais de 9 bilhões de vezes por segundo, com isso, o Relógio Atômico atrasará poucos segundos a cada 100.000 anos. 33
33
Fonte: Geraldo Camargo de Carvalho – Martha Reis Marques da Fonseca Site: Química web - UFSC. Estados Físicos da Matéria
Fases ou estados da matéria – são conjuntos de configurações que objetos macroscópicos podem apresentar. O estado físico tem a relação com a velocidade do movimento das partículas de uma determinada substância. Canonicamente e segundo o meio em que foram estudados, são três os estados ou fases considerados: sólido, líquido e gasoso. Outros tipos de fases da matéria, como o estado pastoso ou o plasma são estudados em níveis mais avançados de física. As características de estado físico são diferentes em cada substância e depende da temperatura e pressão na qual ela se encontra. Os estados físicos Há muitas discussões sobre quantos estados da matéria existem, porém as versões mais populares atualmente são de que a matéria somente tem três estados: sólido, líquido e gasoso. Mas há também outros que, ou são intermediários ou pouco conhecidos. Por exemplo: os vapores, que nada mais são uma passagem do estado líquido para o gasoso na mesma fase em que o gás, porém quando está em estado gasoso, não há mais possibilidade de voltar diretamente ao estado líquido; já quando em forma de vapor, pode ir ao estado líquido, desde que exista as trocas de energia necessárias para tal fato. Por isto que diz-se comumente “vapor d’água”. No estado sólido considera-se que a matéria do corpo mantém a forma macroscópica e a posição relativa de sua partícula. É particularmente estudado nas áreas da estática e da dinâmica. No estado líquido, o corpo mantém a quantidade de matéria e aproximadamente o volume; a forma e posição relativa da partículas não se mantém. É particularmente estudado nas áreas da hidrostática e da hidrodinâmica. No estado gasoso, o corpo mantém apenas a quantidade de matéria, podendo variar amplamente a forma e o volume. É particularmente estudado nas áreas da aerostática e da aerodinâmica. 34
34
O Plasma (ou quarto estado da matéria) está presente principalmente nas “TVs de plasma”. Neste estado há uma certa “pastosidade” da substância, que permite uma maior e melhor resposta quando recebe informações decodificadas pelos feixes de luz emitidos pelos componentes da TV. É sabido que qualquer substância pode existir em três estados: sólido, líquido a gasoso, cujo exemplo clássico é a água que pode ser gelo, água líquida e vapor de água. Todavia há muito poucas substâncias que se encontram nestes estados, que se consideram indiscutíveis a difundidos, mesmo tomando o Universo no seu conjunto. É pouco provável que superem o que em química se considera como restos infinitamente pequenos. Toda a substância restante do universo subsiste no estado denominado plasma. O Condensado de Bose-Einstein é o quinto estado da matéria, e é obtido quando a temperatura chega a ser tão baixa que as moléculas entram em colapso. O sexto estado da matéria, o Condensado Fermiônico , acontece quando certa materia é aquecida a ponto de suas moléculas ficarem completamente livres. Já existe também o sétimo estado da matéria o Superfluido de Polaritons. Outros estados da matéria Existem outros possíveis estados da matéria; alguns destes só existem sob condições extremas, como no interior de estrelas mortas, ou no começo do universo depois do Big Bang: • Fluidos supercríticos • Colóide • Superfluido • Supersólido • Matéria degenerada • Neutrônio • Matéria fortemente simétrica • Matéria debilmente simétrica • Condensado fermiônico • Plasma de quarks-glúons • Matéria estranha ou materia de quark Mudanças de fase Como a cada uma destas fases de uma substância corresponde determinado tipo de estrutura corpuscular, há vários tipos de mudanças de estruturas dos corpos quando muda a fase, ou de estado de aglomeração, da substância que são feitos. A mudança de fases ocorre conforme o diagrama de fases da substância. Mudando a pressão ou a temperatura do ambiente onde um objeto se encontra, esse objeto pode sofrer mudança de fase. • Fusão – mudança do estado sólido para o líquido.Existem dois tipos de fusão: o Gelatinosa – derrete todo por igual; por exemplo o plástico. o Cristalina – derrete de fora para dentro; por exemplo o gelo. • Vaporização – mudança do estado líquido para o gasoso. Existem três tipos de vaporização: o Evaporação – as moléculas da superfície do líquido tornam-se gás em qualquer temperatura. o Ebulição – o líquido está na temperatura de ebulição e fica borbulhando, recebendo calor e tornando-se gás. o Calefação – o líquido recebe uma grande quantidade de calor em período curto e se torna gás rapidamente. 35
35
Condensação – mudança de estado gasoso para líquido (inverso da Vaporização). • Solidificação – mudança de estado líquido para o estado sólido (inverso da Fusão). • Sublimação – um corpo pode ainda passar diretamente do estado sólido para o gasoso. • Re-sublimação – mudança direta do estado gasoso para o sólido (inverso da Sublimação). • Ionização – mudança de estado gasoso para os estado plasma. • Desionização – mudança de estado plasma para estado gasoso (inverso de Ionização). Sólido O estado sólido é um estado da matéria, cujas características são ter volume e forma definidos (isto é, a matéria resiste à deformação). Dentro de um sólido, os átomos ou as moléculas estão relativamente próximos, ou “rígidos”. Mas isto não evita que o sólido se deforme ou comprima. Na fase sólida da matéria, os átomos têm uma ordenação espacial fixa, mas uma vez que toda a matéria tem alguma energia cinética, até os átomos do sólido mais rígido movem-se ligeiramente, num movimento “invisível”. Os físicos chamam ao estudo dos sólidos física do estado sólido. Este ramo inclui o estudo de semicondutores e de supercondutividade. A física do estado sólido é um tipo de física da matéria condensada. A ciência dos materiais preocupa-se primariamente com propriedades dos sólidos tais como a força e transformações de fase. É largamente coincidente com a física do estado sólido. A química do estado sólido cobre em parte ambos estes campos, mas preocupa-se principalmente com a síntese de novos materiais. Líquido •
Um líquido assume a forma daquilo que o contém. O estado líquido ou líqüidoPB é um estado da matéria no qual a distância entre suas moléculas é suficiente para se adequar a qualquer meio (tomando sua forma), porém sem alterar o volume. Um líquido é uma das quatro principais fases da matéria. E dito um fluido aquilo cuja a forma é usualmente determinada por aquilo que o contem. As partículas do líquido (normalmente moléculas ou conjunto de moléculas) estão livres para se mover por todo o volume do líquido, mas sua atração mutua limita a capacidade destas partículas abandonarem o volume. O volume de uma quantidade de um liquido e determinado pela sua pressão e temperatura. Se este volume difere ligeiramente do volume do recipiente que o contem, uma superfície é observada. A superfície do liquido se comporta como uma membrana elástica, na qual a tensão superficial se manifesta. Devido a este efeito, o liquido forma gotas e bolhas. A Capilaridade é outra conseqüência da tensão superficial. O Líquido exerce pressão nos lados de um recipiente como também em qualquer coisa nela imersa. Esta pressão é transmitida em todas as direções 36
36
e aumenta com a profundidade. Se um líquido está submetido a um campo gravitacional uniforme. A pressão a um dado ponto é dada por : onde: = a densidade do líquido (assumida constante) • = gravidade • = a distância do ponto em relação a superficie. Note que esta formula assume que a pressão na superfície livre do líquido é zero, e que os efeitos da tensão superficial podem ser negligenciados. Líquidos geralmente expandem quando são aquecidos, e contraem quando esfriados. Objetos imersos em líquidos são submetidos para o fenômeno do empuxo. Líquidos ao seu respectivo ponto de ebulição converte-se para gás, e ao seu ponto de congelamento, transforma-se em sólido. Mesmo abaixo do ponto de ebulição o líquido evapora na superfície. Um líquido irá evaporar até que a concentração de vapor que o cerca alcançar uma pressão parcial de equilíbrio. Portanto nenhum líquido pode existir permanentemente no vácuo. Via destilação fracionada, os componentes líquidos de uma mistura podem ser separados, utilizando-se do fato de possuírem pontos de ebulição distintos. Vidro a temperatura normal pode ser considerado um “líquido superresfriado” ou um sólido, dependendo do ponto de vista. Veja o artigo vidro para maiores detalhes. Capilaridade Em Física, chama-se capilaridade à propriedade dos fluidos de subir ou descer em tubos muito finos. Esta capacidade de subir ou descer resulta da capacidade de o líquido molhar ou não a superfície do tubo. Quando um líquido entra em contacto com uma superfície sólida, este vai ser sujeito a dois tipos de forças que actuam em sentidos contrários: a força de adesão, e a força de coesão. A força de adesão tem a ver com a afinidade do líquido para a superfície sólida, e actua no sentido de o líquido molhar o sólido. A força de coesão tem a ver com coesão do próprio líquido, e actua no sentido oposto. Se a força de adesão for superior à de coesão, o líquido vai interagir favorávelmente com o sólido, molhando-o, e formando um menisco. Se a superfície sólida for um tubo de raio pequeno, como um capilar de vidro, a afinidade com o sólido é tão grande que líquido sobe pelo capilar. No caso do mercúrio, acontece o contrário, pois este não tem afinidade com o vidro (a força de coesão é maior). A tendência do líquido de subir pelo capilar resulta da diferença de pressão gerada pela interface curva entre a fase líquida e a fase gasosa. Essa diferença de pressão pode ser calculada através da Equação de Laplace. Equação de Laplace Equação de Laplace, em matemática, é uma equação diferencial parcial cujo nome honra seu criador, Pierre Simon Laplace. Trata-se de uma equação diferencial de alta relevância, pois é descritora modelar de comportamentos em vários campos da ciência, como, por exemplo, a astronomia, o eletromagnetismo, a mecânica dos fluidos, formulando-lhes as funções potencial gravitacional, elétrica, fluídica, entre outras aplicações. Com efeito, a teoria geral de soluções para a equação de Laplace é •
37
37
conhecida como teoria do potencial. Definição Em três dimensões, o problema consiste em determinar funções reais duplamente diferenciáveis, , de variáveis reais, x, y, e z, tal que
Isso é frequentemente escrito como ou onde div é o divergente, e grad é o gradiente, ou onde Δ é o laplaciano. As soluções para a equação de Laplace são chamadas funções harmônicas. Condições de contorno A equação de Laplace deve ser complementada com condições de contorno. Problema de Dirichlet O caso mais simples é quando o valor da função é especificado sobre o contorno especificado a seguir do domínio D:
38
Problema de Newmann Neste caso o valor da derivada normal da função é especificado sobre o contorno:
Uma condição de existência pode ser encontrada integrando a equação em todo o domínio D e aplicando a primeira identidade de Green:
Pierre Simon Laplace Pierre Simon, Marquis de Laplace
Retrato póstumo, por Madame Feytaud, 1842 23 de março de 1749 Nascimento Beaumont-en-Auge, Normandia, França 5 de março de 1827 Falecimento Paris, França Nacionalidade Francês Ocupação Matemático, astrônomo e físico 38
Trabalho em Mecânica celeste Equação de Laplace Principais trabalhos Operador de Laplace/Laplaciano Transformada de Laplace Pierre Simon, Marquis de Laplace (Beaumont-en-Auge, 23 de março de 1749 – Paris, 5 de março de 1827) foi um matemático, astrônomo e físico francês que organizou a astronomia matemática, sumarizando e ampliando o trabalho de seu predecessores nos cinco volumes do seu Mécanique Céleste (Mecânica celeste) (1799-1825). Esta obra-prima traduziu o estudo geométrico da mecânica clássica usada por Isaac Newton para um estudo baseado em cálculo, conhecido como mecânica física.[1] Ele também formulou a equação de Laplace. A transformada de Laplace aparece em todos os ramos da física matemática – campo em que teve um papel principal na formação. O operador diferencial de Laplace, da qual depende muito a matemática aplicada, também recebe seu nome. Ele se tornou conde do Império em 1806 e foi nomeado marquês em 1817, depois da restauração dos Bourbons. Biografia
Estátua de Laplace em Beaumont-en-Auge, local de nascimento do cientista Pierre Simon Laplace nasceu em Beaumont-en-Auge, Normandia, filho de um pequeno trabalhador rural ou talvez um empregado de fazenda e deveu sua educação ao interesse incitado em alguns vizinhos abastados graças às suas habilidades e presença atrativa. Parece que de pupilo, se tornou professorassistente na escola em Beaumont; mas, tendo procurado uma carta de apresentação a Jean le Rond d’Alembert, foi a Paris tentar sua sorte. Um artigo sobre os princípios da mecânica instigou o interesse de d’Alembert e, sob sua recomendação, foi oferecido um lugar na escola militar a Laplace. Seguro das suas competências, Laplace dedicou-se, então, a pesquisas originais e, nos dezessete anos seguintes, 1771-1787, produziu boa parte de seus trabalhos originais em astronomia. Tudo começou com uma memória, lida perante à Academia Francesa em 1773, em que mostrava que os movimentos planetários eram estáveis, levando a prova até o ponto dos cubos das excentricidades e das inclinações. Isso foi seguido por vários artigos sobre tópicos em cálculo integral, diferenças finitas, equações diferenciais e astronomia. Laplace tinha um amplo conhecimento de todas as ciências e dominava todas as discussões na Académie. De forma razoavelmente única para um prodígio de seu nível, Laplace via os matemáticos apenas como uma ferramenta para ser utilizada na investigação de uma averiguação prática ou científica. Laplace passou a maior parte de sua vida trabalhando na astronomia matemática que culminou em sua obra-prima sobre a prova da estabilidade dinâmica do sistema solar, com a suposição de que ele consistia de um conjunto de corpos rígidos movendo-se no vácuo. Ele formulou independentemente a hipótese nebular e foi um dos primeiros cientistas a postular a existência de buracos negros e a noção do colapso gravitacional. 39
39
Ele é lembrado como um dos maiores cientistas de todos os tempos (às vezes, chamado de Newton francês ou Newton da França) com uma fenomenal capacidade matemática natural sem par entre seus contemporâneos. Parece que Laplace não era modesto sobre suas habilidades e realizações e ele provavelmente não conseguia reconhecer o efeito de sua atitude sobre seus colegas. Anders Johan Lexell visitou a Académie des Sciences em Paris, em 1780-81 e relatou que Laplace deixava claro que se considerava o melhor matemático da França. O efeito sobre seus colegas só seria relativamente abrandado pelo fato de que Laplace muito provavelmente estava correto.[2] Teoria das probabilidades Embora conduzisse bastante pesquisa sobre física, outro tema principal dos esforços de sua vida era a teoria das probabilidades. Em seu Essai philosophique sur les probabilités, Laplace projetou um sistema matemático de raciocínio indutivo baseado em probabilidades, que hoje coincidem com as idéias Bayesianas. Uma fórmula bem-conhecida surgida de seu sistema é a regra de sucessão. Suponha que um processo só tenha dois possíveis resultados, rotulados “sucesso” e “falha”: sob a suposição de que pouco ou nada é conhecido a priori sobre as plausibilidades relativas dos resultados, Laplace derivou uma fórmula para a probabilidade de que o próximo processo seja um sucesso. onde s é o número de sucessos anteriormente observados e n é o número total de processos observados. Ele ainda é usado como estimativa para a probabilidade de um evento se soubermos o espaço do evento, mas tivermos apenas um pequeno número de amostras. A regra da sucessão tem sido objeto de muita crítica, parcialmente devido ao exemplo que Laplace escolheu para ilustrá-la. Ele calculou que a probabilidade de que o Sol nascerá amanhã, dado que ele nunca falhou em fazê-lo no passado, era onde d é o número de vezes que o Sol nasceu no passado. Este resultado tem sido ridicularizado como absurdo e alguns autores concluíram que todas as aplicações da regra da sucessão eram absurdas por extensão. Porém, Laplace tinha total noção da absurdidade do resultado; imediatamente após o exemplo, ele escrevou, “Contudo, este número [isto é, a probabilidade de que o Sol nascerá amanhã] é bem maior para aquele que, vendo na totalidade dos fenômenos o princípio regulando os dias e as estações, percebe que nada no atual momento pode impedir o caminho dele.” Demônio de Laplace Laplace acreditava fortemente no determinismo, o que é expressado na seguinte citação da introdução do Essai: Demônio de Laplace Demônio de Laplace é um experimento mental concebido pelo físico Pierre Simon Laplace: de posse de todas as variáveis que determinam o estado do universo em um instante t, ele pode prever o seu estado no instante t’ > t. Tal conceito é sustentado, conforme aponta o filósofo Lyotard em seu clássico “A Condição pós-moderna”, “pelo princípio de que os sistemas físicos, inclusive o sistema dos sistemas que é o universo, obedece a regularidades, que por conseguinte sua evolução delineia uma trajetória previsível e dá lugar a funções contínuas ‘normais’ (e à futurologia…)”. Segundo a teoria de Laplace esse demônioé um semi-deus, é onisciente e onipresente, possui a habilidade de fazer calculos incriveis e muito rápido. O “Newton da França”, afirmava que o Demônio de Laplace era capaz de 40
40
prever o comportamento futuro e passado do universo caso lhe fosse fornecido a velocidade e a posição inicial de uma partícula em especial…algo um tanto quanto dificil de ser feito com as tecnologias atuais, o que concretiza cada vez mais a dependência sensível das condições iniciais. Laplace Nós podemos tomar o estado presente do universo como o efeito do seu passado e a causa do seu futuro. Um intelecto que, em dado momento, conhecesse todas as forças que dirigem a natureza e todas as posições de todos os itens dos quais a natureza é composta, se este intelecto também fosse vasto o suficiente para analisar essas informações, compreenderia numa única fórmula os movimentos dos maiores corpos do universo e os do menor átomo; para tal intelecto nada seria incerto e o futuro, assim como o passado, seria presente perante seus olhos Este intelecto freqüentemente é chamado de demônio de Laplace (na mesma linha do demônio de Maxwell). Note-se que a descrição do intelecto hipotético descrito acima por Laplace como um demônio não veio de Laplace, mas de biógrafos posteriores: Laplace se via como um cientista que esperava que a humanidade progrediria para um melhor entendimento científico do mundo, o que, se e quando por fim concluído, ainda exigiria um tremendo poder de cálculo para computar tudo em um único instante. Enquanto Laplace via primeiramente problemas práticos para que a humanidade atingisse tal estado final de conhecimento e computação, interpretações da mecânica quântica posteriores, que foram adotadas por filósofos defendendo o livre-arbítrio, também deixam a possibilidade teórica de tal “intelecto” contestada. Uma implementação física do Demônio de Laplace foi chamada de Computador Laplaciano. Recentemente foi proposto um limite do poder computacional do universo, isto é, a habilidade do demônio de Laplace de processar informação. O limite é baseado na máxima entropia do universo, na velocidade da luz e na quantidade mínima de tempo necessária para mover informações pelo comprimento de Planck – o número resulta em 2130 bits. De acordo com ele, qualquer coisa que exija mais do que esta quantidade de informações não pode ser computada na quantidade de tempo que já transcorreu no universo. (Uma real teoria de tudo pode, evidentemente, encontrar uma exceção para este limite). Harmônicos esféricos ou coeficientes de Laplace Durante os anos de 1784-1787, ele produziu algumas memórias de poder excepcional. Proeminente entre essas está uma lida em 1784 e reimpressa no terceiro volume da Méchanique Céleste, na qual ele determinou completamente a atração de um esferóide sobre uma partícula fora dele. Isto é memorável para a introdução à análise de harmônicos esféricos ou coeficientes de Laplace, assim como para o desenvolvimento do uso do potencial – um nome dado primeiro por George Green em 1828. Sejam as coordenadas de dois pontos (r,μ,ω) e (r’,μ’,ω’); se r’ ≥ r, então a recíproca da distância entre eles podem ser expandida em potências de r/r’ e os respectivos coeficientes serão coeficientes de Laplace. Sua utilidade surge do fato de que toda função das coordenadas de um ponto na esfera pode ser expandida em uma série deles. Deve ser notado que os coeficiente similares para espaços de duas dimensões, junto com algumas de suas 41
41
propriedades, foram dados previamente por Legendre em um artigo submetido à Academia Francesa em 1783. Legendre tinha um bom motivo para reclamar da forma pela qual foi tratado neste assunto. Este artigo é também notável pelo desenvolvimento da idéia do potencial, que foi apropriada de Lagrange, que o usou em suas memórias de 1773, 1777 e 1780. Laplace mostrou que o potencial sempre satisfazia a equação diferencial
e sobre este resultado seu subseqüente trabalho sobre atrações foi baseado. A quantidade foi denominada a concentração de e seu valor em dado ponto indica o excesso do valor de , portanto, seu valor médio na vizinhança do ponto. A equação de Laplace, ou a forma mais geral, a , aparece em todos os ramos da física equação de Poisson, matemática. De acordo com alguns escritores, isso se deve ao fato de que é um operador escalar ou possivelmente pode ser considerado por um Kantiano como o sinal externo de uma das formas necessárias pelas quais todos os fenômenos são percebidos[ Desigualdades planetárias Esta memória foi seguida por outra sobre desigualdades planetárias, que foi apresentada em três seções em 1784, 1785 e 1786. Ela lidava principalmente com a explicação da "grande desigualdade" de Júpiter e Saturno. Laplace mostrou por considerações gerais que a ação mútua dos dois planetas jamais poderia afetar de forma significativa as excentricidades e inclinações de suas órbitas; e que as peculiaridades do sistema Joviano eram devidas à semelhança próxima da comensurabilidade dos movimentos médios de Júpiter e Saturno. Mais desenvolvimentos desses teoremas sobre movimentos planetários foram dados em suas duas memórias de 1788 e 1789. Foi sobre essas informações que Delambre computou suas tabelas astronômicas. O ano de 1787 se tornou memorável pela explicação e análise de Laplace da relação entre a aceleração lunar e as mudanças seculares na excentricidade da órbita da Terra: esta investigação completou a prova da estabilidade de todo o Sistema Solar na suposição de que este consiste de um conjunto de corpos rígidos movendo-se no vácuo. Todas as memórias acima referidas foram apresentadas à Academia Francesa e estão impressas no Mémoires présentés par divers savants. Mecânica celeste
Representação artística da hipótese nebular de Laplace. Laplace determinou como objetivo próprio escrever uma obra que deveria "oferecer uma solução completa para o grande problema mecânico apresentado pelo Sistema Solar e fazer com que a teoria coincida tanto com a observação que equações empíricas não mais encontrem lugar em tabelas astronômicas". O resultado está personificado no Expostion du système du monde e no Méchanique céleste. O primeiro foi publicado em 1796 e dá uma explicação geral sobre os 42
42
fenômenos, mas omite todos os detalhes. Ele contém um sumário da história da astronomia; este sumário concedeu ao seu autor a honra da admissão aos quarenta anos de idade na Academia Francesa. Ele é geralmente considerado como uma das obras-primas da literatura francesa, embora não seja como um todo confiável para os períodos posteriores no que trata. A hipótese nebular foi ali enunciada. De acordo com esta hipótese, o sistema solar evolui a partir de uma massa globular de gás incandescente revolvendo em torno de um eixo atravessando o seu centro de massa. À medida que esfriava, esta massa se contraiu e anéis sucessivos saíram de sua borda exterior. Esses anéis, por sua vez, esfriaram-se e finalmente, condensaramse para formar os planetas, enquanto o Sol representa o núcleo central do que ainda restara. Com esta visão, seria esperado que os planetas mais distantes fossem mais antigos do que os mais próximos ao Sol. O assunto é de grande dificuldade e, embora pareça certo que o Sistema Solar tenha uma origem comum, existem várias características que parecem quase inexplicáveis através da hipótese nebular enunciada por Laplace. Provavelmente, a melhor opinião moderna tende à visão de que condensação nebular, condensação meteórica, fricção de fluxo e possivelmente outras causas ainda não reveladas tenham tido um papel na evolução do sistema. A idéia da hipótese nebular já tinha sido esboçada por Kant, em 1755, e ele também sugeriu agregações meteóricas e fricção de fluxo como causas afetando a formação do sistema solar; é provável que Laplace não soubesse disso. De acordo com a regra publicada por Titius de Wittemberg, em 1766 - mas geralmente conhecida como Lei de Bode, do fato de que atenção foi chamada a ela por Johann Elert Bode, em 1778 - as distâncias dos planetas para o Sol estavam muito próximas à proporção dos números 0 + 4, 3 + 4, 6 + 4, 12 + 4, etc., o enésimo termo sendo ((n - 1) · 3) + 4. A discussão analítica de Laplace sobre o Sistema Solar é dada em seu Méchanique céleste, publicado em cinco volumes. Os primeiros dois volumes, publicados em 1799, contêm métodos para calcular os movimentos dos planetas, determinando suas posições e resolvendo problemas de curso. Os terceiro e quarto volumes, publicados em 1802 e 1805, contêm aplicações desses métodos e várias tabelas astronômicas. O quinto volume, publicado em 1825, é basicamente histórico, mas oferece como apêndices os resultados das pesquisas mais recentes de Laplace. As próprias investigações de Laplace incorporadas nele são muito numerosas e valiosas, tendo muitos resultados sido apropriados de escritores com pouco ou nenhum reconhecimento, e as conclusões - que foram descritas como o resultado organizado de um século de paciente labuta - são freqüentemente mencionadas como se devessem apenas a Laplace. Biot, que ajudou Laplace a revisá-lo para a impressão, disse que o próprio Laplace freqüentemente não conseguia se lembrar dos detalhes na cadeia de raciocínio e, se acreditasse que as conclusões estavam corretas, ficava contente em inserir a frase constantemente recorrente, "Il est aisé à voir.". O Méchanique Céleste não é apenas a tradução do Principia para a linguagem do cálculo diferencial, mas completa uma parte que Newton não pode trabalhar em detalhes. A obra recente de F. F. Tisserand pode ser vista como a apresentação moderna da astronomia dinâmica na visão clássica, mas o tratado de Laplace sempre permanecerá um modelo exemplar. Ciência como predição Laplace foi ao estado para implorar para Napoleão aceitar uma cópia de seu 43
43
trabalho, que havia escutado que o livro não continha menção a Deus; Napoleão, que era fã de propor perguntas desconcertantes, recebeu-o com o comentário, "M. Laplace, me disseram que você escreveu este grande livro sobre o sistema do universo e jamais sequer mencionou seu Criador." Laplace, que, embora o mais obsequioso dos políticos, era inflexível como um mártir sobre cada aspecto de sua filosofia, levantou-se e respondeu rispidamente, "Je n'avais pas besoin de cette hypothèse-là". (Eu não precisei fazer tal suposição). Napoleão, que apreciou a resposta, a contou a Lagrange, que exclamou, "Ah! c'est une belle hypothèse; ça explique beaucoup de choses" (Ah! essa é uma bela suposição; ela explica muitas coisas), ao que Laplace então declarou: "Cette hypothèse, Sire, explique en effet tout, mais ne permet de prédire rien. En tant que savant, je me dois de vous fournir des travaux permettant des prédictions" ("Esta hipótese, Majestade, realmente explica tudo, mas não permite predizer nada. Como um estudioso, eu devo fornecer a você trabalhos que permitam predições." citado por Ian Stewart e Jack Cohen). Laplace, então, definiu a ciência como uma ferramenta de predição. Buraco negro
Concepção artística de um buraco negro Laplace também esteve próximo a propor o conceito de buraco negro. Ele observou que poderia haver estrelas maciças cuja gravidade seria tão grande que nem mesmo a luz escaparia de sua superfície. Laplace também especulou que algumas nebulosas reveladas pelos telescópios poderiam não ser parte da Via Láctea e seriam, na verdade, galáxias em si. Portanto, ele antecipou a principal descoberta de Edwin Hubble cerca de 100 anos antes de acontecer. Teoria analítica das probabilidades Em 1812, Laplace publicou seu Théorie analytique des probabilités. O método de estimar a proporção do número de casos favoráveis, comparado ao número total de casos possíveis, já havia sido indicado por Laplace em um artigo escrito em 1779. Ele consiste em tratar os valores sucessivos de qualquer função como coeficientes na expansão de outra função, com referência a uma variável diferente. A última é, portanto, chamada de função geradora da primeira. Laplace então mostra como, por meios da interpolação, esses coeficientes podem ser determinados a partir da função geradora. Em seguida, ele ataca o problema converso e, a partir dos coeficientes, encontra a função geradora; isso é obtivo pela solução de uma equação com diferenças finitas. O método é trabalhoso e leva na maior parte das vezes para uma distribuição normal de probabilidades, a chamada distribuição Laplace-Gauss. Este tratado inclui a exposição do método dos mínimos quadrados, um testemunho notável do domínio de Laplace sobre os processos de análise. O método dos mínimos quadrados para a combinação de numerosas observações já havia sido dado empiricamente por Gauss e Legendre, mas o quarto capítulo desta obra contém uma prova formal dele, sobre a qual toda a teoria dos erros tem sido baseada. Isso foi afetado apenas por uma análise 44
44
mais intricada especialmente inventada para este propósito, mas a forma na qual ela é apresentada é tão escassa e insatisfatória que, apesar da acurácia uniforme dos resultados, já foi questionado se Laplace realmente fez todo o complicado trabalho que ele indica tão brevemente e, geralmente, de forma incorreta. Laplace parece ter visto a análise como meramente um meio de lidar com problemas físicos, embora a habilidade com que ele inventou as análises necessárias é quase fenomenal. Enquanto seus resultados fossem verdadeiros, ele dispendia pouco esforço para explicar os passos pelos quais chegou a eles; ele nunca estudou elegância ou simetria em seu processo e era o suficiente para ele se pudesse de alguma maneira resolver a questão em particular que ele estivesse discutindo. Em 1819, Laplace publicou um relato popular do seu trabalho sobre probabilidades. Este livro tem a mesma relação com o Théorie des probabilités que o Système du monde tem com o Méchanique céleste. Descobertas menores e realizações Entre as descobertas menores de Laplace na matemática pura estão sua discussão (simultaneamente com Vandermonde) sobre a teoria geral dos determinantes em 1772; sua prova de que cada equação de grau par deve ter pelo menos um fator quadrático real; sua redução da solução de equações difenciais lineares para definir integrais; e sua solução para a equação diferencial parcial linear de segunda ordem. Ele também foi o primeiro a considerar os difíceis problemas que envolviam equações de diferenças mistas e a provar que a solução para uma equação por diferenças finitas do primeiro grau e da segunda ordem podem sempre ser obtidas na forma de uma fração contínua. Além dessas descobertas originais, ele determinou, em sua teoria das probabilidades, os valores de um número das integrais definidas mais comuns; e, no mesmo livro, deu a prova geral do teorema enunciado por Lagrange para o desenvolvimento de qualquer função implícita em uma série através de coeficientes diferenciais. Junto com Thomas Young, é atribuído a Laplace a descrição da pressão sobre uma superfície curva, como demonstrado na equação Young-Laplace. Na física teórica, a teoria da atração capilar é devida a Laplace, que aceitou a idéia proposta por Hauksbee no Philosophical Transactions de 1709, que o fenômeno era devido a uma força de atração que era imperceptível a distâncias razoáveis. A parte que lida com a ação de um sólido sobre um líquido e a ação mútua de dois líquidos não foi elaborada, mas completada, por fim, por Gauss; Carl Neumann, mais tarde, inseriu alguns detalhes. Em 1862, Lord Kelvin (Sir William Thomson) mostrou que se fosse suposta a constituição molecular da matéria, as leis da atração capilar poderiam ser deduzidas pela lei Newtoniana da gravitação.
Pierre Simon, Marquis de Laplace. Laplace, em 1816, foi o primeiro a mostrar explicitamente por que a teoria do movimento vibratório de newton dava um valor incorreto para a velocidade do som. A velocidade real é maior do que aquela calculada por Newton em conseqüência do calor desenvolvido pela súbita compressão do 45
45
ar, que aumenta a elasticidade e, portanto, a velocidade do som transmitido. As investigações de Laplace na física prática ficaram confinadas àquelas feitas juntamente a Lavoisier nos anos de 1782 a 1784 sobre o calor específico de vários corpos. À medida que o poder de Napoleão aumentava, Laplace implorou ao primeiro cônsul que lhe desse o posto de ministro do interior. Napoleão, que desejava o apoio de homens da ciência, concordou com a proposta; porém, a carreira política de Laplace durou pouco menos de seis semanas. Embora Laplace tenha sido removido do cargo, era desejável manter sua boa vontade. Com um acordo, ele foi elevado ao senado e, no terceiro volume do Mécanique céleste, ele prefixou uma nota dizendo que de todas as verdades ali contidas, a mais preciosa para o autor era a declaração que ele então fez de sua devoção ao pacificador da Europa. Em cópias vendidas após a restauração Bourbon, ela foi retirada. Em 1814, ficou evidente que o império estava caindo; Laplace se apressou a oferecer seus serviços aos Bourbons e, quando a restauração ocorreu, foi recompensado com o título de marquis (marquês). Laplace morreu em Paris, em 1827. Teoria das probabilidades A Teoria das probabilidades é o estudo matemático das probabilidades. Pierre Simon Laplace é considerado o fundador da teoria das probabilidades. Os teoremas de base das probabilidades podem ser demonstrados a partir dos axiomas das probabilidades e da teoria de conjuntos. Os teoremas seguintes supõem que o universo Ω é um conjunto finito, o que nem sempre é o caso, como por exemplo no caso do estudo de uma variável aleatória que segue uma distribuição normal. 1. A soma das probabilidades de todos os eventos elementares é igual a 1. 2. Para todos os eventos arbitrários A 1 e A 2 , a probabilidade de os eventos se realizarem simultaneamente é dada pela soma das probabilidades de todos os eventos elementares incluídos tanto em A 1 como em A 2 . Se a intersecção é vazia, então a probabilidade é igual a zero. 3. Para todos os eventos arbitrários A 1 e A 2 , a probabilidade de que um ou outro evento se realize é dada pela soma das probabilidades de todos os eventos elementares incluídos em A 1 ou A 2 . As fórmulas seguintes exprimem matematicamente as propriedades acima:
Eventos mutuamente exclusivos Eventos mutuamente exclusivos são aqueles cuja ocorrência de um elimina a possibilidade de ocorrência do outro. Neste caso a probabilidade de ocorrência de um ou outro evento é expressa por: P(A U B) = P(A) + P(B) Exemplo: No casamento especificado, será estimada a probabilidade de nascer um menino de olhos castanhos ou uma menina de olhos azuis. Assim, tem-se: P(A) = P(menino de olhos castanhos) = 3/8 P(B) = P(meninas de olhos azuis) = 1/8 P(A U B) = P(A) + P(B)= 3/8 + 1/8 = 1/2 Determinismo 46
46
Determinismo é a doutrina que afirma serem todos os acontecimentos, inclusive vontades e escolhas humanas, causados por acontecimentos anteriores, ou seja, o homem é fruto direto do meio, logo, destituído de liberdade de decidir e de influir nos fenômenos em que toma parte, existe liberdade , mas esta liberdade condicionada a natureza do evento em um determinado instante. O indivíduo faz exatamente aquilo que tinha de fazer e não poderia fazer outra coisa; a determinação de seus atos pertence à força de certas causas, externas e internas. É a principal base do conhecimento científico da Natureza, porque afirma a existência de relações fixas e necessárias entre os seres e fenômenos naturais: o que acontece não poderia deixar de acontecer porque está ligado a causas anteriores. A chuva e o raio não surgem por acaso; a semente não germina sem razão, etc.; há sempre acontecimentos prévios que preparam outros: chove porque houve primeiro evaporação, depois resfriamento e condensação do vapor; e assim por diante. Os mundos físico e biológico são, pois, regidos pelo determinismo – no nível macroscópico. No nível mental também vigora o mesmo princípio pois os pensamentos têm uma causa, assim como as ações deles decorrentes; pensamentos e atos estão relacionados aos impulsos, traços de caráter e experiências que caracterizam a personalidade. A doutrina oposta é a do livre-arbítrio, que declara a vontade humana livre para tomar decisões e determinar suas ações. Diante de várias opções oferecidas por uma situação real, o homem poderia escolher uma racionalmente e agir livremente de acordo com a escolha feita (ou não agir, se o quisesse). Exige, portanto, capacidade de discernir e liberdade interior. O animal e o selvagem vêem as coisas em função da sua utilidade imediata na satisfação de instintos e impulsos primários; um pedaço de carne desperta interesse havendo fome para acalmar e só para esse fim. O civilizado, porém, percebe as coisas sob múltiplos aspectos; a carne poderia servir para alimentar a criação, ser examinada ao microscópio, fabricar ácidos aminados para a medicina usar, inspirar um drama ou poema, e assim por diante. Para os que crêem no livre-arbítrio o ser humano, tem de tomar uma decisão sobre a escolha a fazer. Pode-se supô-lo livre para tanto, reconhecendo, contudo, que freqüentemente a condição mental do sujeito impõe restrições ao livre-arbítrio: irreflexão (impulsividade), hábitos fixos, inércia, imitação, moda e outros. Todavia, essas limitações não chegam a cassar a liberdade por completo, nem eliminam a responsabilidade dos atos. Por ter de dormir três horas todas as tardes ou beber, o homem sofrerá diminuição da liberdade de decisão e ação, mas é o dono desses hábitos e, daí, o responsável pelas conseqüências do que fizer. Um exemplo de argumento utilizado por deterministas para refutar o ponto de vista favorável ao livre-arbítrio, freqüentemente encontrado em comunidades de discussão sobre o tema, indica que a escolha é uma ilusão provocada graças a fatores como a percepção, e a memória, estes também determinados pela genética, quando combinados com o cenário ou o ambiente. Neste caso, a escolha seria na realidade uma percepção de que a execução de uma ação no presente (ou de que a escolha no presente de um plano para o futuro), é um fenômeno da consciência, em que o ambiente desperta a atenção do indivíduo para uma mudança significativa no seu meio, que faz com que ocorra a “ilusão” de escolha. O pensamento determinista questiona alguns dos pilares da cultura e do 47
47
conhecimento da civilização ocidental expressos em variações como: o conceito de livre-arbítrio, presente na doutrina de religiões como o judaísmo e o cristianismo ou o conceito de liberdade, fundamental para justificar as bases do capitalismo, por exemplo. Alguns deterministas entendem que a chamada “ilusão da escolha” sendo também determinada, não é passível de controle. Desta forma, mesmo um determinista convicto estaria condenado a ter em alguns momentos tal ilusão, ainda que a combata, pois esta será imposta por fatores internos ou externos, como por exemplo, respectivamente fisiologia ou interações com o ambiente. O aspecto essencial da questão consiste em saber se o sujeito, ao praticar a ação, era livre ou não para praticá-la, se há liberdade de escolha diante de várias possibilidades oferecidas por uma situação – ou se ele só poderia ter feito precisamente o que fez. Ciência O determinismo constitui um princípio da ciência experimental que se fundamenta pela possibilidade da busca das relações constantes entre os fenômenos. Essa teoria afirma que o comportamento humano é condicionado por três fatores: genética, meio e momento. Os deterministas pensam que todos os acontecimentos do universo estão de acordo com as leis naturais, ou seja, que todo fenômeno é condicionado pelo que precede e acompanha. , propondo sempre uma investigação na causa dos fenômenos, sem aceitar que aconteceu porque tinha de acontecer. Uma bola de bilhar arremessada com determinada força e direção só poderá percorrer um único caminho que poderá ser traçado com perfeição se todas as variáveis puderem ser levadas em conta, portanto, seu comportamento é determinado pela acção que a causou. Assim, segundo o determinismo, você não pode optar por um sorvete de chocolate ou baunilha, o que ocorre é a ilusão de escolha. Seja qual for a opção que tomar, ela já estaria pré-determinada por toda a sua trajetória de vida e de toda a humanidade antes dela. Gás Um gás é o conteúdo da fase gasosa, no qual a matéria tem forma e volume variáveis. Nos gases, as moléculas se movem livremente e com grande velocidade. A força de coesão é mínima e a de repulsão é enorme. Por razões didáticas, a Física classifica os gases em duas categorias: • os gases perfeitos ou ideais • os gases reais Na verdade, nenhum gás é perfeito. Só pode ser tratado como tal, um gás em muito baixa pressão e altíssima temperatura. Outra classificação possível para os gases é aquela que considera os efeitos para a saúde humana, quando inalados. Assim, há os inofensivos (oxigênio, hélio), quando dispersos em quantidade normal na atmosfera, e os venenosos (capazes de matar). Dentre os últimos podemos citar: • Tóxicos: ácido cianídrico (produz a morte quase instantaneamente), amoníaco do anidro sulfuroso, benzina, iodacetona, cianuretos alcalinos de potássio, sódio etc. • Asfixiantes: que provocam a cessação das trocas orgânicas (provocando a redução do teor de oxigênio e o consequente aumento de gás carbônico no sangue) tais como oxicloreto, tetraclorossulfureto de carbono, cloroformiato de metila clorado, bromo, fosgeno. 48
48
Gás perfeito Um gás perfeito ou ideal é um modelo idealizado para o comportamento de um gás. Um gás perfeito obedece às seguintes leis: • lei de Boyle-Mariotte • lei de Charles • lei de Gay-Lussac Da teoria e da combinação destas leis, temos que o produto da pressão e do volume divido pela temperatura é constante para uma certa quantidade molar de qualquer gás:
A constante C na verdade é o produto do número de mols do gás pela constante R, chamada constante dos gases perfeitos. Daí vem a equação de estado dos gases perfeitos, onde n é o número de mols do gás: O valor numérico de R depende das unidades utilizadas: Para fazer com que um gás real se comporte aproximadamente como ideal, reduz-se a pressão e eleva-se a temperatura, para que a distância entre as moléculas seja a maior possível. É importante lembrar que não existem gases perfeitos em condições normais. Para tornar um gás próximo de ser considerado perfeito, é preciso que ele esteja a alta temperatura e baixa pressão. Nessas condições, os choques entre as moléculas se tornam praticamente elásticos, não havendo perda de energia cinética. Podemos perceber que a equação não faz nenhuma referência ao tipo de molécula de gás. A consequência desse fato é a que a equação é incapaz de prever os efeitos das interações intermoleculares. Porque se duas moléculas com grande interação intermolecular se cruzam próximas uma da outra existe uma força de atração, diminuindo a energia cinética, o que diminuiria a pressão total do sistema em relação ao esperado no caso de não haver tal interação. Por isso é preciso que o sistema esteja em alta temperatura e baixa pressão. No primeiro caso, com a temperatura alta, a alta energia cinética faz com que os choques entre as moléculas sejam quase elásticos, e quando elas se aproximam a interação seja por um momento curto e a interação acaba não sendo o suficiente para mudar a trajetória das partículas no gás. É como se fosse um foguete passando próximo da superfície de um planeta. Se a velocidade for baixa ele será aprisionado pelo enorme campo gravitacional, mudando de trajetória e se chocando com o planeta, o que diminuiria sua energia cinética. Se a velocidade for suficientemente alta ele passará sem grandes mudanças. No segundo caso, com a baixa pressão, as moléculas estão muito afastadas. E como a interação depende fortemente da distância das partículas, grandes distâncias fazem com que o efeito de interação seja praticamente desprezível. Lei de Boyle-Mariotte A Lei de Boyle-Mariotte (enunciada por Robert Boyle e Edme Mariotte) diz que: “Sob temperatura constante (condições isotermas), o produto da pressão e do volume de uma massa gasosa é constante, sendo, portanto, inversamente proporcionais. Qualquer aumento de pressão produz uma diminuição de volume e qualquer aumento de volume produz uma diminuição de pressão.” 49
49
Em um gráfico pressão x volume, sob uma temperatura constante, o produto entre pressão e volume deveria ser constante, se o gás fosse perfeito. Existe uma temperatura onde o gás real aparentemente obedece à lei de BoyleMariotte. Esta temperatura é chamada de temperatura de Mariotte. Transformações isotérmicas nos gases perfeitos Em uma transformação isotérmica, envolvendo um gás perfeito, o produto entre pressão e volume é constante. É possível calcular a pressão e o volume desse gás através da fórmula: Nessa fórmula, e são as pressões inicial e final, respecivamente. Da mesma forma, e são os volumes inicial e final. Edme Mariotte Edme Mariotte (Dijon, c. 1620 – Paris, 12 de Maio de 1684) foi um cientista e padre francês, que se destacou principalmente no campo da física, mas também escreveu sobre fisiologia vegetal. Vida e obra Membro activo da Académie des Sciences, quase desde a sua fundação em 1666 até à sua morte. Edme Mariotte foi o iniciador da física experimental na França. Trabalhou sobre a mecânica dos sólidos, a óptica, a hidrodinâmica, a mecânica dos fluidos, a visão, as cores, a previsão do tempo. Em 1660 estabeleceu uma lei sobre a deformação elástica dos sólidos. Em 1676, enunciou a Lei de compressibilidade dos gases que leva seu nome. Como Boyle trabalhou na mesmo época no mesmo assunto e chegou ao mesmo resultado, em geral a lei é chamada “de Boyle-Mariotte”, em que diz que o produto da pressão e do volume de uma porção de gás é constante: p1xV1 = p2xV2 = constante Ele também foi o descobridor do “ponto cego” no olho. Lei de Charles A lei de Charles é uma lei dos gases perfeitos : à pressão constante, o volume de uma quantidade constante de gás aumenta proporcionalmente com a temperatura. Esta lei diz respeito às transformações isocóricas ou isométricas, isto é, aquelas que se processam a volume constante, cujo enunciado é o seguinte: O volume constante, a pressão de uma determinada massa de gás é diretamente proporcional à sua temperatura absoluta, ou seja: = constante Desta maneira, aumentando a temperatura de um gás a volume constante, aumenta a pressão que ele exerce, e diminuindo a temperatura, a pressão também diminui. Teoricamente, ao cessar a agitação térmica das moléculas a pressão é nula, e atinge-se o zero absoluto. A representação gráfica da transformação isométrica é uma reta. Bibliografia De nível superior • Horácio Macedo – Físico-Química I – páginas 49 a 53 – Guanabara Dois – Rio de Janeiro- RJ – Brasil – 1981 • Walter John Moore – Físico-Química vol 1 – tradução da quarta edição americana por Helena Li Chun e outros – páginas 10 a 13 – Editora Edgard Blücher Ltda. – 1976 • Gilbert W. Castellan – Físico-Química – tradução de Luiz Carlos Guimarães – Livros Técnicos e Científicos Editora S.A. – páginas 6 a 11 – 1976 De nível intermediário • Geraldo Camargo de Carvalho – Química Moderna – páginas 206 a 215 – Editora Scipione – São Paulo – SP – Brasil – 1997 50
50
Teruko Y. Utimara e Maria Linguanoto – Química – páginas 161 a 165 – Editora FTD – São Paulo – SP – Brasil – 1998 • Ricardo Feltre – Fundamentos da Química – 3a edição – Editora Moderna – São Paulo – SP – Brasil – 2001 Lei de Gay-Lussac Dentro do âmbito da Química e da Física a Lei de Gay-Lussac é uma lei dos gases perfeitos: sob volume constante, a pressão de uma quantidade constante de gás aumenta proporcionalmente com a temperatura: •
or
onde: P é a pressão do gas. T é a temperatura do gas (en kelvins). k é uma constante. Para comparar a mesma substância en dois tipos de condições:
É importante se notar que há muitas vezes na literatura didática de nível intermediário e mesmo de nível superior, uma certa confusão no que tange à nomenclatura. Por vezes a Lei de Gay-Lussac é chamada de Lei de Charles e vice-versa. Porém, o artigo aqui desenvolvido segue a orientação do artigo da Wikipedia em Inglês Bibliografia De nível superior • Horácio Macedo – Físico-Química I – páginas 49 a 53 – Guanabara Dois – Rio de Janeiro- RJ – Brasil – 1981 • Walter John Moore – Físico-Química vol 1 – tradução da quarta edição americana por Helena Li Chun e outros – páginas 10 a 13 – Editora Edgard Blücher Ltda. – 1976 • Gilbert W. Castellan – Físico-Química – tradução de Luiz Carlos Guimarães – Livros Técnicos e Científicos Editora S.A. – páginas 6 a 11 – 1976 De nível intermediário • Geraldo Camargo de Carvalho – Química Moderna – páginas 206 a 215 – Editora Scipione – São Paulo – SP – Brasil – 1997 • Teruko Y. Utimara e Maria Linguanoto – Química – páginas 161 a 165 – Editora FTD – São Paulo – SP – Brasil – 1998 • Ricardo Feltre – Fundamentos da Química – 3a edição – Editora Moderna – São Paulo – SP – Brasil – 2001 Referências • Castka, Joseph F.; Metcalfe, H. Clark; Davis, Raymond E.; Williams, John E. (2002). Modern Chemistry. Holt, Rinehart and Winston. ISBN 0-03056537-5. • Guch, Ian (2003). The Complete Idiot’s Guide to Chemistry. Alpha, Penguin Group Inc.. ISBN 1-59257-101-8. • Mascetta, Joseph A. (1998). How to Prepare for the SAT II Chemistry. Barron’s. ISBN 0-7641-0331-8. Constante universal dos gases perfeitos 51
51
A constante universal dos gases perfeitos é uma constante física que relaciona a quantidade de um gás (medida em número de moléculas) com a pressão e a temperatura. Um gás perfeito é um gás imaginário que respeita esta constante a qual assume que o volume da molécula é zero. A maioria dos gases aproximam-se deste comportamento desde que em condições de pressão e temperatura suficientemente afastados do ponto de liquefação ou sublimação. (A constante R é igual ao produto da constante de Avogadro pela constante de Boltzmann: R = N A K B ) Valor de R Unidades 8,314472 J · K-1 · mol-1 0,0820574587 L · atm · K-1 · mol-1 8,20574587 x 10-5 m³ · atm · K-1 · mol-1 8,314472 cm3 · MPa · K-1 · mol-1 8,314472 L · kPa · K-1 · mol-1 8,314472 m3 · Pa · K-1 · mol-1 62,3637 L · mmHg · K-1 · mol-1 62,3637 L · Torr · K-1 · mol-1 83,14472 L · mbar · K-1 · mol-1 1,987 cal · K-1 · mol-1 6,132439833 lbf · ft · K-1 · g · mol-1 10,7316 ft³ · psi · °R-1 · lb-mol-1 8,63 x 10-5 eV · K-1 · atom-1 0,7302 ft3·atm·°R-1·lb-mole-1 1,987 Btu · lb-mol-1 · °R-1 Valor verdadeiro convencional para a constante R Atualmente o CODATA[1] recomenda para o valor da constante R de um gás ideal, o seguinte valor: ou
(notação concisa)
Este é o melhor valor estimado para a constante molar dos gases, conhecido também como valor verdadeiro convencional (de uma grandeza)[2] A constante R é utilizada na fórmula dos gases ideais:
onde P é a pressão do gás T é a temperatura (absoluta) do gás V é o volume ocupado pelo gás n é a quantidade de gás (usualmente expresso em número de moles) V m é o volume molar do gás A forma também é bastante conhecida. Constante de Boltzmann 52
52
A constante de Boltzmann (k ou k B ) é a constante física que relaciona temperatura e energia de moléculas. Tem o nome do físico austríaco Ludwig Boltzmann, que fez importantes contribuições para a física e para a mecânica estatística, na qual a sua constante tem um papel fundamental. O seu valor experimental, em unidades SI, determinado em 2002, é: ou
(não-SI) O factor de conversão entre os dois valores é a carga do eléctron: coulomb por electron. A forma mais simples de chegar à constante de Boltzmann é dividir a constante dos gases perfeitos pelo número de Avogadro. A constante de Boltzman relaciona assim a idéia de que para qualquer quantidade de um gás ideal, obtemos um valor constante caso dividamos o valor obtido a partir da multiplicação de pressão e volume pelo valor da temperatura, o R (0,082 (atm.L)/(mol.K) ou 8,31 J/k). Deste modo estamos a considerar que R é a quantidade de energia por mol de moléculas de gás. Ao dividir este novo valor pelo número de Avogadro obtemos a quantidade de energia contida por cada molécula de gás, de acordo com as expressões: PV/T=cte (R.n), R/N=Kb (ou B) Ludwig Boltzmann Ludwig Eduard Boltzmann (20 de Fevereiro de 1844 em Viena – 5 de Setembro de 1906 em Duino, Itália) foi um físico austríaco muito famoso pelo seu trabalho nos campo da termodinâmica estatística. É considerado junto com Josiah Willard Gibbs e James Clerk Maxwell como o fundador da Mecânica estatística. Ele foi ainda um dos mais importantes defensores da teoria atómica numa época em que esta era ainda muito controversa. Biografia Em 1863 iniciou os seus estudos em física na universidade de Viena e em 1866 terminou o seu doutoramento na mesma universidade com uma tese sobre teoria cinética de gases sob a supervisão de Joseph Stefan. No ano seguinte foi nomeado docente nesta universidade e em 1869 professor na universidade de Graz. Em 1871 ele visitou Gustav Kirchhoff e Hermann von Helmholtz em Berlim. Em 1872 ele conheceu Henriette von Aigentler em Graz, enquanto ela tentava ser admitida extra-oficialmente a assistir a aulas de matemática e física na Universidade de Graz numa época em que a entrada de mulheres não era permitida. Seguindo os conselhos de Boltzmann, ela finalmente conseguiu-o. Em 1873 ele voltou à Universidade de Viena, depois de aí ser nomeado professor de matemática, onde permaneceu até 1876. Boltzmann e Henriette casaram-se a 17 de Julho de 1876 e do seu casamento nasceram 3 filhas e 2 filhos. Em 1876 ele foi nomeado professor de física experimental na Universidade de Graz. Entre os seus alunos nesta universidade encontravam-se Svante Arrhenius e Walther Nernst. Em Graz Boltzmann viveu 12 anos felizes em que desenvolveu os seus conceitos estatísticos da natureza. Em 1885 ele é nomeado membro da Academia de Ciências imperial austríaca e em 1887 é eleito presidente da universidade de Graz. Em 1890 ele foi nomeado como professor de física teórica na Universidade de Munique, mas em 1893 ele volta a Viena ao ser nomeado sucessor do seu orientador Joseph Stefan na cátedra de física teórica dessa universidade. Em 53
53
Viena ele tem conflitos com alguns dos seus colegas, em particular com Ernst Mach que foi nomeado professor de filosofia e história das ciências desta universidade em 1895. Por isso em 1900 Boltzmann mudou-se para a universidade de Leipzig. No entanto em 1902 Mach reformou-se devido a problemas de saúde e Boltzmann volta a Viena. Nesta universidade ele teve como estudantes a Paul Ehrenfest e Lise Meitner. Em Viena, além de física, Boltzmann também ensinou filosofia e as suas aulas eram tão populares que apesar de as dar no maior auditório da universidade havia pessoas que não conseguiam lugar a dentro. Devido ao enorme sucesso destas aulas, Boltzmann foi convidado pelo imperaro a uma recepção no palácio. Boltzmann sofria de enorme instabilidade emocional, alternando fases de depressão com outras de enorme excitação ou irritação e pensa-se que sofria muito provavelmente de distúrbio bipolar. Lise Meitner afirmou que as pessoas mais próximas dele conheciam os seus ataques de depressão profunda e as suas tentativas de suicídio. Em 5 de Setembro de 1906, enquanto passava as férias de Verão em Duino , próximo de Trieste, Boltzmann cometeu suicídio num ataque de depressão. Ele foi enterrado em Viena e na sua tumba está escrita a famosa equação da física estastística S = KlnΩ. Interpretação estatística Em 1877, visualizou um método probabilístico para medir a entropia de um determinado número de partículas de um gás ideal, na qual ele definiu entropia como proporcional ao logaritmo neperiano do número de microestados que um gás pode ocupar: S = KlnΩ Onde S é a entropia, k é a constante de Boltzmann e Ω é o número de microestados possíveis para o sistema. coulomb O coulomb (símbolo: C) é a unidade de carga elétrica pelo Sistema Internacional (SI). É uma unidade composta definida a partir do ampère: 1 coulomb é a quantidade de carga elétrica carregada pela corrente de 1 ampère durante 1 segundo. Seu nome vem do nome do físico francês Charles de Coulomb (1736-1806). Carga elementar A unidade SI de carga elétrica é o coulomb, definido em termos da unidade de corrente elétrica, o ampère. O coulomb (C) é a quantidade de carga que passa por um condutor, em um segundo, quando a corrente é de um ampère (1 A). A carga elementar |e| vale
. A carga do elétron vale |e|. Outras unidades de carga O coulomb substituiu a unidade franklin (Fr), cujo nome homenageia o físico estadunidense Benjamin Franklin. Esta unidade era usada no Sistema CGS de unidades. 1 franklin valeria 0,3336 × 10-9 coulomb. Ordem de grandeza Pela lei de Coulomb, duas cargas elétricas pontuais de 1 coulomb separadas de um metro exercem uma sobre a outra uma força de 9 × 109 N, isto é, aproximadamente o peso de 900 000 toneladas. O coulomb é, portanto, uma unidade de ordem de grandeza elevada para exprimir quantidades de cargas estáticas e utilizam-se geralmente seus sub-múltiplos microcoulomb (μC) ou nanocoulomb (nC). 54
54
Múltiplo 100 101 102 103 106 109 1012 1015 1018 1021 1024
Múltiplos do SI Nome Símbolo Múltiplo Nome coulomb C decacoulomb daC 10-1 decicoulomb -2 hectocoulomb hC 10 centicoulomb -3 quilocoulomb kC 10 milicoulomb -6 megacoulomb MC 10 microcoulomb -9 gigacoulomb GC 10 nanocoulomb -12 teracoulomb TC 10 picocoulomb -15 petacoulomb PC 10 femtocoulomb -18 exacoulomb EC 10 attocoulomb -21 zettacoulomb ZC 10 zeptocoulomb -24 yottacoulomb YC 10 yoctocoulomb Charles Augustin de Coulomb
Símbolo dC cC mC µC nC pC fC aC zC yC
Charles de Coulomb Charles Augustin de Coulomb (14 de Junho de 1736 em Angoulême – 23 de Agosto de 1806 em Paris) foi um físico francês. Em sua homenagem, deu-se seu nome à unidade de carga elétrica, o coulomb. Engenheiro de formação, ele foi principalmente físico. Publicou 7 tratados sobre a Eletricidade e o Magnetismo, e outros sobre os fenômenos de torção, o atrito entre sólidos, etc. Experimentador genial e rigoroso, realizou uma experiência histórica com uma balança de torsão para determinar a força exercida entre duas cargas elétricas (Lei de Coulomb). Durante os últimos quatro anos da sua vida, foi inspetor geral do Ensino Público e teve um papel importante no sistema educativo da época. Biografia Coulomb nasceu em Angoulêeme, França, em uma família muito rica. Seu pai se chamava Henri Coulomb e sua mãe, Catherine Bajet. Sua família tinha se mudado para Paris, e lá Coulomb estudou na prestigiada escola Collège des Quatre-Nations. Os cursos de matemática de lá, por Pierre Charles Monnier, motivaram Coulomb a seguir a carreira matemática. Plasma
As lâmpadas de plasma 55
55
Em física, plasma é denominado o quarto estado da matéria. Difere-se dos sólidos, líquidos e gasosos por ser um gás ionizado, constituídos por átomos ionizados e elétrons em uma distribuição quasi-neutra (concentrações de íons positivos e negativos praticamente iguais) que possuem comportamento coletivo. Estima-se que 99% de toda matéria conhecida esteja no estado de plasma, o que faz deste o estado da matéria mais comum e abundante do universo. Introdução Origem do termo A palavra plasma vem da medicina onde é utilizada para apontar perturbação ou estado não distinguível. O termo plasma, na física, foi utilizado pela primeira vez pelo físico americano, Irving Langmuir[1], quando estudava descargas elétricas em gases. Propriedades Dentre suas características, a mais importante é a tendência que esse estado tem de permanecer eletricamente neutro, equilibrando sua carga elétrica negativa e positiva em cada porção de volume de matéria. Caso ocorra um desequilíbrio entre as densidades de cargas, estas dão lugar a forças eletrostáticas que, pela alta condutividade elétrica, atuam rapidamente de modo a restaurar o estado inicial de neutralidade. O Plasma emite luz sempre que entra em contato com alguma excitação elétrica e campos magnéticos. As auroras polares são um exemplo típico deste fenômeno. Também pode ser vista nas descargas atmosféricas da ionosfera. A área geral do estudo de Plasma, onde as interações dos gases ionizados com campos elétricos são dependentes do tempo, denomina-se dinâmica do plasma A denominação “o quarto estado fundamental da matéria” foi dada pelo físico inglês William Crooks, que assim o chamou por conter propriedades diferentes do estado sólido, líquido e gasoso. Esta mudança de estado físico acontece da seguinte forma: ao transferimos energia em nível atômico (calor, por exemplo) a um corpo de massa sólida, este aumenta sua temperatura até o ponto de fusão, tornando sua massa líquida; se transferirmos ainda mais energia, este atingirá a temperatura de ebulição e sua massa tornar-se-á gasosa, ainda se aumentarmos a energia transferida ao gás a altíssimas temperaturas, obteremos o plasma. Sendo assim, se colocarmos os estados físicos da matéria em ordem crescente, conforme a quantidade de energia que possui, teremos: Sólido Líquido Gasoso Plasma Como o plasma está em uma temperatura muito alta, a agitação de seus átomos é tão grande que as colisões entre partículas é freqüente, não podendo mais o átomo ser mantido coeso. A força nuclear forte não é mais capaz de manter o núcleo atômico estável e nem existem combinações entre os elétrons livres, assim sendo, o átomo também não pode receber atuação da força nuclear fraca. História 56
56
Michael Faraday em 1842 O primeiro cientista a iniciar as pesquisas efetivas sobre plasma foi Michael Faraday, em 1830, que começou a realizar estudos sobre descargas elétricas na atmosfera e seus efeitos nas reações químicas induzidas. Durante suas pesquisas ele observou estruturas gasosas luminosas, que indicavam um novo estado da matéria. Com a descoberta do elétron e o aperfeiçoamento dos tubos de descarga a vácuo, estudos com gases à baixa pressão, conduzidos pelos cientistas Langmuir e Crookes, permitiram a elaboração dos primeiros modelos teóricos para ionização, recombinação, difusão, colisões elétron-íon e a formação de íons negativos. O termo plasma foi utilizado algum tempo depois (1920), por Irving Langmuir e H. Mott-Smith, para designar gases ionizados. Como plasma se refere à matéria moldável, os cientistas provavelmente se referiram à propriedade que o plasma tem de reagir a campos eletromagnéticos, podendo ter sua trajetória modificada, como se fosse um “fio de luz”. Descoberta das utilidades do plasma • Em 1929, estudos com sondas eletrostáticas, no diagnóstico de plasmas em descargas a baixa pressão, foram precursores dos tubos de descarga com mercúrio gasoso para iluminação – as futuras lâmpadas fluorescentes. • A partir da década de 30, o plasma foi examinado pela ciência e seus fundamentos teóricos foram edificados. O interesse na obtenção de novas fontes de energia relevou a importância do plasma no processo de fusão nuclear. • Em 1961, surgiu o primeiro conceito bem sucedido de confinamento magnético de plasmas. Pouco tempo depois, a União Soviética construiu a primeira máquina capaz de confinar o plasma e obter energia oriunda de fusão nuclear, batizado de Tokamak. O Tokamak é pesquisado até hoje e acredita-se ser, teoricamente, o melhor candidato à nova fonte de energia desse século. • Em 1970, foram instauradas as primeiras tecnologias de pesquisa em plasmas, como exemplos, as lâmpadas especiais, arcos de plasma para solda e corte, chaves de alta tensão, implantação de íons, propulsão espacial, laser a plasma e reações químicas com plasmas reativos. Deixava de ser apenas teórico e passava a ter utilidade prática. • Em 1994, vem ao público o uso do plasma em terminais de vídeo plano, em Osaka, no Japão. Era a idéia motriz das TVs de plasma. • Em 1999, verificou-se que a utilização de filtros a plasma eliminava 90% de gases poluentes de veículos automotores. • Em 2000, ocorreu com sucesso a utilização de propulsores iônicos para propulsão primária com xenônio na aeronave Deep Space I. Riscos No começo de 2005, o sucesso da venda dos televisores de plasma, em 57
57
função da altíssima resolução que possuem (HDTV), tornou a tecnologia atrativa e economicamente importante, acarretando em investimentos em pesquisa por parte de grandes empresas, como a Panasonic, Philips, Sony e LG. Utilizar industrialmente o plasma e ceder grande credibilidade à tecnologia sem primeiro analisar o seu comportamento é um investimento de risco. Embora ele tenha teoricamente surgido momentos após a explosão do Big Bang e antes da existência de qualquer outra fase de agregação, as aplicações práticas do plasma e o seu conhecimento teórico são ainda insuficientes e alvos sucessivos de debates científicos. Processos de Ionização
Descarga gerada em laboratório – um exemplo de manifestação de plasma Os plasmas são gerados principalmente através de vários processos de ionização. A maioria destes processos é colisional. Dependendo da natureza da colisão, pode ou não ocorrer a ionização do átomo ou molécula neutra. Para um gás em temperatura alta o suficiente, as colisões térmicas entre os átomos, em função de suas altíssimas energias cinéticas, irão ionizar alguns deles. Um ou mais elétrons que estão normalmente ligados ao átomo, em órbitas ao redor do núcleo, serão “ejetados” do átomo e converterão o gás numa região onde coexistem elétrons livres, íons cátions e átomos neutros, formando o plasma. A retirada do elétron do átomo ocorre pela absorção de energia, expressa em elétron-volt (eV). Em condições normais, cada elemento químico tem seu próprio número de prótons e elétrons e, conseqüentemente, uma força eletrostática característica, que vai determinar a quantidade de energia requerida para “arrancar” certo elétron do átomo. Freqüentemente, seu valor, denominado de energia de ionização, se refere à energia necessária para arrancar definitivamente um elétron mais externo, que sofre menos atração pelo núcleo, de seu átomo isolado, gasoso e no estado fundamental. Quando aquecemos um gás ou o atingimos com descargas elétricas, as colisões entre os elétrons e os átomos neutros podem ser elásticas ou inelásticas: • As colisões elásticas ocorrem onde existe uma conservação da quantidade de movimento e da energia do elétron. Nesse processo não ocorre ionização. Como exemplo, citemos um jogo de bola de gude: quando uma bolinha atinge a outra, ambas se movem. Assim, não houve absorção ou emissão de energia, ou seja, somente a quantidade de movimento foi compartilhada, permanecendo, no conjunto, nula. • Já as colisões inelásticas ocorrem onde toda ou parte da energia cinética do elétron é transferida para o átomo ou molécula neutra sem que este se desloque igualmente para manter a quantidade de movimento. Como resultado, a energia é absorvida pelo átomo ou molécula neutra, ocasionando saltos quânticos dos elétrons nas camadas de energia da eletrosfera. Dependendo da energia transferida pelo choque, o átomo poderá absorver tanta energia que esta terminará por se igualar à da força 58
58
com que os prótons atraem o elétron; ele então “pulará” para fora do átomo, quebrando o equilíbrio eletrostático. Ocorre, então, ionização: o átomo se converte numa partícula positivamente carregada – o cátion – e os elétrons ficam circulando livremente pelo perímetro. Como exemplo, podemos citar um tiro numa parede de concreto: quando o projétil a atinge, ela não se desloca; e energia de sua velocidade, natureza mecânica, é transferida (absorvida) para a parede no momento de colisão, ocorrendo a fragmentação. À ionização do gás, alguns fenômenos estão correlacionados: • Relaxação: ocorre após a estimulação do átomo por meio de uma energia externa, quando o elétron que realizou o salto quântico (para camadas mais energéticas), pelo fato de não possuir energia natural para se manter nesse estado, retorna ao seu lugar de origem. Esse retorno do elétron se dá pela devolução da energia adquirida, emitida na forma de radiação eletromagnética. Isso explica o porquê do plasma emitir luz e radiação; • Dissociação molecular: quebra de moléculas por algum processo colisional de ionização; • Captura eletrônica: processo inverso ao da ionização, pois o íon captura o elétron perdido na ionização. Os elétrons livres do gás, em função da defasagem do equilíbrio de cargas, reocupam, vezes ou outras, as camadas de onde os elétrons foram arrancados, devolvendo energia em forma de fótons, similar ao fenômeno de relaxamento. Atualmente, no entanto, a ionização também se concretiza por outros métodos, de natureza radiativa. Na fotoionização, a ionização ocorre pela interação entre fótons e os átomos de um gás, ou seja, o átomo absorve energia através de ondas eletromagnéticas, como a radiação ultravioleta ou infravermelha. A eficiência na fotoionização está relacionada com a secção de choque σ do átomo e também ao comprimento de onda λ da radiação luz incidente (quanto menor o comprimento, maior a energia). A ionização por ruptura eletrônica reside na ionização induzida por um campo elétrico aplicado que, inicialmente, polariza as cargas do átomo ou molécula e depois as ioniza. É assim que o plasma é gerado na ampola de Crookes. O desenvolvimento tecnológico envolvendo plasmas tem fundamental importância nas indústrias eletrônica, aeroespacial, metalúrgica, biomédica, e de tratamento de resíduos e detritos. Alguns resultados obtidos na indústria moderna só foram possíveis graças à utilização de técnicas que utilizam plasmas e que foram desenvolvidas, em sua maior parte, nas últimas décadas. Diversas aplicações do plasma têm se tornado cada vez mais importantes por reduzir o tempo e o custo de processos, devido à alta reatividade e à eficácia que promove. Para diferentes aplicações, exige-se também plasmas de diferentes densidades, temperaturas e íons: • para plasmas densos, quentes e de íons leves, temos a fusão termonuclear controlada (FTC) dos isótopos leves do hidrogênio e hélio. • para plasmas densos, mornos e de íons pesados, propulsão e tochas a plasma.[2] • para plasmas pouco densos, frios e de íons pesados, há a implantação iônica, processos de esterilização e lâmpadas fluorescentes. Experiências com Plasma 59
59
O plasma também pode existir em baixas temperaturas, como exemplos podemos citar a nossa já conhecida lâmpada fluorescente. Também é usado para processar esterilização em autoclave de plasma e peróxido de hidrogênio. Curiosidades Pelo senso comum, tem-se a idéia de que o plasma é algo difícil de ser produzido (a julgar, principalmente, pelo preço dos televisores) e extremamente raro. A verdade é que 99% do Universo visível conhecido estão em estado de plasma, sendo que o 1% restante é constituído de todos os outros estados de agregação da matéria, dentre eles o sólido, líquido e gasoso. Ou seja, o plasma não é uma exceção a nós, e sim nós a ele. Como exemplos do plasma, podemos citar: • galáxias e nebulosas que contém gás e poeira cósmica interestelar, em estado eletrificado, ou ionizado; • o vento solar ou fluido ionizado, constantemente ejetado pelo sol; • plasmas gerados e confinados pelos Cinturões de Radiação de Van Allen, nas imediações do planeta Terra; • a ionosfera terrestre, que possibilita as comunicações via rádio; • as auroras Austral e Boreal, que são plasmas naturais e ocorrem nas altas latitudes da Terra, resultantes da luminescência visível resultante da excitação de átomos e moléculas da atmosfera, quando bombardeados por partículas carregadas expelidas do Sol e defletidas pelo campo geomagnético; • as lâmpadas fluorescentes; • as descargas atmosféricas (raios), que não passam de descargas elétricas de alta corrente (dezenas a centenas de quiloamperes) que ocorrem na atmosfera com uma extensão usual de alguns quilômetros. Referências e Notas 1. ↑ Physical Review, vol. 33, p. 954, 1952 2. ↑ A propulsão utiliza a aceleração iônica para deslocar veículos espaciais, enquanto que as tochas a plasma utilizam desta aceleração para cortar ou soldar materiais. Íon (português brasileiro) (português europeu) ou ião é uma espécie química Um íon eletricamente carregada, geralmente um átomo ou molécula que perdeu ou ganhou elétrons. Íons carregados negativamente são conhecidos como ânions, ou aniões (que são atraídos para ânodos), enquanto íons com carga positiva são denominados como cátionsPB, ou catiõesPE (que são atraídos por cátodos). Campos científicos Na química, um íon é uma molécula ou átomo que ganhou ou perdeu elétrons num processo conhecido como ionização. Em física, núcleos atómicos (provenientes de átomos completamente ionizados) como os da radiação alfa, são habitualmente designados como partículas carregadas. A ionização é geralmente alcançada pela aplicação de elevadas energias aos átomos, seja através da aplicação de uma alta voltagem eléctrica ou por via de radiação de alta energia. Um gás ionizado é chamado plasma. História Os íons foram pela primeira vez teorizados por Michael Faraday por volta de 1830, para descrever as porções de moléculas que viajavam, quer na direção 60
60
do ânodo, quer na direção do cátodo. No entanto, o mecanismo através do qual o fenômeno se processa só foi descrito em 1884 por Svante August Arrhenius na sua tese de doutoramento na Universidade de Uppsala. A teoria de Arrhenius a princípio não foi aceita (ele conseguiu o doutoramento com a nota mais baixa possível), mas acabou por ganhar o Prêmio Nobel de Química em 1903 pela mesma dissertação. Análise Para átomos isolados num vácuo, existem constantes físicas associadas ao processo de ionização. A energia necessária para remover electrões de um átomo é chamada energia de ionização, ou potencial de ionização. Estes termos são também usados para descrever a ionização de moléculas e sólidos, mas os valores não são constantes, porque a ionização pode ser afectada pela química, geometria e temperatura locais. As energias de ionização decrescem ao longo de um grupo da Tabela Periódica, e aumentam da esquerda para a direita ao longo de um período. Estas tendências são o exacto oposto das tendências para o raio atómico. Electrões em átomos menores são atraídos mais fortemente para o núcleo, e portanto a energia de ionização é mais elevada. Em átomos maiores, os electrões não estão presos com tanta força, e portanto a energia de ionização é mais baixa. Element Primeir Segund Terceir Quart Quint Sétim Sexta o a a a a a a Na 496 4560 Mg 738 1450 7730 Al 577 1816 2744 11,600 Si 786 1577 3228 4354 16,100 21,20 P 1060 1890 2905 4950 6270 0 S 999 2260 3375 4565 6950 8490 11,000 Cl 1256 2295 3850 5160 6560 9360 11,000 Ar 1520 2665 3945 5770 7230 8780 12,000 Energias de ionização sucessivas em kJ/mol A primeira energia de ionização é a energia necessária para remover um elétron, a segunda para remover dois electrões, etc. As energias de ionização sucessivas são sempre maiores que a anterior, e há uma certa nésima energia de ionização que é significativamente mais elevada que as demais. Por esta razão, os iões tendem a formar-se só de certas formas. Por exemplo, o sódio encontra-se na forma Na+, mas não, geralmente, na forma Na2+ devido à grande quantidade de denergia de ionização que seria necessária. Do mesmo modo, o magnésio encontra-se como Mg2+, mas não como Mg3+ e o alumínio pode existir como um catião Al3+. Etimologia As diversas variantes ião, íon, ionte, iônio, iono e ion provêm do grego ion, particípio presente de ienai, “vai”, ou seja, “o que vai”. “Anion” e “cation” significam “o que vai para cima” e “o que vai para baixo”, e “ânodo” e “cátodo” significam “caminho para cima” e “caminho para baixo” (hodos = estrada, caminho). Cátion O cátion (português brasileiro) ou catião (português europeu) é um íon com carga positiva. É formado pela perda de elétrons da camada de valência de um átomo 61
61
(ionização). Nesta categoria enquadram-se os metais, os elementos alcalinos e os elementos alcalino-terrosos, entre outros. Um dos catiões mais comuns é o cátion sódio; este forma compostos iónicos (sais) quando combinado com ânions (íons de carga negativa). Os compostos de sódio de maior importância industrial e comercial são: • Cloreto de sódio – sal comum (NaCl) • Carbonato de sódio (Na 2 CO3) • Bicarbonato de sódio (NaHCO 3 ) • Hidróxido de sódio – soda cáustica (NaOH) • Nitrato de sódio – salitre de Chile (NaNO 3 ) • Tiosulfato de sódio pentahidratado (Na 2 S 2 O 3 .5H 2 O) • Bórax (Na 2 B 4 O 7 ·10H 2 O). Ânion Um ânion (português brasileiro) ou anião (português europeu) é um íon com carga negativa. Eles são ametais que se ligam a metais formando a ligação iônica, quando em ligação, esses ametais, por terem alta eletronegatividade, tendem a atrair elétrons do metal com o qual está se ligando, então esse metal se transforma num cátion (carga positiva), pois perde elétrons e esse ametal se transforma num ânion(carga negativa), pois ganha elétrons. Exemplos: nitrato (NO 3 -) e fluoreto (F-). Nível eletrônico (Redirecionado de Camada de valência) Os elétrons, numa região em torno do núcleo de um átomo, orbitam em espaços com quantidades de energia características denominadas níveis eletrônicos, camadas eletrônicas ou camadas de electrões. Uma camada eletrônica é constituida por um grupo de orbitais atômicos com o mesmo valor de número quântico principal n.
Níveis eletrônicos de energia A existência de camadas eletrônicas foi observada pela primeira vez experimentalmente nos estudos de absorção de raio-x de Charles Barkla e Henry Moseley. Barkla nomeou-os então com as letras K, L, M, etc. (A terminologia original era alfabética. K e L eram originalmente chamados B e A, mas foram renomeados posteriormente para deixar espaço para linhas escpectrias hipotéticas que nunca foram descobertas. O nome do nível K foi escolhido em homenagem a Lord Kelvin, o criador da escala Kelvin de temperatura). Em 1913, Niels Bohr (1885-1962), fundamentado na teoria quântica da radiação formulada por Max Planck em 1900, propôs que os elétrons, em torno do núcleo atômico, giram em órbitas estacionárias denominadas de “níveis de energia”, “camadas eletrônicas” (camadas de electrões). Nestes níveis energéticos os elétrons não emitem e não absorvem energia. Se receberem energia, na forma de luz ou calor, se afastam para níveis mais 62
62
externos e, ao retornarem, emitem esta mesma quantidade de energia. Segundo a teoria quântica a energia envolvida na transição de um nível para outra é quantizada, ou seja, ocorre em “pacotes” inteiros, não divisíveis, denominados “quanta” (”quantum”, no singular ). Para os átomos conhecidos atualmente, os elétrons ocupam 7 níveis de energia (camadas de elétrons), representados por letras maiúsculas: K, L, M, N, O, P e Q , e identificados através de “números quânticos”, denominados “principais” ou “primários”, que são, respectivamente: 1, 2, 3, 4, 5, 6 e 7. A quantidade de elétrons que o átomo de número atômico 112 apresenta ocupando cada nível são, respectivamente: 2, 8, 18, 32, 32, 18 e 8. O átomo 118 possivelmente apresentará a mesma configuração eletrônica, apenas distribuindo 8 elétrons no nível Q. Camada de valência A camada de valência é a última camada do átomo ou o último nível de uma distribuição eletrônica, normalmente os elétrons pertecentes à camada de valência, são os que participam de alguma ligação química. Número quântico principal O número quântico principal, no domínio das configurações eletrônicas, caracteriza um orbital, isto é, a zona envolta do núcleo de um átomo, onde há maior probabilidade de se encontrarem elétrons. Definido por n, o número quântico principal define a energia do nível em que se encontra o elétron, a partir da relação de Bohr. Quanto maior esse número, maior a energia do orbital correspondente. É também o número do n o período da tabela periódica a que pertence o átomo em questão. Orbital atômico
Orbitais atómicas. Num átomo, os estados estacionários da função de onda de um elétron ( funções próprias do Hamiltoniano ( H ) na equação de Schrödinger HΨ = EΨ, onde Ψ é a função de onda ) são denominados orbitais atômicos. Entretanto, os orbitais não representam a posição exata do elétron no espaço, que não pode ser determinada devido a sua natureza ondulatória; apenas delimitam uma região do espaço na qual a probabilidade de encontrar o elétron é elevada. Introdução No caso do átomo de hidrogênio, pode-se resolver a equação anterior de forma exata, determinando que as funções de ondas estão determinadas pelos valores de quatro números quânticos: n , l, m e s. • O valor do número quântico n (número quântico principal ou primário, que apresenta os valores 1,2,3,4,5,6 ou 7) define o tamanho do orbital. Quanto maior o número, maior o volume do orbital. Também é o número quântico que tem a maior influência na energia do orbital. • O valor do número quântico l (número quântico secundário ou azimutal, 63
63
que apresenta os valores 0,1,2,…,n-1) indica a forma do orbital e o seu momento angular. O momento angular é determinado pela equação: A notação científica (procedente da espectroscopia) é a seguinte: • l = 0, orbitais s l = 1, orbitais p • l = 2, obitais d • • l = 3, orbitais f • l = 4, orbitais g. Para os demais orbitais segue-se a ordem alfabética. • O valor do m (número quântico terciário ou magnético, que pode assumir os valores -l…0…+l) define a orientação espacial do orbital diante de um campo magnético externo. Para a projeção do momento angular diante de um campo externo, verifica-se através da equação: O valor de s (número quântico quaternário ou spin) pode ser +1/2 ou 1/2. Denomina-se orbital espacial aquele sem o valor de s, e spinorbital aquele que apresenta o valor de s. Pode-se decompor a função de onda empregando-se o sistema de coordenadas esféricas da seguinte forma: Ψ n , l , ml = R n , l (r) Θ l , ml (θ) Φ ml (φ) Onde • R n , l (r) representa a distância do elétron até o núcleo, e • Θ l , ml (θ) Φ ml (φ) a geometria do orbital. Para a representação do orbital emprega-se a função quadrada, |Θl , ml (θ)|2 |Φ ml (φ)|2, já que esta é proporcional à densidade de carga e, portanto, a densidade de probabilidade, isto é, o volume que encerra a maior parte da probabilidade de encontrar o elétron ou, se preferir, o volume ou a região do espaço na qual o elétron passa a maior parte do tempo. Orbital s O orbital s tem simetria esférica ao redor do núcleo. Na figura seguinte, são mostradas duas alternativas de representar a nuvem eletrônica de um orbital s: • Na primeira, a probabilidade de encontrar o elétron (representada pela densidade de pontos) diminui à medida que nos afastamos do núcleo. • Na segunda, se apresenta o volume esférico no qual o elétron passa a maior parte do tempo. Pela simplicidade, a segunda forma é mais utilizada. Para valores de número quântico principal maiores que um, a função densidade eletrônica apresenta n-1 nós, nos quais a probabilidade tende a zero. Nestes casos, a probabilidade de encontrar o elétron se concentra a certa distância do núcleo. •
64
64
Orbital p A forma geométrica dos orbitais p é a de duas esferas achatadas até o ponto de contato ( o núcleo atómico ) e orientadas segundo os eixos de coordenadas. Em função dos valores que pode assumir o terceiro número quântico m ( -1, 0 e +1 ), obtém-se três orbitais p simétricos, orientados segundo os eixos x, z e y. De maneira análoga ao caso anterior, os orbitais p apresentam n-2 nós radiais na densidade eletrónica, de modo que, à medida que aumenta o valor do número quântico principal, a probabilidade de encontrar o elétrão afasta-se do núcleo atómico.
Orbital d Os orbitais d tem uma forma mais diversificada: quatro deles têm forma de 4 lóbulos de sinais alternados ( dois planos nodais, em diferentes orientações espaciais ), e o último é um duplo lóbulo rodeado por um anel ( um duplo cone nodal ). Seguindo a mesma tendência, apresentam n-3 nós radiais.
Cátodo Cátodo, ou catodo, substância de carácter metálico cujas propriedades se assemelham às ligas e que possuem alta condutividade. Cátodo, é o eletrodo fonte primária de elétrons no interior de uma válvula termiônica, ou válvula eletrônica, de onde saem os elétrons acelerados aquecidos pelo filamento, Efeito Edison, em direção à placa eletrônica ou Ânodo. 65
65
No caso dos díodos semicondutores, é a região N do cristal constituído por uma junção PN. Condensado de Bose-Einstein O Condensado de Bose-Einstein é uma fase da matéria formada por bosões a uma temperatura muito próxima do zero absoluto. Nestas condições, uma grande fracção de átomos atinge o mais baixo estado quântico, e nestas condições os efeitos quânticos podem ser observados à escala macroscópica. A existência deste estado da matéria como consequência da mecânica quântica foi inicialmente prevista por Albert Einstein em 1925, no seguimento do trabalho efectuado por Satyendra Nath Bose. O primeiro condensado deste tipo foi produzido setenta anos mais tarde por Eric Cornell e Carl Wieman em 1995, na Universidade de Colorado em Boulder, usando um gás de átomos de rubídio arrefecido a 170 nanokelvins (nK).
Dados de distribuição de velocidade confirmando a descoberta de um novo estado da matéria, o Condensado de Bose-Einsten, a partir de um gás de Rubídio. Descrição detalhada do gráfico de distribuição de velocidades As cores artificiais representam o número de átomos em cada velocidade, indicando o vermelho menos átomos e o branco mais átomos. As áreas em que aparecem branco e azul claro são velocidades menores. Esquerda: Logo antes do aparecimento do condensado de Bose-Einstein. Centro: No instante do aparecimento do condensado. Direita: após a rápida evaporação, deixando amostras puras do condensado. O pico não é infinitamente estreito devido ao Princípio da Incerteza de Heisenberg: quando um átomo é retido numa região específica do espaço a sua distribuição de velocidade possui necessariamente uma certa largura mínima. Introdução Os condensados de Bose-Einstein são fluidos de baixas temperaturas com propriedades não totalmente compreendidas, como fluir espontaneamente para fora do seu recipiente. Este efeito é uma consequência da mecânica quântica, que postula que qualquer sistema só pode adquirir energia em quantidades discretas. Se um sistema está a uma temperatura tão baixa que esteja no seu estado de energia mínima, não é possível reduzir a sua energia, nem sequer por fricção. Assim sendo, sem fricção, o fluido facilmente supera a gravidade devido às forças de adesão entre o fluido e a parede do seu recipiente e tomará a posição mais favorável, ou seja, a toda a volta do recipiente. Teoria O abrandamento de átomos por meio de arrefecimento produz um estado quantico único conhecido como condensado de Bose ou condensado de 66
66
Bose-Einstein. Este fenómeno foi teorizado nos anos 20 por Albert Einstein, ao generalizar o trabalho de Satyendra Nath Bose sobre a mecânica estatística dos fotões (sem massa) para átomos (com massa). (O manuscrito de Einstein, que se pensava estar perdido, foi encontrado em 2005 numa biblioteca da Universidade de Leiden). O resultado do trabalho de Bose e Einstein é o conceito de gás de Bose, governado pela estatística de BoseEinstein que descreve a distribuição estatística de partículas idênticas de spin inteiro, conhecidas hoje em dia como bosões. As partículas bosónicas, que incluem o fotão e átomos como o hélio-4 podem partilhar estados quanticos umas com as outras. Einstein especulou que arrefecendo os átomos bosónicos até temperaturas muito baixas os faria colapsar (ou “condensar”) para o mais baixo estado quantico acessível, resultando numa nova forma de matéria. Esta transição ocorre abaixo de uma temperatura crítica, a qual, para um gás tri-dimensional uniforme consistindo em partículas não-interactivas e sem graus internos de liberdade aparentes, é dada por:
onde: Tc é a temperatura crítica, n a densidade da partícula, m a massa por bosão, h a constante de Planck, kB a constante de Boltzmann, e ζ a função zeta de Riemann; ζ(3 / 2) ≈ 2.6124. Descoberta Em 1938, Pyotr Kapitsa, John Allen e Don Misener descobriram que o hélio-4 se transformava num novo tipo de fluido, hoje conhecido como um superfluido, a temperaturas abaixo dos 2.17 kelvin (K) (ponto lambda). O hélio superfluido tem muitas propriedades invulgares, incluindo viscosidade zero (a propriedade de fluir sem dissipar energia) e a existência de vórtices quantizados. Rapidamente se percebeu que esta natureza superfluida era devida à condensação de Bose-Einstein dos átomos de hélio-4, que são bosões. De facto, muitas das propriedades do hélio superfluido aparecem também nos condensados de Bose-Einstein gasosos criados por Cornell, Wieman e Ketterle (ver abaixo). No entanto, o hélio-4 superfluido não é normalmente referido como um condensado de Bose-Einstein por ser líquido em vez de gasoso, o que significa que as interacções entre os átomos são relativamente fortes. A teoria original da condensação de Bose-Einstein tem de ser profundamente modificada para descrever este comportamento. O primeiro “verdadeiro” condensado de Bose-Einstein foi criado por Eric Cornell, Carl Wieman e colegas no JILA a 5 de Junho de 1995. Este feito foi conseguido arrefecendo um vapor diluído de aproximadamente 2000 átomos de rubídio-87 até atingir temperaturas abaixo dos 170 nK usando uma combinação de arrefecimento a laser (uma técnica que valeu aos seus inventores Steven Chu, Claude Cohen-Tannoudji, e William D. Phillips o Prémio Nobel da Física em 1997) e arrefecimento por evaporação magnética. Cerca de quatro meses depois, um projecto independente conduzido por Wolfgang Ketterle no MIT criou um condensado formado por sódio-23. O condensado de Ketterle era constituído por trezentas vezes mais átomos, o que lhe permitiu obter vários resultados importantes como a observação de 67
67
interferência quanto-mecânica entre dois condensados diferentes. Cornell, Wieman e Ketterle ganharam o Prémio Nobel em 2001 pelo seu trabalho. A condensação de Bose-Einstein também se aplica a quasipartículas em materiais sólidos. Um magnão num antiferromagneto possui spin 1 e portanto obedece à estatística de Bose-Einstein. A densidade de magnões é controlada por um campo magnético externo, que desempenha o papel de “potencial químico” do magnão. Esta técnica permite o acesso a uma ampla faixa de densidades de bosões, desde o limite de um gás de Bose diluído até ao de líquido de Bose fortemente interactivo. Um ordenamente magnético observado no ponto de condensação é o análogo da superfluidez. Em 1999, a condensação de Bose para magnões foi demonstrada no TICuCl3[1]. A condensação foi observada a temperaturas tão altas quanto 14 K. Uma temperatura de transição tão alta (relativamente àquela dos gases atómicos) deve-se a uma densidade maior obtenível com magnões e a uma massa menor (aproximadamente igual à massa do electrão). Características invulgares Experiências mais detalhadas da equipa do JILA, em 2000, revelaram uma até então desconhecida propriedade do condensado de Bose-Einstein. Cornell, Wieman e seus colegas de trabalho utilizaram originalmente o rubídio-87, um isótopo cujos átomos se repelem naturalmente formando um condensado mais estável. Os instrumentos da equipa do JILA já permitiam melhor controlo sobre o condensado, e assim as experiências foram feitas em átomos naturalmente atractivos de outro isótopo de rubídio, o rubídio-85 (com deflexão átomo-átomo negativa). Através de um processo denominado ressonância de Feshbach, que envolve um varrimento do campo magnético, causando colisões com inversão de spin, os investigadores do JILA diminuíram as energias características e discretas com as quais os átomos de rubídio se ligam em moléculas tornando seus átomos de Rb-85 repulsivos e criando um condensado estável. A mudança reversível de atracção para repulsão origina-se da interferência quântica entre átomos de condensado que se comportam como ondas. Quando os cientistas aumentaram ainda mais a intensidade do campo magnético, a repulsão foi repentinamente substituída pela atracção, o condensado implodiu e encolheu além do limiar de detecção, e depois explodiu, destruindo aproximadamente dois terços dos seus cerca de 10.000 átomos. Cerca de metade dos átomos no condensado parece ter desaparecido totalmente durante a experiência, não sendo observáveis nos restos arrefecidos ou na nuvem gasosa expandida. Carl Wieman explicou que, segundo a teoria atómica actual, esta característica do condensado de Bose-Einstein não poderia ser explicada pois o estado de energia de um átomo próximo do zero absoluto não deveria ser suficiente para causar uma implosão; no entanto, foram subsequentemente avançadas teorias de campo médio com vista à explicação deste fenómeno. Visto que explosões de supernovas são implosões, a explosão de um condensado de Bose-Einstein em colapso foi batizada “bosenova”. Investigação actual Comparados com os estados da matéria mais comuns, os condensados de Bose-Einstein são extremamente frágeis. A mínima interacção com o mundo exterior pode ser suficiente para aquecê-las acima do limite de condensação, formando assim um gás normal com a perda das suas propriedades interessantes. Provavelmente passará algum tempo antes de alguma aplicação prática ser desenvolvida. 68
68
Ainda assim, os condensados de Bose-Einstein têm sido úteis na investigação de variadas questões da física fundamental, e desde as descobertas iniciais dos grupos do JILA e do MIT houve uma explosão na actividade teórica e experimental. Exemplos disso incluem experiências que demonstraram a interferência entre condensados devido à dualidade onda-particula[2], o estudo da superfluidez e vórtices[3] quantizados e o abrandamento de pulsações de luz até velocidades muito pequenas usando a transparência induzida electromagneticamente[4]. Os experimentadores também construíram “grades ópticas”, onde o padrão de interferência de laseres sobrepostos fornece um potencial periódico ao condensado. Estas têm sido usadas para explorar a transição entre um superfluido e um isolador de Mott[5] e podem ser úteis no estudo na condensação de bose-Einstein em menos do que três dimensões, por exemplo no gás de Tonks-Girardeau. Já foram produzidos condensados de Bose-Einsteim compostos por uma grande variedade de isótopos [6]. Experiências semelhantes sobre arrefecimento de fermiões, em lugar de bosões a temperaturas extremamente baixas, criaram gases degenerados, onde os átomos não se congregam num único estado, devido ao Princípio de exclusão de Pauli. Para exibirem propiedades de condensado de BoseEinstein, os fermiões devem “emparelhar-se”, formando partículas compostas (por exemplo, moléculas, oupares de Cooper) que se comportam como bosões. Os primeiros condensados de Bose-Einstein moleculares foram criados em Novembro de 2003 pelas equipas de Rudolf Grimm na Universidade de Innsbruck, Deborah S. Jin na Universidade de Colorado em Boulder e Wolfgang Ketterle no MIT. Jin avançou rapidamente, criando o primeiro condensado fermiónico composto por Pares de Cooper[7]. Ver também • Superfluidez • Elemento transurânico • Supercondutividade • Condensado fermiônico Referências • S. N. Bose, Z. Phys. 26, 178 (1924) • A. Einstein, Sitz. Ber. Preuss. Akad. Wiss. (Berlin) 1, 3 (1925) • L.D. Landau, J. Phys. USSR 5, 71 (1941) • L. Landau (1941). “Theory of the Superfluidity of Helium II”. Physical Review 60: 356-358. • M.H. Anderson, J.R. Ensher, M.R. Matthews, C.E. Wieman, and E.A. Cornell (1995). “Observation of Bose-Einstein Condensation in a Dilute Atomic Vapor”. Science 269: 198-201. • K.B. Davis, M.-O. Mewes, M.R. Andrews, N.J. van Druten, D.S. Durfee, D.M. Kurn, and W. Ketterle (1995). “Bose-Einstein condensation in a gas of sodium atoms”. Physical Review Letters 75: 3969-3973.. • D. S. Jin, J. R. Ensher, M. R. Matthews, C. E. Wieman, and E. A. Cornell (1996). “Collective Excitations of a Bose-Einstein Condensate in a Dilute Gas”. Physical Review Letters 77: 420-423. • M. R. Andrews, C. G. Townsend, H.-J. Miesner, D. S. Durfee, D. M. Kurn, and W. Ketterle (1997). “Observation of interference between two Bose condensates”. Science 275: 637-641.. • M. R. Matthews, B. P. Anderson, P. C. Haljan, D. S. Hall, C. E. Wieman, and E. A. Cornell (1999). “Vortices in a Bose-Einstein Condensate”. Physical Review Letters 83: 2498-2501. 69
69
E.A. Donley, N.R. Claussen, S.L. Cornish, J.L. Roberts, E.A. Cornell, and C.E. Wieman (2001). “Dynamics of collapsing and exploding Bose-Einstein condensates”. Nature 412: 295-299. • M. Greiner, O. Mandel, T. Esslinger, T. W. Hänsch, I. Bloch (2002). “Quantum phase transition from a superfluid to a Mott insulator in a gas of ultracold atoms”. Nature 415: 39-44.. • S. Jochim, M. Bartenstein, A. Altmeyer, G. Hendl, S. Riedl, C. Chin, J. Hecker Denschlag, and R. Grimm (2003). “Bose-Einstein Condensation of Molecules”. Science 302: 2101-2103. • Markus Greiner, Cindy A. Regal and Deborah S. Jin (2003). “Emergence of a molecular Bose-Einstein condensate from a Fermi gas”. Nature 426: 537540. • M. W. Zwierlein, C. A. Stan, C. H. Schunck, S. M. F. Raupach, S. Gupta, Z. Hadzibabic, and W. *Ketterle (2003). “Observation of Bose-Einstein Condensation of Molecules”. Physical Review Letters 91: 250401. • C. A. Regal, M. Greiner, and D. S. Jin (2004). “Observation of Resonance Condensation of Fermionic Atom Pairs”. Physical Review Letters 92: 040403. • C. J. Pethick and H. Smith, Bose-Einstein Condensation in Dilute Gases, Cambridge University Press, Cambridge, 2001. • Lev P. Pitaevskii and S. Stringari, Bose-Einstein Condensation, Clarendon Press, Oxford, 2003. • Mackie M, Suominen KA, Javanainen J., “Mean-field theory of Feshbach-resonant interactions in 85Rb condensates.” Phys Rev Lett. 2002 Oct 28;89(18):180403. • Oxford Experimental BEC Group. http://wwwmatterwave.physics.ox.ac.uk/bec/bec.html Notas 1. Nikuni, T., M. Oshikawa, A. Oosawa, and H. Tanaka, (1999). “BoseEinstein Condensation of Dilute Magnons in TlCuCl3″. Physical Review Letters 84: 5868. 2. http://cua.mit.edu/ketterle_group/Projects_1997/Interference/Interf erence_BEC.htm 3. http://www.aip.org/pt/vol-53/iss-8/p19.html 4. http://www.europhysicsnews.com/full/26/article1/article1.html 5. http://qpt.physics.harvard.edu/qptsi.html 6. http://physicsweb.org/articles/world/18/6/1 7. http://physicsweb.org/articles/news/8/1/14/1 Satyendra Nath Bose Satyendra Nath Bose (Calcutá, Índia, 1 de Janeiro de 1894 – 4 de Fevereiro de 1974) foi um físico indiano, de etnia bengalesa, especializado em física matemática. Ficou conhecido sobretudo devido aos seus trabalhos sobre mecânica quântica no início da década de 1920, fundamentais para a estatística de Bose-Einstein e na teoria do condensado de Bose-Einstein. O bosão foi assim denominado em sua honra. Apesar de mais que um Prémio Nobel ter sido atribuído por pesquisa relacionada com os conceitos de bosão, estatística de Bose-Einstein – o mais recente dos quais foi o Prémio Nobel da Física de 2001, atribuído por avanços na teoria do condensado de Bose-Einstein – o próprio Bose nunca foi distinguido com o Prémio Nobel da Física. Para além da física, outros talentos de Bose eram as várias línguas que conhecia, sendo também um bom intérprete de dilruba (um instrumento musical semelhante ao violino).
•
70
70
Constante de Planck A constante de Planck, representada por h, é uma das constantes fundamentais da Física, usada para descrever o tamanho dos quanta. Tem um papel fundamental na teoria de Mecânica Quântica, aparecendo sempre que fenômenos em que a mecânica quântica se torna influente são estudados. Tem o seu nome em homenagem a Max Planck, um dos fundadores da Teoria Quântica. Seu valor é de aproximadamente: , ou, com eV como unidade de energia: ou, ainda, no sistema CGS:
,
erg · s Um dos usos dessa constante é a equação da energia do fóton, dada pela seguinte fórmula:
onde: E = energia do fóton, denominada quantum; h = constante de Planck; ν = frequência da radiação. Letra do alfabeto grego, que tem som de “ni”. Constante reduzida de Planck Em algumas equações de física, tal como a equação de Schrödinger, aparece o símbolo , que é apenas uma abreviação conveniente para , chamada de constante reduzida de Planck, ou para alguns, constante de Dirac, diferindo da constante de Planck pelo fator 2π. Consequentemente: Função zeta de Riemann
Função zeta de Riemann em um plano complexo A função zeta de Riemann é uma função complexa de variável complexa definida para Re(s) > 1 pela série . Fora do conjunto dos números complexos com parte real maior do que a unidade a função de Riemann pode ser definida por continuação analítica da expressão anterior. O resultado é uma função meromorfa com um pólo em s = 1 de resíduo 1. Esta função é de muita importância para a teoria dos números e em particular devido à Hipótese de Riemann. 71
71
Princípio de exclusão de Pauli Mecânica Quântica
Princípio da Incerteza Introducão a…Formulação matemática Introdução Mecânica clássica Antiga teoria quântica Interferência · Notação Bra-ket Hamiltoniano Conceitos fundamentais Estado quântico · Função de onda Superposição · EntrelaçamentoMedição · Incerteza Exclusão · Dualidade Incoerência · Teorema de Ehrenfest · Tunelamento Experiências Experiência de dupla fenda Experimento de Davisson-Germer Experimento de Stern-Gerlach Experiência da desigualdade de Bell Experiência de Popper Gato de Schrödinger Problema de Elitzur-Vaidman Borracha quântica Representações Representação de Schrödinger Representação de Heisenberg Representação de Dirac Mecânica matricial Integração funcional Equações Equação de Schrödinger Equação de Pauli Equação de Klein-Gordon Equação de Dirac Interpretações Copenhague · Conjunta Teoria das variáveis ocultas · Transacional Muitos mundos · Histórias consistentes Lógica quântica · Interpretação de Bohm Tópicos avançados Teoria quântica de campos Gravitação quântica Teoria de tudo Cientistas Planck · Einstein · Bohr · Sommerfeld · Kramers · Heisenberg· Born · Jordan · Pauli · Dirac · de Broglie ·Schrödinger · von Neumann · Wigner · Feynman 72
72
· Bohm · Everett · Bell O princípio de exclusão de Pauli é um princípio da mecânica quântica formulado por Wolfgang Pauli em 1925. Ele afirma que dois férmions idênticos não podem ocupar o mesmo estado quântico simultaneamente. Uma forma mais rigorosa de enunciar este princípio é dizer que a função de onda total de um sistema composto por dois fermions idênticos deve ser anti-simétrica. Para eletrons de um mesmo átomo, ele implica em que dois eletrons não podem ter os mesmos quatro números quânticos, isto é, se n, l, e m l são os mesmos, m s têm que ser diferentes, e portanto os dois eletrons têm spins opostos. O princípio de exclusão de Pauli é uma consequência matemática das restrições impostas por razões de simetria ao resultado da aplicàção do operador de rotação a duas partículas idênticas de spin semi-inteiro. Sumário O princípio de exclusão de Pauli é um dos mais importantes princípios da física, basicamente porque os tres tipos de partículas que formam a matéria ordinária – eletrons, protons e neutrons – têm que satisfazê-lo. O princípio de exclusão de Pauli é a razão fundamental para muitas das propriedades características da matéria, desde sua estabilidade até a existência das regularidades expressas pela tabela periódica dos elementos O princípio de exclusão de Pauli é uma consequência matemática das propriedades do operador momento angular, que é o gerador das operações de rotação, em mecânica quântica. A permutação de partículas num sistema de duas partículas idênticas (que é matematicamente equivalente à rotação de cada partícula de um ângulo de 180 graus) deve resultar em uma configuração descrita pela mesma função de onda da configuração original (quando as partículas têm spin inteiro) ou numa mudança de sinal desta função de onda (para partículas de spin semi-inteiro). Por isso, duas partículas de spin semi-inteiro não podem estar em um mesmo estado quântico, já que a função de onda do sistema composto pelas duas teria que ser igual a sua simétrica, e a única função que atende a esta condição é a função identicamente nula. Partículas com função de onda anti-simétrica são chamadas férmions, e obedecem ao princípio de exclusão de Pauli. Além das mais familiares já citadas – elétron, próton e nêutron – são também fermions o neutrino e o quark (que são os constituintes elementares dos protons e neutrons), além de alguns átomos, como o hélio-3. Todos os férmions possuem spin “semiinteiro”, o que quer dizer que seu momento angular intrínseco tem valor (a constante de Planck dividida por 2π) multiplicada por um semiinteiro (1/2, 3/2, 5/2, etc.). Na teoria da mecânica quântica, fermions são descritos por “estados anti-simétricos”, que são explicados em mais detalhes no artigo sobre partículas idênticas. Um sistema formado por partículas idênticas com spin inteiro é descrito por uma função de onda simétrica; estas partículas são chamadas bósons. Ao contrário dos fermions, elas podem partilhar um mesmo estado quântico. São exemplos de bósons o fóton e os bósons W e Z. História No início do século XX tornou-se evidente que átomos e moléculas com elétrons emparelhados ou um número par de eletrons são mais estáveis que aqueles com um número ímpar de eletrons. Num artigo famoso The Atom 73
73
and the Molecule publicado em 1916 por Gilbert N. Lewis, por exemplo, a regra tres dos seis postulados propostos pelo autor para explicar o comportamento químico das substâncias estabelece que um átomo tende a ter um número par de eletrons em sua camada de valência, e\sendo esse número, de preferência, oito, que estão normalmente dispostos simetricamente nos oito vértices de um cubo (ver: átomo cúbico). Em 1922 Niels Bohr mostrou que a tabela periódica pode ser explicada pela hipótese de que certos números de eletrons (por exemplo, 2, 8 e 18) correspondem a “camadas fechadas” estáveis. Pauli procurou uma explicação para estes números, que eram a esta altura apenas empíricos. Ao mesmo tempo, ele estava tentando explicar certos resultados experimentais envolvendo o Efeito Zeeman em espectroscopia atômica e no ferromagnetismo. Ele encontrou uma pista essencial em um artigo de 1924 escrito por E.C.Stoner, que estabelecia que, para um dado valor do número quântico principal (n), o número de níveis de energia de um eletron no espectro de um átomo de metal alcalino posto sob a ação de um campo magnético externo, situação na qual todos os níveis de energia degenerados são separados, é igual ao número de elétrons na camada fechada de um gas nobre correspondente ao mesmo valor de n. Este fato levou Pauli a perceber que os números aparentemente complicados de eletrons em camadas fechadas podem ser reduzidos a uma regra muito simples, a de que só pode haver um eletron em cada estado atômico, definido por um conjunto de quatro números quânticos. Para esta finalidade ele introduziu um novo número quântico com apenas dois valores possíveis, identificado por Samuel Goudsmit e George Uhlenbeck como o spin do eletron. Conexão com a simetria do estado quântico O princípio de exclusão de Pauli pode ser deduzido a partir da hipótese de que um sistema de partículas só pode ocupar estados quânticos antisimétricos. De acordo com o teorema spin-estatística, sistemas de partículas idênticas de spin inteiro ocupam estados simétricos, enquanto sistemas de partículas de spin semi-inteiro ocupam estados anti-simétricos; além disso, apenas valores de spin inteiros ou semi-inteiros são permitidos pelos princípio da mecânica quântica. Como discutido no artigo sobre partículas idênticas, um estado antisimétrico no qual uma das partículas está no estado (nota) enquanto a outra está no estado é
No entanto, se
e
são exatamente o mesmo estado, a expressão acima é identicamente nula:
Isto não representa um estado quântico válido, porque vetores de estado que representem estados quânticos têm obrigatoriamente que ser normalizáveis, isto é devem ter norma finita. Em outras palavras, nunca poderemos encontrar as partículas que formam o sistema ocupando um mesmo estado quântico. Consequências O princípio de exclusão de Pauli ajuda a explicar uma grande variedade de fenômenos físicos. Um destes fenômenos é a “rigidez” ou “resiliência” da matéria ordinária (fermions): o princípio proibe que fermions idêntiso sejam 74
74
espremidos uns contra os outros (cf. módulo de Young e módulo de rigidez de sólidos), e por isso nossas observações quotidianas do mundo macroscópico mostram que objetos materiais colidem, ao invés de atravessar uns aos outros, e de que somos capazes de nos apoiar de pé sobre o solo sem nele afundar. Outra consequência deste princípio é a elaborada estrutura das camadas eletrônicas dos átomos e a maneira como átomos partilham eletrons na formação da variedade de moléculas ou substância químicas e a gama de suas combinações (química). Um átomo eletricamente neutro contém eletrons ligados em número igual ao de protons de seu núcleo. Como os eletrons são fermions, o princípio de exclusão de Pauli os proibe de ocupar o mesmo estado quântico, e por isso os eletrons tem que se “empilhar” em estados quânticos diversos no interior de um átomo. Considere, por exemplo, um átomo de hélio neutro, que tem dois eletrons ligados. Ambos podem ocupar o estado de mais baixa energia (1s) mas para isso têm que ter spins opostos. Isto não viola o princípio de Pauli porque o spin é parte da caracterização do estado quântico do eletron, e por isso os dois eletrons ocupam estados quânticos diferentes. No entanto, o spin só pode ter dois valores diferentes (ou autovalores). Num átomo de lítio, que contém tres eletrons ligados, o terceiro eletron não pode ocupar um estado 1s, já que resultaria com o spin, e portanto o estado quântico, igual a algum dos dois primeiros, e tem que ocupar um dos estados 2s de energia mais alta. De forma análoga, os elementos sucessivos vão requerer que os eletrons adicionais vão ocupando estados de energia cada vez mais alta, a cada vez que um número par de eletrons esgota os estados disponíveis no estado anterior. As propriedades químicas de uma substância depende fortemente do número de eletrons em sua camada mais externa, o que dá origem à tabela periódica dos elementos. Em condutores e semi-condutores, elétrons livres têm que partilhar o espaço total disponível no interior do material – e por isso seus níveis de energia se empilham criando uma estrutura de bandas a partir de cada nível de energia atômico. Em bons condutores (metais) os eletrons estão tão fortemente degenerados que eles acabam por não contribuir de forma significativa para a capacidade térmica do metal. Muitas propriedades mecânicas, elétricas, magnéticas, ópticas e químicas dos sólidos são consequências diretas da repulsão de Pauli entre eletrons livres ou semi-livres. A Astronomia mostra outra demonstração espetacular deste efeito, na forma de estrelas anãs brancas e estrelas de nêutron. Em ambos os tipos de objetos, a estrutura atômica usual da matéria ordinária é quebrada por forças gravitacionais enormes, fazendo com que a estabilidade seja suportada apenas pela “pressão de degenerescência”. Esta forma exótica de matéria é chamada de matéria degenerada. Nas anãs brancas, os átomos são impedidos de colapsar uns sobre os outros pela pressão de degenerescência de seus eletrons. Nas estrelas de neutrons, que exibem forças gravitacionais ainda mais intensas, os eletrons e os protons colapsam formando neutrons, que são capazes de produzir pressões de degenerescência maiores. Os neutrons são os objetos mais “rígidos” conhecidos – seu módulo de Young, ou mais apropriadamente módulo de rigidez é 20 ordens de grandeza maior que o do diamente. De acordo com a relatividade geral, as forças gravitacionais no centro de um buraco negro se tornam tão intensas que toda a matéria se quebra em seus constituintes fundamentais, que são supostamente puntiformes e sem estrutura interna. Todas estas partículas poderiam se empilhar em um ponto 75
75
zero dimensional porque as forças gravitacionais seriam maiores que a pressão de degenerescência. Isto parece violar o princípio de exclusão de Pauli, mas já que o interior de um buraco negro está além do horizonte de eventos, ele é inacessível a verificação experimental e esta hipótese permanece sem comprovação possível. Ver também • Forças de troca • Interação de troca • Simetria de troca • regra de Hund Referências • Dill, Dan (2006). “Chapter 3.5, Many-electron atoms: Fermi holes and Fermi heaps”, Notes on General Chemistry (2nd ed.). W. H. Freeman. ISBN 1-4292-0068-5. • Griffiths, David J. (2004). Introduction to Quantum Mechanics (2nd ed.). Prentice Hall. ISBN 0-13-805326-X. • Liboff, Richard L. (2002). Introductory Quantum Mechanics. AddisonWesley. ISBN 0-8053-8714-5. • Massimi, Michela (2005). Pauli’s Exclusion Principle. Cambridge University Press. ISBN 0-521-83911-4. • Tipler, Paul; Llewellyn, Ralph (2002). Modern Physics (4th ed.). W. H. Freeman. ISBN 0-7167-4345-0. Condensado fermiônico Esta nova descoberta complementa a descoberta do condensado de BoseEinstein, que rendeu o Prêmio Nobel de Física de 2001 aos Drs. Eric Cornell e Carl Wieman. O condensado de Bose-Einstein é uma coleção de milhares de partículas ultra-frias ocupando um único estado quântico, ou seja, todos os átomos se comportam como um único e gigantesco átomo. Os condensados de Bose-Einstein são feitos de bósons, uma classe formada por partículas que são essencialmente gregárias: ao invés de se moverem sozinhas, elas adotam o movimento de suas vizinhas. Ao contrário dos bósons, os férmions – a outra metade da família de partículas e blocos básicos com os quais a matéria é construída – são essencialmente solitários. Por definição, nenhum férmion poderá estar exatamente no mesmo estado quântico que outro férmion. Conseqüentemente, para um físico, mesmo o termo “condensado fermiônico” é um paradoxo. Por décadas, os físicos vêm propondo que a supercondutividade (que envolve férmions) e o condensado de Bose-Einstein estão intimamente relacionados. Eles propõem que o condensado de Bose-Einstein e a supercondutividade seriam dois extremos de um mesmo comportamento superfluídico, um estado incomum no qual a matéria não apresenta resistência ao fluxo. O hélio líquido superfluídico, por exemplo, quando colocado no centro de um compartimento aberto irá espontaneamente fluir para os dois lados do compartimento. A temperatura na qual os metais e ligas se tornam supercondutores depende da intensidade da “interação emparelhada” entre seus elétrons. A temperatura mais alta que se conhece na qual ainda ocorre a supercondutividade é de -135º C. Na experiência que os cientistas agora fizeram, um gás com 500.000 átomos de potássio foi resfriado até 50 bilionésimos de grau acima do zero absoluto e então submetido a um campo magnético. Esse campo magnético fez com 76
76
que os férmions se juntassem em pares, de forma semelhante aos pares de elétrons que produzem a supercondutividade, o fenômeno no qual a eletricidade flui sem resistência. A equipe da Dra. Jin detectou o emparelhamento e verificou a formação do condensado fermiônico pela primeira vez no dia 16 de Dezembro de 2003 Superfluido de Polaritons O Superfluido de polaritons ou sétimo estado da matéria, foi descoberto por físicos da Universidade de Pittsburgh e dos Laboratórios Bell nos Estados Unidos. Superfluido de polariton Este superfluido é capaz de levar energia de um lugar para outro utilizandose de um feixe de luz, também pode gerar raios laser potentes com baixo consumo e fazer transporte de bits em meio sólido.[1] Big Bang
Imagem do nascimento de estrelas a 12 bilhões de anos-luz da Terra Em cosmologia, o Big Bang é a teoria científica que o universo emergiu de um estado extremamente denso e quente há cerca de 13,7 bilhões de anos. A teoria baseia-se em diversas observações que indicam que o universo está em expansão de acordo com um modelo Friedmann-Robertson-Walker baseado na teoria da Relatividade Geral, dentre as quais a mais tradicional e importante é relação entre os redshifts e distâncias de objetos longínquos, conhecida como Lei de Hubble, e na aplicação do princípio cosmológico. Em um sentido mais estrito, o termo “Big Bang” designa a fase densa e quente pela qual passou o universo. Essa fase marcante de início da expansão comparada a uma explosão foi assim chamada pela primeira vez, de maneira desdenhosa, pelo físico inglês Fred Hoyle no programa “The Nature of Things” da rádio BBC. Hoyle, proponente do modelo (hoje abandonado) do universo estacionário, não descrevia o Big Bang mas o ridicularizava. Apesar de sua origem, a expressão“Big Bang” acabou perdendo sua conotação pejorativa e irônica para tornar-se o nome científico da época densa e quente pela qual passou o universo. História Em 1927, o padre e cosmólogo belga Georges Lemaître (1894-1966) derivou independentemente as equações de Friedmann a partir das equações de campo de Einstein e propôs que os desvios espectrais observados em nebulosas se deviam a expansão do universo, que por sua vez seria o resultado da “explosão” de um “átomo primeval”. Em 1929, Edwin Hubble forneceu base observacional para a teoria de Lemaitre ao medir um desvio para o vermelho no espectro (”redshift”) de galáxias distantes e verificar que este era proporcional às suas distâncias[1], 77
77
o que ficou conhecido como Lei de Hubble-Homason. Controvérsias A teoria do Big Bang não é um acontecimento igual a uma explosão da forma que conhecemos, embora o universo observável com a ajuda das lentes dos modernos telescópios espaciais ainda descreva um resultado de uma explosão (uma fuga cósmica) há quem levante dúvidas se realmente houve algo que explodiu ou se foi uma explosão a causa dessa dilatação observada. Alguns afirmam que o termo “Big Bang” é utilizado como uma aproximação para designar aquilo que também se costuma chamar de “Modelo Cosmológico Padrão”. Este consiste numa aplicação da Relatividade Geral ao Universo como um todo. Isso é feito, em um primeiro momento, assumindose que o universo é homogêneo e isotrópico em larga escala. Em um segundo momento se introduz flutuações de densidade no modelo e estuda-se a evolução destas até a formação de galáxias. O modelo cosmológico padrão é extremamente bem testado experimentalmente e possibilitou a previsão da radiação cósmica de fundo e da razão entre as abundâncias de hidrogênio e hélio. Os dados observacionais atualmente são bons o suficiente para saber como é a geometria do universo. Exemplificando: Se for imaginado um triângulo, com lados maiores do que milhares de vezes o raio de uma Galáxia observável qualquer, se poderá saber da validade do teorema de Pitágoras pela observação direta. Porém, não se tem idéia de qual é a topologia do universo em larga escala atualmente. Ou, é sabido se ele é infinito ou finito no espaço. O termo Big Bang também designa o instante inicial (singular) no qual o fator de escala (que caracteriza como crescem as distâncias com a expansão) tende a 0. Alguns afirmam que as equações da Relatividade Geral falham no instante 0 (pois,são singulares). Eventos com t< t_{big bang} simplesmente não estão definidos. Portanto acreditam alguns que, segundo Relatividade Geral não faz sentido se referir a eventos antes do Big Bang. É sabido que as condições físicas do universo muito jovem estão fora do domínio de validade da Relatividade Geral devida densidade ambiental e não se espera que as respostas sejam corretas na situação de densidade infinita e tempo zero. Atualmente a Teoria do Big Bang é a mais aceita hoje pelos cientistas. Porém há pessoas que afirmam que nela existem contradições que não podem explicar alguns pontos. • Sobre os tópicos acima: 1. Zeilik, Michael. Astronomy: The Envolving Universe. New York: Harper and Row, 1979. A grande explosão térmica
O Wilkinson Microwave Anisotropy Probe (WMAP) é um sistema de sensoreamento térmico da energia remanescente de fundo, ou ruído térmico 78
78
de fundo do Universo conhecido. Esta imagem é um mapeamento em microondas do Universo conhecido cuja energia que chega ao sistema está reverberando desde 379000 anos depois do Big-bang, há 13 bilhões de anos (presume-se). A temperatura está dividida entre nuances que vêm do mais frio ao mais morno, do azul ao vermelho respectivamente, sendo o mais frio, a matéria ou o “éter”, onde a energia térmica de fundo está mais fria, demonstrando regiões mais antigas. A comparação, feita pelo autor da imagem, é como se tivéssemos tirado uma fotografia de uma pessoa de oitenta anos, mas, no dia de seu nascimento. O Big Bang, ou grande explosão, também conhecido como modelo da grande explosão térmica, parte do princípio de Friedmann, onde, enquanto o Universo se expande, a radiação contida e a matéria se esfriam. Para entender a teoria do Big Bang, deve-se em primeiro lugar entender a expansão do Universo, de um ponto A para um ponto B, assim, podemos, a partir deste momento retroceder no espaço, portanto no tempo, até o Big Bang. • Sobre este tópico: 1. Zeilik, Michael. Astronomy: The Envolving Universe. New York: Harper and Row, 1979. Temperatura e expansão Como a temperatura é a medida da energia média das partículas, e esta é proporcional à matéria do universo, de uma forma simplificada, ao dobrar o tamanho do universo, sua temperatura média cairá pela metade. Isto é, ao reduzir o tecido universal, portanto aumentando sua densidade, aquela dobrará; podemos ter um ponto de partida de temperatura máxima, e massa concentrada numa singularidade, que nos dará o tempo aproximado do início da aceleração da expansão do tecido universal, e sua gradual e constante desaceleração térmica. Para entender este processo, há que se usar um exemplo prático, a visão deve ser quadridimensional. Como os sentidos humanos somente percebem o espaço tridimensional (Coordenadas x,y,z), ilustrando a partir de um modelo em três dimensões fica mais compreensível, pois o tempo estaria numa coordenada “d”, o que dificulta ao leitor comum a compreensão da evolução do tempo e espaço simultaneamente.
As estrelas ou corpos celestes marcados com círculos são os mais distantes, logo os mais antigos já observados pelos humanos. A coloração avermelhada é devida ao efeito Doppler. Quando um corpo se afasta deu um suposto centro, mais a sua imagem desvia para o vermelho, e quando se aproxima, ao contrário o desvio é para o azul. Como o afastamento é quase para o vermelho de tonalidade mais escura, isto indica que se dá em altíssimas velocidades, (suas distâncias estão beirando os treze bilhões de anos-luz), algo bastante próximo do Big-bang. Estas formações indicam um Universo infantil, onde as grandes galáxias (presumivelmente) ainda não se haviam 79
79
formado. Imaginemos uma bolha de sabão, suponhamos que esta bolha seja preenchida por um fluido, deixemos o fluido de lado e concentremo-nos na superfície propriamente dita da bolha. Esta no início é um ponto de água com sabão, por algum motivo desconhecido, que não importa, começa a aumentar através da inserção de um gás, tomando a forma esférica. Observemos que, na medida em que o ar penetra preenchendo o interior da bolha de sabão (a exemplo de uma bexiga), começa a haver a expansão volumétrica do objeto. Nos concentremos no diâmetro da bolha e na espessura da parede. Verificaremos que, à medida em que seu diâmetro aumenta, a espessura diminui, ficando mais e mais tênue, pois a matéria está se desconcentrando e se espalhando em todas as direções. De uma maneira simplificada, podemos afirmar que o aumento do diâmetro da bolha é o universo em expansão, o aumento da área da superfície é a diminuição da densidade material, a redução da espessura da parede é a constante térmica que diminui à medida em que o universo se expande. • Sobre os tópicos acima: 1. Gamow, George. One, Two, Three… Infinity. New York: Bantam Books, 1971. 1. Zeilik, Michael. Astronomy: The Envolving Universe. New York: Harper and Row, 1979. Modelo quadridimensional No modelo quadridimensional, não existe a fronteira, ou a parede; o conceito é volumétrico no domínio tempo, portanto, só visualizável através de cálculo. Porém pode-se tentar mostrar algo sobre a quarta dimensão, basta um pouco de imaginação e uma boa dose de visualização tridimensional.
Embora não se deva imaginar a expansão Universo como uma bolha crescendo vista do lado de fora, (O lado de fora não existe, a matéria e o tempo tiveram seu início a partir do ponto zero), esta é uma das poucas maneiras de se tentar vislumbrar um espaço quadridimensional do Universo em expansão (Não se deve também assumir uma visão antropocêntrica). Ao centro, está representada em amarelo a Via Láctea, os círculos coloridos excêntricos são todos os corpos celestes se afastando, azul para frente e vermelho para trás devido ao efeito Doppler, as esferas sem cor representam a posição real dos astros Para que entendamos um objeto tridimensional em visualização bidimensional, temos que desenhá-lo de forma que enxerguemos uma parte de cada vez. Imagine o mesmo exemplo da bolha, agora vista em duas dimensões, temos largura e profundidade, mas não temos noção da dimensão altura. Para que possamos representá-la e entendê-la, precisaremos fazer diversos desenhos no domínio da Altura, iniciando na parte mais baixa e assim por diante, representando círculos que, se vistos bidimensionalmente sobrepostos, 80
80
apresentarão um círculo dentro do outro, (semelhantes aos mapas topográficos}. Porém, devidas limitações no desenho, a primeira impressão que teremos (se não soubermos que é uma esfera) não será de uma esfera, e sim de meia esfera. Para a representação tridimensional, os eixos (x,y,z), e o eixo tempo (t) inserido, (isto é, em quatro dimensões, porém representada em três), a analogia é semelhante, poderemos vislumbrar a meia esfera de acordo com nossas observações e medições, a outra metade somente poderemos teorizar. Podemos inclusive usar a mesma esfera, porém , em vez de olharmos um círculo dentro de outro, representando a imagem topográfica, imaginemos uma esfera dentro de outra, maior e maior, como se o fotografássemos em momentos em que estivesse inflando , assim temos uma visão quadridimensional num universo tridimensional, onde a superfície da esfera, aumentando a cada passar de tempo, seria a expansão quadridimensional do Universo. Esta visão não deve ser encarada como antropocêntrica, pois de qualquer ponto do espaço vemos o Universo se expandindo em todas as direções, ou seja, sempre nos parecerá estarmos no centro, não importa de qual ponto estejamos observando. Portanto, devemos imaginar, não estando no centro da esfera, mas num ponto onde absolutamente tudo se afasta em todas as direções, embora os nossos sentidos nos digam estarmos no centro. • Sobre este tópico: 1. Gamow, George. One, Two, Three… Infinity. New York: Bantam Books, 1971. O início da teoria da grande explosão Conforme descrito no início do artigo, em 1927, o padre e cosmólogo belga Georges Lemaître (1894-1966), derivou independentemente as equações de Friedmann a partir das equações de Einstein e propôs que os desvios espectrais observados em nebulosas se deviam a expansão do universo, que por sua vez seria o resultado da “explosão” de um “átomo primeval”. A teoria do Big Bang, grande explosão, tornou-se a explicação da expansão do universo desde suas origens, no tempo, (arbitrando-se o conceito de que o tempo teve uma origem). Segundo essa teoria, o universo surgiu há pelo menos 13,7 bilhões de anos, a partir de um estado inicial de temperatura e densidade altamente elevadas. Embora essa explicação tenha sido proposta na década de 1920, sua versão atual é da década de 1940 e deve-se sobretudo ao grupo de George Gamow que deduziu que o Universo teria surgido após uma grande explosão resultante da compressão de energia. • Sobre este tópico: 1. Gamow, George. One, Two, Three… Infinity. New York: Bantam Books, 1971. Edwin Hubble Voltando no tempo…, no início do século XX, a Astronomia desviou sua atenção das estrelas e dos planetas. Nos últimos oitenta anos a Cosmologia se voltou para as galáxias e espaço exterior. Um dos muitos responsáveis por esta mudança de perspectiva foi Edwin Hubble, do Observatório Monte Wilson. Em 1924, foram publicadas fotografias provando que as manchas de luz difusas e distantes, chamadas de Nebulosas, (este nome devido à crença de que se tratava de massas informes de gás e poeira), na verdade eram gigantescos sistemas de aglomerados de estrelas, semelhantes à Via Láctea. Os movimentos galáticos e a Lei de Hubble-Homason 81
81
Hubble dedicou-se ao estudo das galáxias, medindo suas distâncias, localizando sua distribuição no espaço e analisando seus movimentos. Com o passar do tempo, notou-se que aqueles movimentos não eram ao acaso, como o deslocamento das moléculas de um gás na termodinâmica, porém obedecem a uma trajetória centrífuga. Cada galáxia distante afasta-se da Via Láctea numa velocidade proporcional à distância em que se encontra desta, quanto maior a distância, maior a velocidade. Hubble e seu colega Milton L. Homason pesquisaram para descobrir a proporção dos movimentos e sua aceleração, deduzindo uma equação conhecida como Lei de Hubble-Homason em que: Vm=16r, onde Vm é a velocidade de afastamento da galáxia, dada em quilômetros por segundo, e r expressa a distância entre a Terra e a galáxia em estudo, dada em unidades de milhões de anos luz, e, segundo esta, se uma galáxia estiver situada a cem milhões de anos luz, esta se afasta a 1600 quilômetros por segundo. Aparentemente, o Universo está se expandindo em torno de nós, novamente é afirmado que isto não deve ser encarado como antropocentrismo, pois todos os pontos do universo estão se afastando relativamente uns aos outros simultaneamente, conforme já explicado. A observação, feita em 1929 por Hubble, significa que no início do tempo-espaço a matéria estaria de tal forma compactada que os objetos estariam muito mais próximos uns dos outros. Mais tarde, observou-se em simulações que de fato exista aparentemente a confirmação de que entre dez a vinte bilhões de anos atrás toda a matéria estava exatamente no mesmo lugar, portanto, a densidade do Universo seria infinita. As observações em modelos e as conjecturas dos cientistas apontam para a direção em que o Universo foi infinitesimalmente minúsculo, e infinitamente denso. Nessas condições, as leis convencionais da física não podem ser aplicadas, pois quando se tem a dimensão nula e a massa infinita, qualquer evento antes desta singularidade não pode afetar o tempo atual, pois ao iniciar o universo, expandindo a massa e ao mesmo tempo se desenvolvendo em todas as direções, indica que o tempo também esteve nesta singularidade, logo o tempo era nulo. • Sobre este tópico: 1. Gamow, George. One, Two, Three… Infinity. New York: Bantam Books, 1971. 1. Zeilik, Michael. Astronomy: The Envolving Universe. New York: Harper and Row, 1979. Gamow, a explosão e a teoria da expansão Segundo Gamow, na expansão do universo a partir de seu estado inicial de alta compressão, numa explosão repentina, o resultado foi uma violentíssima redução de densidade e temperatura; após este ímpeto inicial, a matéria passou a predominar sobre a antimatéria. Ainda segundo Gamow toda a matéria existente hoje no universo encontrava-se concentrada no chamado “átomo inicial”, ou “ovo cósmico”, e que uma incalculável quantidade de energia, depois de intensamente comprimida, repentinamente explodiu, formando ao avançar do tempo gases, estrelas e planetas. A temperatura média do universo diminui à medida em se expande. Alguns autores afirmam que a partir de um determinado momento, quando universo for totalmente resfriado, ele vai começar a diminuir de tamanho novamente, voltando a sua primeira forma, do átomo inicial. • Sobre este tópico: 82
82
1.
Gamow, George. One, Two, Three… Infinity. New York: Bantam Books, 1971. 2. Berendzen, Richard, Hart, Richard and Seeley, Daniel. Man Discovers the Galaxies. New York: Science History Publications, 1977. 3. Lucretius. The Nature of the Universe. New York: Penguin, 1951. O paradoxo do tempo Se o tempo iniciou numa grande explosão, juntamente com o espaço e com a matéria-energia no Universo mutável, num Universo imutável um começo no tempo é necessário se impor para que se possa ter uma visão dinâmica do processo da criação inicial (nada a ver com a Criação Teológica), esta se deu tanto numa maneira de se ver o início da dualidade tempo matéria, quanto em outra. Partindo-se da premissa de que o Universo é mutável no domínio do tempo, pois de outra forma não se consegue observar a expansão deste, deve haver razões físicas para que o Universo realmente tivesse um começo, pois não se consegue imaginar a existência de um universo antes do Big Bang, e se não existia nada antes, o que fez o desequilíbrio da singularidade que acabou criando um Universo caótico e em mutação? Voltando-se no tempo e espaço, chega-se que desde o começo, o Universo se expande de acordo com leis bastante regulares. É portanto razoável que estas se mantenham durante e antes da grande explosão, logo na singularidade está a chave para se descobrir como houve o momento de aceleração inicial nos eventos iniciais do Universo atual. Uma suposição é de que em nosso Universo atual predomina a dualidade matéria-energia, lógico se torna que provavelmente antes do evento que gerou o impulso inicial, houve um avanço antitemporal, da antimatéria, com acúmulo de anti-energia, que redundou no atual trinômio tempo-espaço-matéria. Existe uma outra teoria, entre muitas que, antes do big bang, houve outro universo, idêntico ao atual onde as galáxias ao invés de se afastarem, se aproximariam (O dia em que o universo quicou – Gravitação quântica em laços). • Sobre este tópico: 1. Barnet, Lincoln. The Universe and Dr. Einstein. New York: Sloane, 1956. 2. Gamow, George. Mr. Tompkins in Paperback. Cambridge: Cambridge University Press, 1965. 3. Mermin, David. Space and Time and Relativity. New York: McGraw-Hill, 1968. 4. Weinberg, Steven. The Firts Three Minutes: A Modern View of The Origin of The Universe. New York: Basic Books, 1977. A formação dos primeiros átomos
Radiação de Fundo resultante do Big-Bang 83
83
A nucleosíntese foi a formação inicial dos primeiros núcleos atômicos elementares (Hidrogênio, Hélio). Esta ocorrreu porque a atuação da Força Nuclear Forte acabou atraindo prótons e nêutrons que se comprimiram em núcleos primitivos. Sabe-se que esta força nuclear forte só é eficaz em distâncias da ordem de 10-13 cm. Presume-se que a nucleosíntese ocorreu 100 segundos após o impulso inicial, e que esta foi seguida de um processo de repentino resfriamento devida irradiação, que segundo alguns, ocasionou o surgimento dos núcleos, segundo outros, o surgimento dos núcleos ocasionou o resfriamento. Independente do ponto de vista, é sabido que houve o resfriamento por irradiação. Em função daquele evento (nucleosíntese), a matéria propriamente dita passou a dominar o Universo primitivo, pois, é sabido que a densidade de energia em forma de matéria passou, a partir daquele momento, a ser maior do que a densidade em forma de radiação. Isto se deu em torno de 10.000 anos após o impulso inicial. Com a queda de temperatura universal, os núcleos atômicos de Hidrogênio, Hélio e Lítio recém formados se ligaram aos elétrons formando assim átomos de Hidrogênio, Hélio e Lítio respectivamente. Presume-se que isto se deu em torno de 300.000 anos após o chamado marco zero. A temperatura universal estava então em torno de 3.000 K. O processo, ou a era da formação atômica, segundo uma parcela de pesquisadores, durou em torno de um milhão de anos aproximadamente. À medida que se expandia a matéria, a radiação que permeava o meio se expandia simultaneamente pelo espaço, porém em velocidade muito maior, deixando a primeira para trás. Daquela energia irradiada sobraram alguns resquícios em forma de microondas, que foram detectadas em 1965 por Arno A. Penzias e Robert W. Wilson, tendo sido chamada de radiação de fundo. O som característico da radiação propagada é semelhante ao ruído térmico, ou seja, um silvo branco (Ruído branco contendo todas as freqüências), contínuo, linear igual ao ruído que se ouve num receptor de televisão, ou de receptores de freqüência modulada, quando estão fora de sintonia. O som característico é um “sssssss” constante, ou um ruído de cachoeira. O satélite COBE, em 1992, descobriu flutuações na radiação de fundo recebida, aquelas explicariam a formação das galáxias logo após a Grande Explosão. Um exemplo ilustrativo da expansão repentina a que se seguiu após o evento inicial, seria que a matéria comprimida num volume hipotético do tamanho de uma cabeça de alfinete, em torno de 1 mm de diâmetro, se expandiria para cerca de 2 mil vezes o tamanho do sol da Terra. Antes de completar um segundo de idade o Universo estava na era da formação dos prótons e nêutrons. Os nêutrons tendem a decair expontaneamente em prótons, porém prótons recém formados pelo decaimento não decaem. Devidos experimentos em aceleradores de partículas, é sabido que o Universo naquela era, (1 segundo aproximadamente), ficou com 7 prótons para cada nêutron, este, era uma massa turbilhonante das partículas mais elementares. Era também mais denso do que o ferro e tão opaco que nenhuma luz poderia penetrá-lo. Outro dado apontado pelas pesquisas realizadas, leva à cifra de aproximadamente 500 mil anos, em média, do resfriamento universal acelerado. Supõe-se que as partículas elementares ao se fundirem, (formando hidrogênio e hélio) formaram imensos bolsões de gás que poderiam ter sido causados por pequenas alterações da gravidade, resultando assim, entre 1 e 2 bilhões de anos após o Big Bang, em 84
84
protogaláxias que teriam originado estrelas. A evolução estelar aponta para as gigantes vermelhas e supernovas, que durante a sua vida, geraram o Carbono e demais átomos. Todos os elementos, presume-se, seriam espalhados no meio interestelar através das supernovas, uma data limítrofe para estes eventos, seria algo em torno de 1,1 bilhão de anos após a explosão inicial. As supernovas semearam nas galáxias a matéria-prima para posteriores nascimentos de estrelas. • Veja: 1. animações dos eventos descritos acima. 2. Weinberg, Steven. The Firts Three Minutes: A Modern View of The Origin of The Universe. New York: Basic Books, 1977. 3. O dia em que o universo quicou – UNESP 4. Supernovas-Boletim brasileiro de Astronomia Os dois pré-supostos É crença corrente entre os cosmólogos que o Big Bang baseia-se em dois présupostos; o primeiro, é a Teoria da Relatividade Geral de Albert Einstein, que explica a interação gravitacional da matéria; o segundo pressuposto é o conhecido princípio cosmológico, onde a visão do universo independe da direção de onde, e para onde, se olhe, ou da localização do observador: analisando o espaço tridimensional, pressupomos a expansão de um determinado ponto isolado, porém, tomando-se por base um universo quadridimensional, podemos chegar à conclusão de que o Big Bang, ou Grande explosão, não se deu numa determinada região puntual do espaço vazio, mas, em todo ele ao mesmo tempo. A unificação das origens Da teoria da gravidade de Newton sabe-se que a força gravitacional entre dois corpos depende somente de suas massas e não da matéria de que são constituídos. A teoria geral da relatividade descreve a estrutura do Universo e a força da gravidade, isto é, o macro-universo ou as interações do trinômio energia-tempo-matéria, onde as massas são mais importantes* que as cargas; a mecânica quântica descreve o micro-universo e as interações também do trinômio energia-tempo-matéria, onde as massas são menos **importantes que as cargas, embora tratem da mesma natureza, diferenciando-se o tamanho é claro, as interações em muitos aspectos são idênticas às teorias, porém estas são incompatíveis e não se completam. Portanto, falta a chave da unificação teórica de ambas, pois não podem estar ao mesmo tempo corretas e erradas. Portanto, podemos nos deparar com n teorias a respeito do início do Universo, mas apenas uma nos dá pista de que houve um começo, ou seja, a teoria do Big-Bang (por enquanto), é a que une as duas teorias de macro e micro-Universo. •
A questão da “**importância” é discutível. Acredita-se que o termo mais correto seria ênfase devido às comparações entre os tamanhos e das interações no cosmo. o
o
Sobre este tópico: Weinberg, Steven. The Firts Three Minutes: A Modern View of The Origin of The Universe. New York: Basic Books, 1977. •
1.
85
85
As massas, as ondas e as leis da física na singularidade
Uma dúvida que fica à mente dos astrofísicos é quanto à natureza da matéria e as distorções que ocorrem nas leis que a regem quando esta começa a ser comprimida ao cair em objetos massivos. Os buracos negros são por natureza um exercício de abstração intelectual. Não há como saber se as leis da natureza se aplicam em condições tão extremas de compressão gravitacional, distorção de tempo e espaço. Na prática é impossível criar as condições dos efeitos gravitacionais de um objeto tão massivo na Terra, porém, já existem métodos onde é possível a simulação dos efeitos de forma virtual, ou seja, em sistemas de ensaio operados por poderosos supercomputadores. Mesmo com simulações e construção de objetos massivos em ambiente virtual, ficam lacunas quanto à possibilidade de compressão de massa cujo volume aplicado é nulo e a densidade infinita, à isto se dá o nome de singularidade de Schwarzschild. Einstein acreditava que o aumento da intensidade da gravidade cria uma distorção que retarda a percepção temporal. Em outras palavras, objetos muito massivos como buracos negros ou estrelas de nêutrons retardam o tempo devido aos efeitos gravitacionais. Se fosse possível observar a queda de objetos num buraco negro, qual seria o panorama observado? Presume-se que veríamos o objeto mover-se cada vez mais devagar, ao contrário do que poderia naturalmente supor, pois à medida que este se aproxima da singularidade a distorção temporal seria de tal forma que não o veríamos parar. Einstein diz que há o desvio para o vermelho e este também é dependente da intensidade gravitacional. Se analisarmos sob o ponto de vista corpuscular, imaginando-se que a luz é um pacote quântico com massa e que esta partícula ocupa um determinado lugar no espaço, e esta está acelerada energeticamente, isto é vibrando. A oscilação gera o comprimento de onda de luz, que se propaga como frente de onda em espaço livre. Longe de campo gravitacional intenso, a freqüência emitida tende para o azul. À medida em que o campo gravitacional começa a agir sobre a partícula, esta começará a se movimentar, ou vibrar com menos intensidade, logo desviará para o vermelho, pois a oscilação foi retardada. Neste ponto, a análise funde a dualidade matéria-energia. Sabemos que não é possível analisar a partícula como matéria e energia ao mesmo tempo: ou se enxerga sob o ponto de vista vibratório ou corpuscular, porém próximo à singularidade temos que fazer este exercício de raciocínio, pois a atração gravitacional é tão forte que pode fazer parar o movimento oscilatório, e ao mesmo tempo atrair o objeto para si. Portanto, qualquer que seja o ângulo de observação, a gravidade prende a radiação em si mesma. Logo, a conclusão é que não podemos observar absolutamente nada o que ocorre dentro do raio de Schwarzschild, ou singularidade. Como antes do Big-Bang o Universo era uma singularidade, presume-se que o tempo então não existia, pois se objetos massivos tendem a retardar o tempo, logo quando se tem matéria infinita em espaço nulo a singularidade é tal que o tempo pára. • Sobre os tópicos acima: 86
86
1.
Campbell, Joseph. The Mythic Image.Princeton: Princeton University, 1974. 2. Ferrys, Timothy. The Red Limit: The Search by Astronomers for the Edge of the Universe. New York:William Morrow, 1977. 3. Gingeric, Owen. Cosmolology +1 . A Scientific American Book. San Francisco: W.H. Freeman, 1977 NOVAS POSSIBILIDADES
Apesar de ser uma tendência da cosmologia investir num princípio, devemos considerar que o argumento que endossa a teoria do Big Bang é uma expansão do universo observada, no entanto, essa dilatação pode ser um fenômeno regional, existente apenas nos limites do universo observável ou no alcance do atual telescópio Espacial Hubble. Diante disso (quando surgirem outros telescópios espaciais com maior resolução) existe a possiblidade desse fenômeno não atender todo o universo. Nesse caso, o que até hoje foi observado seria somente um processo de dilatação regional de causa ainda desconhecida. Não aceitar a constante de afastamento das galáxias mais distantes como uma verdade absoluta, implica endossar outras teorias que melhor se identificariam com o efeito sonda encontrado na informação de luz emitida de fontes muito distantes. A observação da propagação no meio interespacial da energia eletromagnética de supernovas, (verdadeiros Tsunamis de energia que constantemente varrem o espaço), com a nova tecnologia dos futuros telescópios e radiotelescópios espaciais, brevemente poderá identificar e esclarecer muitas dúvidas sobre o comportamento da luz através da matéria escura. Independente disso, e embora ainda não possa ser confirmado com as imagens de fundo provindas dos limites de observação, habitar e observar apenas parte de um hipotético universo que se desloca linearmente, e, em paralelo com velocidade acelerada, seria uma dessas teorias que atendem a região que esta sendo mapeada. Essa teoria estima que estaríamos no meio a um universo acelerado em paralelo, e cujo efeito retardado da informação da luz que nos chega, só seria permitido observar as ondas luminosas com desvio do espectro para o vermelho. Em linguagem matemática, o ponto de vista das informações “emitidas e recebidas” entre duas partículas que se movem com velocidades próximas à luz e em paralelo poderiam melhor explicar o fenômeno da expansão. • Sobre este tópico: 1. Ferrys, Timothy. The Red Limit: The Search by Astronomers for the Edge of the Universe. New York:William Morrow, 1977. 2. Gingeric, Owen. Cosmolology +1 . A Scientific American Book. San Francisco: W.H. Freeman, 1977. Fluido supercrítico 87
87
Fluido supercrítico é qualquer substância cuja temperatura e pressão estão acima do seu ponto crítico. Colóide Em química, colóides (ou sistemas coloidais ou ainda dispersões coloidais) são sistemas nos quais um ou mais componentes apresentam pelo menos uma de suas dimensões dentro do intervalo de 1nm a 1µm. Em 1860, o químico britânico Thomas Graham descobriu que substâncias como o amido, a gelatina, a cola e a albumina do ovo difundiam-se muito lentamente quando colocadas em água, ao contrário de outras substâncias como o açúcar e o sal de cozinha. Além disso, aquelas substâncias eram muito diferentes destas no que se refere à difusão através de membranas delgadas: enquanto as moléculas de açúcar, por exemplo, difundiam-se com facilidade através de muitas membranas, as moléculas grandes que constituíam o amido, a gelatina, a cola e a albumina não se difundiam. Graham descobriu, também, que estas últimas substâncias não se cristalizavam enquanto era fácil cristalizar o açúcar, o sal de cozinha e outros materiais que formavam soluções verdadeiras (Kotz e Treichel, 1998). Sabe-se, hoje, que ainda que haja algumas dificuldades, certas substâncias coloidais podem ser cristalizadas, e que não há, na realidade, fronteira nítida entre as soluções verdadeiras e os sistemas coloidais. Para denominar a nova classe que era identificada, Graham propôs o termo colóide (do grego kolla, cola). A ciência dos colóides se ocupa com sistemas nos quais um ou mais componentes apresentam pelo menos uma de suas dimensões dentro do intervalo de 1nm a 1µm (Shaw, 1975), ou seja, ela se refere a sistemas contendo tanto moléculas grandes como partículas pequenas. Coloquialmente, diz-se que as dispersões coloidais são dispersões intermediárias entre as soluções verdadeiras e os sistemas heterogêneos, em casos onde as partículas dispersas são maiores do que as moléculas mas não suficientemente grandes para se depositar pela ação da gravidade. Colóides no dia-a-dia Sistemas coloidais estão presentes em nosso cotidiano desde as primeiras horas do dia, na higiene pessoal, sabonete, shampoo, pasta de dente, espuma, creme de barbear, maquiagem, cosméticos, no leite, café, manteiga, cremes vegetais e geleias de frutas. No caminho para o trabalho podemos enfrentar neblina, poluição do ar ou ainda apreciar a cor azul do céu, parcialmente explicada pelo espalhamento Rayleigh da luz do Sol ao entrar na atmosfera contendo partículas de poeira cósmica atraídas pela Terra (Walker, 1989). No almoço, temperos, cremes e maionese para saladas. No entardecer, ao saborear cerveja, refrigerante ou sorvete estamos ingerindo colóides (Jafelicci e Varanda, 1999). Os colóides também estão presentes em diversos processos de produção de bens de consumo, incluindo o da água potável, nos processos de separação nas indústrias de biotecnologia e no tratamento do meio ambiente. Os fenômenos coloidais são encontrados com freqüência em processos industriais como de plásticos, borrachas, tintas, detergentes, papel, análise do solo, produtos alimentícios, tecidos, precipitação, cromatografia, troca iônica, flotação, catálise heterogênea. São também muito importantes os colóides biológicos, tais como o sangue, o humor vítreo e o cristalino (Licínio e Delaye, 1987). Em medicina terapêutica ortomolecular, conhecimentos de propriedades de sistemas coloidais podem auxiliar na elucidação de doenças, como o mal de Alzheimer (Lomakin et al., 1997), o mal de Parkinson (Conway et al., 2000) e 88
88
o mal de Huntington (Heiser et al., 2000). Acredita-se que o processo de agregação de proteínas decorrente de alguma deformação em sua estrutura proteica, quando ocorre na região cerebral, cause os sintomas dessas doenças degenerativas. Colóides na história Os sistemas coloidais vêm sendo utilizados pelas civilizações desde os primórdios da humanidade. Os povos utilizaram géis de produtos naturais como alimento, as dispersões de argilas para a fabricação de utensílios de cerâmica e as dispersões coloidais de pigmentos para decorar as paredes das cavernas com motivos de animais e caças (Quagliano e Vallarino, 1979). Características Os fatores que mais contribuem para a natureza global sui-generis de um sistema coloidal são: • as dimensões das partículas • a forma e a flexibilidade das partículas • propriedades superficiais (inclusive elétrica) • interações partícula-partícula • interações partícula-solvente Os colóides têm, em geral, características específicas como possuir massa elevada, serem relativamente grandes e apresentarem elevada relação área/volume de partícula. Nas superfícies de separação (interfaces) entre fase dispersa e meio de dispersão, manifestam-se fenômenos de superfície característicos, tais como efeitos de adsorção e dupla camada elétrica, fenômenos esses, de grande importância na determinação de propriedades físico-químicas do sistema como um todo. A dispersão coloidal é impropriamente denominada colóide. As partículas do disperso podem ser bolhas de gás, gotas líquidas ou partículas sólidas. Podem ser diferenciadas de partículas numa solução ou em suspensão por seu tamanho. Exemplos: vidro temperado [69]; geléia ; pedra pomes ; sangue ; leite ; chantilly (ar em creme); fumaça (cinzas no ar) bruma ou nevoeiro (água em ar). Muitos colóides são utilizados em nosso dia-a-dia como a gelatina, a maionese, tintas, shampoo , etc. Mesmo que o colóide por excelência seja aquele cuja fase contínua é um líquido e cuja fase dispersa seja composta de partículas sólidas, podem ser encontrados colóides cujos componentes se encontram em outros estados de agregação. Colóide micelar As partículas coloidais são muito menores do que as que podem ser vistas a olho nu, porém são maiores que as moléculas individuais. Um colóide micelar é um sistema coloidal formado por partículas denominadas micela, que são aglomerados de átomo, moléculas ou íons. Exemplos e classificação de colóides Na tabela abaixo estão alguns diferentes tipos de colóides segundo o estado das fases contínua e dispersa: Fase dispersa Fase contínu a
Gás
Gás
Líquido
Sólido
Não existe. Todos os gases são solúveis entre si.
Aerosol líquido,Exemplos: nuvem, neblina
Aerosol sólido,Exemplos : fumaça, pó em suspensão 89
89
Líquid o
Espuma líquida,Exemplo : espuma de sabão
Emulsão,Exemplos : leite, maionese, cremes, sangue
Sol,Exemplo: tintas , vidros coloridos
Sol sólido,Exemplo: Sólido cristal de rubi, cristal de safira, ligas metálicas De maneira geral, o estudo dos colóides é experimental. Grandes esforços estão sendo realizados no campo teórico para a compreensão dos seus comportamentos, inclusive com simulações informáticas. A maior parte dos fenômenos coloidais, como a condutividade e a mobilidade eletroforética, são teorias que somente reproduzem a realidade de maneira qualitativa, ficando o quantitativo ainda sem ser completamente esclarecido. Classificação dos Colóides • Aerosol: consiste em um sólido ou um líquido dissolvido em um gás. • Espuma: consiste em um gás disperso em sólido ou líquido. • Emulsão: são colóides formados por líquido disperso em outro líquido ou sólido. ex: maionese, queijo e manteiga. • Sol: são colóides formados pela dispersão de um sólido em um líquido. • Gel: sólido aparentemente, de material gelatinoso formado de uma dispersão coloidal, em que o disperso apresenta-se no estado líquido e o dispersante no estado sólido. Interações entre partículas coloidais Quando moléculas, átomos ou íons aproximam-se uns dos outros, dois fenômenos podem ocorrer: (i) eles podem reagir ou (ii) eles podem interagir. Uma reação química, por definição, requer que ligações químicas sejam quebradas e/ou formadas. Uma interação física significa que as moléculas se atraem ou se repelem entre si, sem que ocorra a quebra ou formação de novas ligações químicas. Estas interações são freqüentemente chamadas de interações não covalentes ou interações intermoleculares. As energias envolvidas em tais tipos de interações são muito menores que aquelas envolvidas em processos reativos. A caracterização dos sistemas coloidais passa pela descrição das forças intermoleculares entre as macro-partículas em solução. As forças entre duas partículas em solução podem ser relacionadas ao potencial de campo médio. Embora o segundo coeficiente do virial reflita as interações entre as moléculas de proteína e a sua determinação possa fornecer valiosas informações sobre o diagrama de fases e separações de fases de proteínas, este parâmetro é de difícil determinação experimental. De modo que este parâmetro foi avaliado apenas para um número limitado de proteínas e, em muitos casos, somente para uma determinada faixa de condições de solução. Além disso, a medição do segundo coeficiente do virial é bastante difícil nos casos em que apenas uma pequena quantidade de proteína está disponível. Por estas razões, o entendimento das origens moleculares das interações proteína-proteína se apresenta bastante útil. O estudo das interações entre as partículas não é um tópico recente. Desde o início do século XIX, as forças entre partículas têm sido alvo de estudos e teorias. Em 1831, Poisson afirmou que nas proximidades de uma interface Espuma sólida,Exemplo: pedra-pomes
Gel,Exemplos: gelatina, queijo, geléia
90
90
em um meio líquido deveria haver um perfil não uniforme (i.e. densidade, orientação) induzido pelas interações das moléculas do líquido com a interface (Ninham, 1999). Após um longo caminho de estudos e teorias, muitas vezes conflitantes e polêmicos, a teoria DLVO de Derjaguin-LandauVerwey-Overbeek forneceu à ciência dos colóides e de superfície os fundamentos de um modelo quantitativo para as interações entre macropartículas onde dois tipos de forças de natureza eletromagnéticas, as forças eletrostáticas da dupla camada e as forças atrativas de van der Waals, agem entre as partículas em função da distância entre elas. As interações coulombianas da dupla camada têm origem nas interações elétricas das partículas carregadas. A carga elétrica, assim como a massa, é uma qualidade intrínseca da matéria e apresenta a particularidade de existir em duas variedades, convencionalmente denominada positiva e negativa. Duas cargas elétricas de mesmo sinal se repelem, e quando de sinais contrários se atraem. A força destas interações é diretamente proporcional a sua quantidade de carga e inversamente proporcional ao quadrado da distância que as separa. Para explicar a existência dessas forças adotou-se a noção de campo elétrico criado em torno de uma carga, de modo que a força elétrica que vai atuar sobre outra carga distanciada da primeira corresponde ao produto da quantidade de carga desta primeira por uma grandeza chamada intensidade de campo elétrico. A energia que este campo transmite à unidade de carga chama-se potencial elétrico e, geralmente, é medido em volts. Assim como as interações coulombianas da dupla camada, as forças de dispersão têm origem nas interações elétricas das partículas. Porém, enquanto a natureza das interações coulombianas da dupla camada é eletrostática e atua apenas em partículas formalmente carregadas, as forças de atração de van der Waals são de natureza eletrodinâmica e atuam em todas as partículas, estejam elas carregadas ou não. Para dois corpos eletricamente neutros e não magnéticos, mantidos a distâncias entre uma e algumas dezenas de nanômetros, predominam estas forças de atração a “grandes” distâncias. Em 1873, van der Waals postulou a existência das forças intermoleculares, que ficaram conhecidas pelo seu nome. As forças atrativas intermoleculares de van der Waals foram um sucesso pois permitia a interpretação de propriedades de sistemas gasosos e comportamentos de transição de fase, ainda que as origens dessas forças não fossem muito bem entendidas. Explicações satisfatórias para a origem das interações de van der Waals vieram apenas com o advento da mecânica quântica. Fritz London (1930) descreveu a natureza destas forças e as atribuiu ao movimento (flutuações) dos elétrons dentro das moléculas. As interações de van der Waals, decorrentes especificamente das flutuações dos elétrons em moléculas, ficaram conhecidas com o nome de London, de flutuação de cargas, eletrodinâmicas, ou de dispersão. Elas estão presentes tanto em moléculas apolares como em moléculas polares. As forças de van der Waals desempenham um papel importante em todos os fenômenos intermoleculares, embora não seja tão forte quanto as interações coulombianas ou ligações de hidrogênio, as interações de dispersão estão sempre presentes. Esses dois tipos de forças são peças chaves da teoria DLVO que, há mais de meio século, vem sendo utilizada na descrição quantitativa do comportamento de dispersões coloidais. Nesta teoria, a estabilidade é tratada em termos do potencial de campo médio entre duas partículas coloidais. A teoria envolve estimativas da energia de atração (forças de van 91
91
der Waals) e da energia de repulsão (superposição da dupla camada elétrica), ambas em termos da distância interpartículas macroscópicas. Não obstante, a teoria DLVO não é uma panacéia. Há limitações inerentes ao modelo tanto por hipóteses simplificadoras, por limitações intrínsecas, quanto por negligência de outras forças, normalmente chamadas de nãoDLVO. Há algumas forças que não são levadas em conta pela teoria DLVO, que se acredita que podem ser significantes, especialmente quando as forças de longa distância da dupla-camada estão blindadas e a natureza química/molecular da superfície protéica não pode ser ignorada. Quando duas partículas ou superfícies se aproximam a distâncias menores que poucos nanômetros, as teorias contínuas como a de superposição das duplas camadas elétricas e a atrativa de van der Waals normalmente falham na descrição das interações interpartículas. Esse fato pode decorrer da falha de uma ou de ambas as teorias contínuas a pequenas distâncias ou devido da atuação de outras forças como forças decorrentes da correlação entre íons, forças de solvatação, estéricas ou de hidratação. Essas forças adicionais podem ser mononicamente repulsivas, monotonicamente atrativas ou oscilatórias, podendo ser mais fortes que as outras duas forças DLVO a pequenas distâncias, especialmente em sistemas coloidais complexos e sistemas biológicos. Entre interações importantes a serem consideradas de longo alcance entre partículas e superfícies macroscópicas em líquidos estão as interações Coulombianas e de van der Waals e entre as interações importantes de curto alcance estão a de solvatação e outras forças estéricas (Israelachvili, 1995). Uma limitação da teoria DLVO é o uso da equação de Poisson-Boltzmann para descrever as interações entre macro-partículas de sistemas coloidais. A teoria de Poisson-Boltzmann trata os íons em solução como cargas pontuais que interagem uns com os outros e com a macro-partícula (proteína) apenas através de um potencial eletrostático médio, e não leva em consideração efeitos como as correlações entre íons, interações não-eletrostáticas entre íons (interações de esfera rígida, interações de dispersão, etc), ou ainda, as interações de imagem em interfaces não carregadas. A consideração de correlações entre íons e macro-partículas pode levar a comportamentos qualitativamente diferentes daqueles previstos pela equação de PoissonBoltzmann. Um exemplo importante seria a contribuição eletrostática do potencial de campo médio entre duas superfícies igualmente carregadas. Bell e Levine (1958) demonstraram que modelos baseados na equação de Poisson-Boltzmann sempre resultam interações repulsivas entre superfícies igualmente carregadas. Entretanto, Patey (1980) e, posteriormente, Kjellander e Marcelja (1984) demonstraram a possibilidade teórica de atração de partículas coloidais com cargas superficiais suficientemente altas através da inclusão de correlações íon-íon. Estudos de simulação do modelo eletrostático primitivo restritivo (Torrie e Valleau, 1980,1982; Guldbrand et al., 1984; Valleau et al., 1991) confirmam a presença de interação atrativa. Simulações computacionais indicam que o potencial de campo médio entre duas esferas rígidas similarmente carregadas imersas em uma solução eletrolítica pode ser atrativo (Gronbech-Jensen et al., 1998; Wu et al., 1999). E ainda, o potencial de campo médio entre partículas opostamente carregadas pode ser repulsivo (Wu et al., 2000). Estes efeitos possuem importantes implicações na estabilidade e no comportamento de fases de soluções coloidais e não são descritos pela equação de Poisson-Boltzmann. Duas grandes simplificações das interações de van der Waals é considerar 92
92
que as interações são não-retardadas e aditivas. A suposição de interações aditivas aos pares inerente às fórmulas e definições das interações nãoretardadas de van der Waals e da constante de Hamaker ignoram a influência das partículas da vizinhança sobre a interação entre qualquer par de partículas em evidência. A polarizabilidade efetiva de uma partícula é alterada quando cercada por outras partículas. Em meios rarefeitos como em gases, esses efeitos são pequenos e a suposição de aditividade pode ser válida, mas isso não é o caso dos meios condensados. Sendo assim, a abordagem de aditividade não pode ser prontamente estendida para corpos interagindo em um meio. Este problema da aditividade foi alvo da teoria de Lifshitz que ignora a estrutura atômica e considera que as forças entre macro-partículas sejam tratadas em um meio contínuo onde as propriedades como a constante dielétrica e o índice de refração dos corpos são definidos e não dependem da solução nem do meio. Embora esta teoria seja conveniente para tratar a aproximação da aditividade das interações de van der Waals, ela possui limitações. Cargas superficiais suficientemente grandes geram grandes campos elétricos e altas concentrações de contra-íons próximo à superfície. Ambos estes fatores levam à diminuição da constante dielétrica próximo à superfície ou interface (Manciu e Ruckenstein, 2003). Note-se, então, que a teoria de Lifshitz considera cada meio (partículas e meios) como contínuos e homogêneos, sendo seu uso mais adequado quando as superfícies interagentes estão mais afastadas que dimensões moleculares. A teoria de Lifshitz será utilizada neste trabalho para calcular as constantes de Hamaker, constantes essas, características das interações de van der Waals entre diferentes partículas no meio aquoso. A seguir veremos algumas interações não contabilizadas pela teoria DLVO, a saber: a especificidade iônica, as forças de hidratação, estruturais e de solvatação, as forças de flutuação e estéricas, e as interações anisotrópicas. Especificidade iônica Na teoria DLVO, considera-se apenas o efeito de dispersão entre macropartículas, desprezando o efeito de dispersão entre íons e macro-partículas. Deste modo, a teoria não pode explicar porque dois sais de mesma valência (por exemplo, NaCl e NaI) afetam os sistemas coloidais de forma diferente. Ainda íons de mesma valência, mas de maior polarizabilidade sejam capazes de interagir (via forças de dispersão) mais efetivamente com outros íons e superfícies. Os efeitos de especificidade iônica são disseminados por diversos campos da ciência como biologia, bioquímica, química e engenharia química. O primeiro pesquisador a estudar, sistematicamente, este efeito foi Hofmeister em 1887, que observou a habilidade de interação dos íons com o meio e formulou uma série de íons conhecida como série liotrópica ou série de Hofmeister, que classifica, qualitativamente, o efeito dos íons sobre a precipitação de proteínas (Kunz et al., 2004). Hofmeister atesta que as interações entre proteínas são mais afetadas por alguns sais do que por outros. A presença de solutos dissolvidos causa uma mudança distinta na estrutura e nas propriedades da água líquida. Depois de um século de estudos e diversas pesquisas sobre especificidade iônica, investigando a efetividade relativa de vários íons sobre a solubilidade da lisozima a pH 4,5, Ries-Kautt e Ducruix (1989) revelaram que os ânions eram os principais responsáveis pelos efeitos observados, e ainda, que estes seguiam ordem inversa da série de Hofmeister. Este estudo foi relevante 93
93
uma vez que a lisozima corresponde a proteína originalmente estudada por Hofmeister. Certo tempo depois, o mesmo grupo demonstrou que a ordem direta para a lisozima se dá em pH maiores que o ponto isoelétrico da proteína (Carbonnaux et al., 1995). Desde então, vários pesquisadores têm investigado o efeito relativo sobre diferentes proteínas e diversas condições de pH por metodologias experimentais (Tardieu et al., 2002). Boström et al. (2002, 2003, 2004, 2005) demonstraram que o fenômeno pode ser entendido quando as forças de dispersão iônica entre íons e proteína são tratadas ao mesmo nível das interações da dupla camada elétrica, principalmente porque, enquanto as forças eletrostáticas normalmente dominam a baixas concentrações salinas, as forças de dispersão se tornam importantes a altas concentrações. Boström et al. indicam que a inclusão das forças de dispersão atuantes entre as interações íon-íon e íon-macro-partículas e dos efeitos íon-específicos de solvatação explicam grande parte dos efeitos de especificidade iônica e corroboram a série proposta por Hofmeister. Forças de hidratação, estruturais e de solvatação As forças estruturais, também referidas na literatura como forças de solvatação ou forças de hidratação para meios aquosos, surgem do ordenamento das moléculas do líquido quando estas estão confinadas entre duas superfícies mutuamente próximas e que podem ser atrativas ou repulsivas. A origem das forças estruturais ainda não está bem estabelecida. A explicação corrente baseia-se na suposição de que a presença de uma superfície deve alterar a natureza do fluido na região próxima a essa superfície. Em meio aquoso, a interação por forças estruturais entre superfícies hidrofílicas é repulsiva, e sua intensidade depende do grau de hidratação das superfícies ou grupos superficiais. A aproximação de duas partículas com superfícies hidratadas é geralmente impedida por uma interação repulsiva extra, distinta da repulsão eletrostática. Esta repulsão por hidratação surge essencialmente da necessidade das superfícies se desidratarem para que o contato entre elas ocorra. Entre superfícies hidrofóbicas, a interação é atrativa e sua intensidade, neste caso, depende da hidrofobicidade da superfície ou dos grupos superficiais. Estudos envolvendo simulação de Monte Carlo e dinâmica molecular indicam diferentes estruturas das camadas de água próximas a superfícies hidrofílicas e hidrofóbicas. No primeiro caso, os dipolos da água estão predominantemente orientados perpendicularmente à superfície e reduz a mobilidade tangencial das moléculas de água. No segundo caso, os dipolos estão orientados paralelamente à superfície, causando um aumento na mobilidade tangencial, o que se manifestaria, macroscopicamente, no “deslizamento” das moléculas de água sobre uma superfície hidrofóbica. Normalmente, dois métodos têm sido usados na abordagem das forças de solvatação: a abordagem da área de superfície acessível ao solvente (SASA) (Hermann, 1972; Curtis e Lue, 2006) e a abordagem alternativa do modelo híbrido de Hamaker/Lennard-Jones (Asthagiri et al., 1999), que é utilizado para cálculos de interações atrativas de curto alcance. Quando as interações soluto-solvente são suficientemente de curto alcance, as forças de solvatação podem ser aproximadas pela área correspondente à área removida de solvente devido à interação soluto-soluto, multiplicada pela energia livre de solvatação do soluto. Sendo conhecido como a abordagem 94
94
da área de superfície acessível ao solvente (SASA), que é comumente usada nos estudo de enovelamento de proteínas (Horton e Lewis, 1992). A outra abordagem para cálculos de energias de interação, que também trata os efeitos do solvente de modo implícito, é o modelo híbrido Hamaker/Lennard-Jones, podendo ser usado para cálculos de interações atrativas de curto alcance. Neste modelo, o potencial de dispersão de Hamaker é usado para descrever interações proteína-proteína para grandes separações e, para pequenas distâncias, o potencial Lennard-Jones é usado para cálculo de interações entre grupos das moléculas de proteínas opostas com uma separação superfície-superfície menor que 3Å. A distância de corte corresponde à exclusão de uma molécula de solvente quando as superfícies estão mais próximas entre si, de modo que este modelo híbrido não sofre da singularidade do contato molecular observado na formulação de Hamaker. Forças de flutuação e estéricas Na teoria DLVO, supõe-se que todas as superfícies que interagem são regulares e rígidas, possuindo fronteiras de formas bem definidas. Há muitos casos onde essas hipóteses falham. Quando as interfaces são espacialmente difusas ou quando as forças entre as superfícies dependem de como as suas fronteiras difusas se sobrepõem, são exemplos freqüentes. A superfície ou interface difusa não é apenas aquela irregular, mais também aquela com grupos termicamente móveis na superfície, ou seja, tanto as superfícies estaticamente irregulares quanto aquelas dinamicamente irregulares. Há dois tipos comuns de tal interface difusa. Primeiro, há interfaces inerentemente móveis ou fluidas como ocorre com interfaces líquido-líquido, líquido-vapor e algumas anfifílico-água. Em superfícies líquido-vapor, as flutuações ou protusões térmicas são de escala molecular. Embora a escala dessas flutuações não seja superior a alguns Angstroms, elas são suficientemente ativas de modo a afetar significativamente a estrutura molecular das superfícies. Diferentes tipos de flutuações podem ser relevantes dependendo da forma das moléculas e das suas interações específicas com a superfície. Em alguns casos os resultados de protusões podem ter grandes amplitudes. Quando duas dessas interfaces ou superfícies se aproximam, suas protuberâncias ficam confinadas em uma pequena região de espaço e, na ausência de outras forças de interação, uma força repulsiva cresce associada à entropia desfavorável deste confinamento. Algumas forças são essencialmente entrópicas ou osmóticas por origem e são referidas como ‘flutuação térmica’, ‘entropicamente impulsionada’ ou ‘forças de protusão’. Um segundo tipo de interface termicamente difusa ocorre quando cadeias moleculares ligadas a algum ponto da superfície possuem um ramo termicamente móvel na solução. Com a aproximação de outra superfície, a entropia de confinamento das cadeias pendentes novamente resulta em uma força entrópica repulsiva pela sobreposição das moléculas poliméricas e são conhecidas como repulsão ‘estérica’ ou ‘de superposição’. Para ambos os exemplos acima, reorganizações moleculares complexas e outras interações podem levar a potenciais de interações bem mais complexos. Por exemplo, a força pode ser, a princípio, atrativa e tornar-se repulsiva posteriormente. Interações anisotrópicas A carga líquida de uma proteína e o estado de ionização de seus resíduos de aminoácidos são determinantes na estrutura, na função, na solubilidade e na estabilidade desta proteína. A despeito da importância da carga líquida de proteínas, esta informação não é simples de ser determinada devido a 95
95
sinergia de diversos efeitos físico-químicos associados às condições do meio onde essas estão inseridas. A maioria dos modelos empregados não são capazes de considerar a influência da força iônica, do pH e dos íons em solução simultaneamente para a determinação da carga líquida de proteínas (Winzor, 2004). De modo simplificado, a carga da proteína é determinada através de valores dos ’s individuais dos aminoácidos via equação de Henderson-Hasselbach modificada, associada à informação de titulação do íon hidrônio (Zhou e Vijayakumar, 1997). Na grande maioria dos modelos usados, é considerado que as cargas das proteínas determinadas pelo método acima citado são uniformemente distribuídas na superfície da proteína. Como este não é necessariamente o caso, algumas vezes torna-se necessário a inclusão de correlações devido à distribuição assimétrica de cargas, incluindo uma interação carga-dipolo e uma dipolo-dipolo, que são geralmente atrativas. Na maioria das condições relevantes a processos de bioseparação ou em soluções salinas fisiológicas, o potencial de dupla camada elétrica está normalmente blindado e as interações proteína-proteína são de curto-alcance. Neste caso, os detalhes das interações proteína-proteína irão depender da natureza química da superfície protéica, da forma da proteína e da uniformidade de sua superfície. Muito provavelmente, as interações serão anisotrópicas devido à heterogeneidade da superfície protéica e são essas interações que são importantes na orientação para a fixação da molécula de proteína no cristal. Pesquisas recentes têm se focado no efeito anisotrópico das superfícies nas interações proteína-proteína usando modelos mais realísticos para a proteína (Neal et al., 1999; Asthagiri et al., 1999; Elcock and McCammon, 2001), onde a forma da proteína é determinada pelas coordenadas da estrutura do cristal. Foi observado que as interações efetivas proteína-proteína são determinadas por algumas orientações altamente atrativas marcadas por um alto nível de complementaridade das superfícies como os tipos de interações envolvidas no reconhecimento de eventos moleculares entre proteínas. A contribuição fundamental de energia para as configurações altamente atrativas vem das forças de dispersão. As interações eletrostáticas contribuem energeticamente para com essas interações, mas não determinam as diferentes orientações na contribuição do segundo coeficiente do virial, . Foi postulado que as interações eletrostáticas atrativas ocorrem devido à assimetria das cargas que existem nas configurações dominantes. A importância das interações anisotrópicas foi confirmada quando Chang et al. (2000) mostraram que a substituição de um simples aminoácido, localizado em um cristal de contato, pode levar a grande variação nos valores do segundo coeficiente do virial. Todos os modelos atomísticos para estudo das interações proteína-proteína são altamente sensíveis às propriedades superficiais das proteínas. No modelo usado por Elcock e McCammon (2001), o valor de é altamente sensível aos estados de protonação dos resíduos carregados localizados nas superfícies complementares. Tais estados de protonação podem ser alterados por complexação. Esta sensibilidade do modelo às propriedades da superfície protéica é esperada uma vez que pequenas modificações na carga da superfície protéica ou na hidrofobicidade da superfície podem gerar grandes mudanças nos valores de . Tais mudanças não podem ser levadas em consideração por modelos de potencial de força média baseados nos potenciais com simetria central, onde grandes variações dos valores de seriam condicionadas a mudanças não-realísticas dos valores de parâmetros 96
96
tais como o coeficiente de dispersão, volume de exclusão ou a carga líquida da proteína. Referências • MOREIRA, L.A. Cálculo de propriedades físico-químicas de sistemas coloidais via equação de Poisson-Boltzmann: efeito da inclusão de potenciais não-eletrostáticos, 2007. Dissertação de Mestrado em Tecnologia de Processos Químicos e Bioquímicos, Escola de Química/UFRJ, Rio de Janeiro. Thomas Graham
Thomas Graham (Glasgow, 1805 – 1869) foi um químico britânico, conhecido por suas pesquisas na difusão de gases e líquidos na química dos colóides. Estudou nas universidades de Edimburgo e de sua cidade natal. Ensinou química em Glasgow e no University College da Universidade de Londres. Desde 1855 até sua morte foi diretor da Real Fábrica de Moeda. Graham demonstrou que a velocidade de difusão de um gás é inversamente proporcional à raiz quadrada de sua densidade, relação conhecida na atualidade como lei de Graham. No campo da química dos colóides foi o primeiro a distinguir entre estes e os cristalóides. Descobriu o método da diálise para separar os colóides de uma série de soluções. Aerossol Aerossol é um conjunto de partículas suspensas num gás, com alta mobilidade intercontinental. O termo refere-se tanto as partículas como ao gás na qual as partículas estão suspensas. O tamanho das partículas varia desde aos 0,002 µm a mais de de 100 µm, isto é, desde umas poucas moléculas até o tamanho em que as ditas partículas não podem permanecer suspensas no gás. Aerossóis atmosféricos Alguns aerossóis ocorrem de forma natural, originados pela vegetação viva, da pulverização da água, dos vulcões, das tempestades de areia ou pó ou de incêndios florestais. Algumas atividades humanas, como o uso de combustíveis fósseis e alteração da superfície terrestre também geram aerossóis . Repartidos pelo planeta, os aerossóis antropogênicos – gerados pelas pessoas- representam 10% da quantidade total presente na atmosfera. Os aerossóis são rapidamente removidos da atmosfera por meio de processos hidrológicos naturais ou por deposição. Existem aerossóis com elevada capacidade de reflexão – como os sulfatos -, que contribuem para resfriar a atmosfera, enquanto outros possuem elevada capacidade de absorção, contribuindo portanto para aquecê-la. 97
97
A interação destes aerossóis com nuvens altera a capacidade de reflexão/absorção destas, promovendo mudança em suas atividades e duração. Espuma
Espuma de Cerveja Espuma refere-se a formação de muitas bolhas de um gás que se formam na superfície de um líquido quando ele é agitado, movimentado, fermentado ou fervido. Espuma também pode ser entendido como um objeto sólido, flexível, maleável e que apresenta grande capacidade de reter líquidos, por exemplo água, devido a grande presença de orifícios vazios por toda a extensão deste objeto. A espuma líquida que é observado, normalmente, na água do mar, sobre as areias das praias é constituído de várias bolhas gasosas que fica presa aprisionada dentro de uma cápsula cuja parede é uma camada formada pelas moléculas do líquido e que permanecem por um certo período de tempo maior. As espumas, normalmente, são utilizadas na confecções dos colchões, travesseiros, esponjas de banho e cozinha que são produzidos, basicamente, por duas matérias primas: o TDI (Tolueno Dissocianato de Metila) e o Poliol, ambos com aspecto cristalino e derivadas do petróleo, sendo este último mais viscoso. Além deste ingredientes são acrescentados ainda estabilizadores, tais como: silicone, estanho, corantes, etc. Todos os ingredientes são colocados em uma batedeira, onde são misturados por alguns segundos. Em seguida, a mistura é colocada em uma forma que por uma reação química depois de um certo tempo torna-se a espuma uma espuma sólida. Emulsão Emulsão é a mistura entre dois líquidos imiscíveis em que um deles (a fase dispersa) encontra-se na forma de finos glóbulos no seio do outro líquido (a fase contínua). Exemplos de emulsões incluem manteiga e margarina, maionese, café expresso e alguns cosméticos como cremes e loções. As emulsões mais conhecidas consistem de água e óleo. Estabilidade das emulsões 98
98
99 A.. Dois líquidos imiscíveis separados em duas fases (I e II). B. Emulsão da fase II dispersa na fase I. C. A emulsão instável progressivamente retorna ao seu estado inicial de fases separadas. D. O surfactante se posiciona na interface entre as fases I e II, estabilizando a emulsão As emulsões são instáveis termodinamicamente e, portanto não se formam espontaneamente, sendo necessário fornecer energia para formá-las através de agitação, de homogeneizadores, ou de processos de spray. Com o tempo, as emulsões tendem a retornar para o estado estável de óleo separado da água. Os agentes emulsificantes (ou surfactantes) são substâncias adicionadas às emulsões para aumentar a sua estabilidade cinética tornando-as razoavelmente estáveis e homogêneas. Um exemplo de alimento emulsificante é a clara de ovo, que contém o fosfolipídeo lecitina que estabiliza a emulsão do azeite na água. A estabilidade de uma emulsão depende essencialmente de três fenômenos: sedimentação, floculação e quebra da emulsão devido a coalescência das gotículas dispersas. A sedimentação resulta de uma diferença de densidade entre as duas fases e consiste na migração de uma das substâncias para o topo da emulsão, não sendo necessariamente acompanhada de floculação das gotas. As colisões entre as gotas podem resultar em floculação, que pode levar a coalescência em glóbulos maiores. Eventualmente, a fase dispersa pode se tornar a fase contínua, separada da dispersão média por uma única interface. O tempo levado para tal separação de fases pode ser de segundos ou até anos, 99
dependendo da formulação da emulsão. Para aumentar a estabilidade cinética das emulsões tornando-as razoavelmente estáveis, um terceiro componente, o agente emulsificante, pode ser adicionado. Os materiais mais eficientes como agentes emulsificantes são os tensioativos, alguns materiais naturais e certos sólidos finamente divididos. Esses materiais formam um filme adsorvido ao redor das gotas dispersas e ajudam a prevenir a floculação e a coalescência. Os seguintes fatores favorecem a estabilidade de emulsões: tensão interfacial baixa, filme interfacial mecanicamente forte e elástico, repulsão das duplas camadas elétricas, volume relativamente pequeno da fase dispersa, gotículas pequenas e viscosidade newtoniana elevada. 1- Tensão superficial baixa: a adsorção de surfactantes nas interfaces óleoágua diminui a energia interfacil, facilitando o desenvolvimento e aumentando a estabilidade das grandes áreas interfaciais associadas com as emulsões 2- Filme interfacial mecanicamente forte e elástico: a estabilidade das emulsões é favorecida pela proteção mecânica dada pelo filme adsorvido ao redor da gota. A elasticidade do filme também é importante para permitir a recuperação após distúrbios locais. 3- Repulsão das duplas camadas elétricas: a repulsão entre as partículas diminui os choques evitando a floculação. Quando agentes emulsificantes iônicos são usados, a repulsão da dupla camada elétrica lateral pode prevenir a formação de filmes compactos. O efeito de expansão dos filmes pode ser minimizado usando uma mistura de um filme iônico com um nãoiônico e/ou aumentando a concentração eletrolítica na fase aquosa. 4- Volume pequeno da fase dispersa: favorece a formação de gotículas pequenas. 5- Gotículas pequenas: gotas grandes são menos estáveis devido a sua menor razão de área/volume, que aumentam a tendência da gota crescer. 6- Viscosidade alta: diminui as colisões retardando a floculação e sedimentação. O tipo de emulsão formada quando dois líquidos imiscíveis são homogeneizados depende dos volumes relativos das duas fases e da natureza do agente emulsificante. Quanto maior for o volume da fase, maior é a probabilidade do líquido se tornar a fase contínua. Sabões de metais alcalinos favorecem a formação de emulsões óleo em água, enquanto que sabões de metais pesados favorecem a formação de emulsões água em óleo. Além disso, a fase na qual o agente emulsificante é mais solúvel tende a ser a fase contínua. Essa generalização é conhecida como regra de Bancroft. Sol O Sol
Dados observacionais 100
100
Distância média à Terra 149.597.871 km Magnitude aparente (V) -26,8m Magnitude absoluta 4,8m Características físicas Diâmetro 1.392.000 km Diâmetro relativo (d S /d E ) 109 Superfície 6,09 × 1012 km² Volume 1,41 × 1027 m³ Massa 1,9891 × 1030 kg Massa em relação à Terra 333.400 Densidade 1.411 kg m-3 Densidade em relação à Terra 0,26 Densidade em relação à água 1,409 Gravidade na superfície 274 m s-2 Gravidade relativa na superfície 27,9 g Temperatura da superfície 5.775 K Temperatura na coroa 5 × 106 K Luminosidade (L S ) 3,827 × 1026 J s-1 Características orbitais Período de rotação No equador: 27d 6h 36m A 30° de latitude: 28d 4h 48m A 60° de latitude: 30d 19h 12m A 75° de latitude: 31d 19h 12m Período de translação ao redor do 2,2 × 108 anos centro galáctico Composição da fotosfera Hidrogênio 73,46 % Hélio 24,85 % Oxigênio 0,77 % Carbono 0,29 % Ferro 0,16 % Néon 0,12 % Nitrogênio 0,09 % Silício 0,07 % Magnésio 0,05 % Enxofre 0,04 % O Sol (do latim Sol) é a estrela central do nosso sistema planetário solar. Atualmente, sabe-se que em torno dele gravitam pelo menos oito planetas, quatro planetas anões, 1.600 asteróides, 138 satélites e um grande número de cometas. Sua massa é 333.000 vezes a da Terra e o seu volume 1.400.000 vezes. A distância do nosso planeta ao Sol é de cerca de 150 milhões de quilômetros (ou 1 unidade astronômica (UA), aproximadamente). A luz solar demora 8 minutos e 18 segundos para chegar à Terra. 101
101
Estrutura solar
1 – Núcleo solar 2 – Coroa solar 3 – Fotosfera 4 – Proeminências solares O Sol, tal como as restantes estrelas, é uma esfera de plasma que se encontra em equilíbrio hidrostático entre as duas forças principais que agem dentro dele: para fora a pressão termodinâmica, produto das altas temperaturas internas, e para dentro a força gravitacional. A estrutura solar pode ser dividida em duas grandes regiões: o Interior e a Atmosfera, entre elas se encontra uma fina camada, que pode ser considerada a superfície, chamada Fotosfera. Interior solar O interior solar possui três regiões bem diferentes: o núcleo, que é onde se produzem as reações nucleares que transformam a massa em energia através da fusão nuclear. Acima desta achamos a região radioativa e por último a região convectiva. Nenhuma destas regiões pode ser observada de forma direta já que a radiação é completamente absorvida (e reemitida) e o conhecimento que temos delas é através de modelos teóricos ou observações indiretas, principalmente por meio da heliosismologia. Superfície e atmosfera solar
Foto da sonda espacial Hinode, tirada em 12 de janeiro de 2007, da superfície da estrela. Por cima da região convectiva encontramos a fotosfera. A luz irradiada pela fotosfera não é completamente atenuada pelas camadas superiores e portanto se converte na região mais funda que podemos observar do Sol. Na fotosfera, a emissão acontece em todas as bandas do espectro luminoso produzindo a luz branca característica do Sol ao olho nu. A região encontrase a uma temperatura média de 5.775 K (ou 5.502 oC) e tem uma densidade de 1014 a 1015 partículas por cm3. 102
102
As camadas superiores à fotosfera são chamadas de atmosfera solar. A primeira, logo acima da fotosfera, é a cromosfera, cuja temperatura varia dos 6.000 K até os 30.000 K, com uma espessura de uns 2.300 km, embora existe muita controvérsia a respeito. A camada mais externa chama-se coroa, e sua temperatura vai de 1 milhão até vários milhões de graus kelvin. Em contrapartida a densidade da coroa é muito baixa, sendo de 1010 cm-3 em sua base e diminuindo em direção oposta ao centro do Sol. A coroa não possui limite superior, pode-se dizer que ela se estende pelo Sistema Solar inteiro. Entre a cromosfera e a coroa há uma estreita faixa chamada região de transição. Um dos grandes problemas da física solar é explicar que mecanismo consegue aumentar a temperatura da atmosfera solar dos perto de 5.500 K da fotosfera para o milhão de graus da Coroa. Ciclo solar O ciclo solar tem muitos efeitos importantes, que influenciam nosso planeta. Estudos de heliosismologia executados a partir de sondas espaciais permitiram observar certas “vibrações solares”, cuja frequência cresce com o aumento da atividade solar, acompanhando o ciclo de 11 anos de erupções, a cada 22 anos existe a manifestação do chamado hemisfério dominador, além da movimentação das estruturas magnéticas em direção aos pólos, que resulta em dois ciclos de 18 anos com incremento da atividade geomagnética da Terra e da oscilação da temperatura do plasma ionosférico na estratosfera de nosso planeta. Ionosfera A ionosfera se localiza entre 60 e 400 km de altitude, é composta de íons, plasma ionosférico, e, devido à sua composição, reflete ondas de rádio até aproximadamente 30 MHz. Fotosfera A fotosfera do Sol tem a aparência da superfície líquida cheia de bolhas, em ebulição; isso é chamado de granulação fotosférica. Os grânulos tem em torno de 500km de diâmetro e duram cerca de 10 minutos cada. Equilíbrio hidrostático O equilíbrio hidrostático (ou mecânico) é um conceito da mecânica dos fluidos significando um balanço entre o campo gravitacional e o gradiente de pressão. O equilíbrio hidrostático é importante para todos os corpos celestes, nas estrelas por exemplo, se a força de pressão e a força da gravidade não são equivalentes a estrela vai sofrer mudanças violentas na sua estrutura. Gel Um gel (do latim gelu – congelante, frio, gelo, ou gelatus – congelado, imóvel) é um sólido aparentemente, de material gelatinoso formado de uma dispersão coloidal, em que o meio disperso apresenta-se no estado líquido e o meio dispersante no estado sólido. Pelo peso, géis (no português, as formas plurais géis e geles são ambas aceitas) são, em sua maioria, líquidos com comportamento de sólidos. Um exemplo disso é a gelatina. É comum as pessoas mais jovens utilizarem esse material para enrijecer os cabelos, assim como é da natureza de empresas de ergonomia o uso do gel para amaciar os produtos. Uma forma fácil de criar um gel é fazendo uma solução em 10ml de agua de 3g de Acetato de Cálcio e de seguida disolver em 75ml de Etanol (ou álcool Etílico). Criar-se-á imediatamente um gel! Este é um gel muito semelhante ao gel usado em algumas velas recentes. Se quiser poderá colocar o gel num 103
103
prato e acende-lo com um fosforo, o efeito é muito bom e duradouro, podendo a chama perdurar por mais de 15 minutos. Este gel é também utilizado como acendalha para lareiras. Siméon Denis Poisson Siméon Denis Poisson
21 de Junho de 1781 Pithviers 25 de Abril de 1840 Falecimento Paris Nacionalidade Francês Ocupação Matemático e físico Siméon Denis Poisson (Pithiviers, 21 de Junho de 1781 – Paris, 25 de Abril de 1840) foi um matemático e físico francês. Poisson desenvolveu o expoente de Poisson, usado na transformação adiabática de um gás. Este expoente é a razão entre a capacidade térmica molar de um gás a pressão constante e a capacidade térmica molar de um gás a volume constante. A lei de transformação adiabática de um gás diz que o produto entre a pressão de um gás e o seu volume elevado ao expoente de Poisson é constante. Aerogel Nascimento
O Aerogel é um material extremamente leve, porém muito resistente. Na foto vemos um pequeno bloco de aerogel de 2,38 gramas sustentando um tijolo de 2,5 kg O Aerogel é um material sólido mesoporoso extremamente leve derivado de um gel, no qual a sua parte líquida foi substituida por um gás. O resultado desse processo é um bloco sólido com densidade extremamente baixa e com várias propriedades notáveis, entre as quais destaca-se excelente eficiência 104
104
como isolante térmico e elétrico, além de ser o material sólido mais leve que existe. Devido as suas características físicas (baixa densidade, transparência e difusão da luz) esse material recebeu o apelido de fumaça sólida. O Aerogel foi inventado por Steven Kistler, em 1931. O primeiro resultado foi o gel de silício, mas o aerogel pode ser feito de diversos materiais. O trabalho de Kistler envolveu aerogéis baseados em dióxido de silício, óxido de alumínio, óxido de cromo III, e estanho. Aerogéis de carbono foram criados pela primeira vez no final década de 1990. Definição técnica
Peter Tsou, da NASA, segurando um pedaço de aerogel Aerogéis são uma classe de materiais sólidos mesoporosos posuindo mais de 50% do volume poroso. Os aerogéis são, normalmente, compostos de 90% a 99.8% de ar, com densidades de 1,1 mg/cm3 até em torno de 150 mg/cm3. Na escala nanométrica, um aerogel estruturalmente lembra uma esponja e é composto de uma rede de nanopartículas interligadas. O termo aerogel não se refere a uma substância particular, mas sim à geometria como é composto, portanto muitas substâncias podem formar aerogéis. Em fato, aerogéis podem ser compostos de uma grande variedade de materiais, incluindo dióxido de silício (SiO 2 ), óxido de alumínio (Al 2 O 3 ), óxidos de metais de transição e lantanídeos, metais calcogenídeos, polímeros orgânicos e inorgânicos, e carbono. Mesmo assim, o termo aerogel é normalmente usado para se referir específicamente ao gel de silício. SEAgel SEAgel (Safe Emulsion Agar gel em inglês, «gel de ágar de emulsão segura») é uma espuma de alta tecnologia cujo propósito é servir de isolante. É um dos sólidos menos espessos conhecidos; de fato, SEAgel tem uma densidade que é aproximadamente igual ao do ar. Além disso é um dos sólidos mais leves conhecidos, competindo com o Aerogel. SEAgel foi inventado por Robert Morrison no Lawrence Livermore National Laboratory em 1992. SEAgel é feito de ágar, un material de carboidratos obtido a partir de quelpo e algas vermelhas, que contém sómente de quarenta a cinquenta miligramas de matéria por centímetro cúbico de sólido (ou seja, tem uma densidade de 40-50 mg/cm3). SEAgel é também completamente biodegradável, já que é feito de material biológico em sua totalidade. Superfluidez A superfluidez consiste num estado anômalo de líquidos, de natureza quântica, que se encontram sob uma temperatura muito baixa, de tal forma que este estado apresenta as seguintes características : - viscosidade nula ou quase nula (superfluidez) - transmissão de calor anormalmente elevada Não obstante, a viscosidade pode se manter se se experimenta em condições 105
105
de arraste circular do fluido. Histórico Com o desenvolvimento das técnicas de resfriamento de gases, entre o século XIX e XX, tais como o processo Claude (resfriamento isentrópico) e o processo Linde (resfriamento isentalpico), pode-se obter, pela primeira vez na história, a liquefação dos outrora chamados gases permanentes. Com o progresso da técnica, conseguiu-se mesmo o resfriamento do hidrogênio e do hélio. Este último um gás nobre. A superfluidez, propriamente dita, foi descoberta por Pyotr Leonidovich Kapitsa, John F. Allen e Don Misener em 1937. Modelo teórico Por ser um gás nobre, o hélio exibe pouca interação intermolecular. As interações que apresenta são as interações de van der Waals. Como a intensidade relativa dessas forças é diminuta, e a massa dos dois isótopos do hélio é pequena, os efeitos quânticos, normalmente disfarçados sob a agitação térmica, começam a aparecer, restando o líquido num estado em que as partículas se comportam solidariamente, sob efeito de uma só função de onda. Nos dois líquidos em que se conhecem casos de superfluidez, ou seja, nos isótopos 3 e 4 do Hélio, o primeiro é composto por férmions ao passo que o segundo é composto por bósons. Nos dois casos, a explicação necessita da existência de bósons. No caso do Hélio-3, os férmions se agrupam aos pares, de modo semelhante ao que acontece na supercondutividade com os pares de Cooper, para formaram bósons. Pyotr Leonidovich Kapitsa
Pyotr Leonidovich Kapitsa (9 de Julho de 1894 – 8 de Abril de 1984), físico da Rússia. Foi Nobel de Física em 1978 pelas invenções básicas e descobertas na área da Física de Baixas Temperaturas. Johannes Diderik van der Waals
van der Waals Johannes Diederik van der Waals (Leiden, 23 de Novembro de 1837 – 106
106
Amsterdã, 8 de Março de 1923), foi um físico neerlandês que formulou equações descrevendo os estados líquido e gasoso, trabalho fundamental para a medição do zero absoluto. Ele tentou descobrir por que as equações de Robert Boyle e Jacques Charles não correspondiam exatamente à forma de comportamento dos gases e líquidos. Concluiu que o tamanho da molécula e a força que atuam entre elas afetam seu comportamento. Embora as moléculas de gás sejam extremamente pequenas, cada uma delas tem um tamanho diferente – circunstância que afeta o comportamento das moléculas de diferentes gases. As forças que atuam entre as moléculas de um gás são denominadas forças de van der Waals. Em virtude desse trabalho, Johannes van der Waals foi agraciado com o Prêmio Nobel de Física de 1910. Biografia Van der Waals nasceu em Leiden, nos Países Baixos, filho de Jacobus van der Waals e Elisabeth van den Burg. Tornou-se professor escolar, e posteriormente foi autorizado a estudar na universidade, apesar da sua deficiência de educação no campo das idiomas clássicos. Estudou de 1862 até 1865, graduando-se em Matemática e Física. Era casado com Anna Magdalena Smit e teve três filhas e um filho. Em 1866 tornou-se director de uma escola secundária em A Haia. Em 1873, obteve doutorado por sua tese intitulada “Over de Continuïteit van den Gasen Vloeistoftoestand” (Sobre a continuidade do gás e do estado líquido). Em 1876, foi nomeado primeiro professor de física na Universidade de Amsterdam. Van der Waals morreu em Amsterdam em 1923. Matéria degenerada Se denomina matéria degenerada, ou ainda gás degenerado, aquela na qual uma fração importante da pressão provem do princípio de exclusão de Pauli, que estabelece que dois férmions não podem ter os mesmos números quânticos. Tal “gás” não obedece às leis clássicas na qual a pressão de um gás é proporcional à sua temperatura e densidade. Enrico Fermi e Paul Adrien Maurice Dirac provaram que, a uma densidade muito alta, a pressão aumenta rapidamente até o ponto em que ela passa a independer da temperatura do gás. Neste ponto, o gás passa a agir quase como um sólido. Na astronomia, este gás é encontrado nas estrelas anãs brancas e importante no tratamento tanto de estrelas residuais densas quanto das novas que as geram[1]. É conceito importante em cosmologia e na evolução do universo no tempo[2], com relações com a teoria da relatividade[3] e para o modelo “big bang” e na detecção de objetos estelares.[4] Dependendo das condições, a degeneração de diferentes partículas pode contribuir com a pressão de um objeto compacto, de modo que uma anã branca está sustentada pela degeneração dos elétrons, ainda que uma estrela de nêutrons não colapse devido ao efeito combinado da pressão de nêutrons degenerados e à pressão devida à ação repulsiva da interação forte entre bárions. Estas restrições nos estados quânticos fazem com que as partículas adquiram momentos muito elevados, já que não têm outras posições do espaço de fases onde situar-se; pode-se dizer que o gás, ao não poder ocupar mais posições, se vê obrigado a estender-se no espaço de momentos com a limitação da velocidade c (velocidade da luz). Assim, ao estar tão 107
107
comprimida a matéria, os estados energeticamente baixos prenchem-se em seguida pelo que muitas partículas não tem outra possibilidade senão colocar-se em estados muito energéticos o que envolve uma pressão adicional de origem quântica. Se a matéria está suficientemente degenerada, esta citada pressão será dominante, e muito, sobre todas as demais contribuções. Esta pressão é, além disto, independente da temperatura e unicamente dependente da densidade. Estas características implicam em tratamento termodinâmico bastante diverso e adequado as pressões e campos gravitacionais envolvidos[5], assim como o comportamento das reações nucleares na proximidade de tais massas.[6][7] Necessita-se de densidades para chegar aos estados de degeneração da matéria. Para a degeneração de elétrons se requer uma densidade em torno dos 106 g/cm³, para a de nêutrons necessitará muito mais ainda, 1014 g/cm³. Tratamento matemático da degeneração Para calcular o número de partículas fermiônicas em função de seu momento se usará a distribução de Fermi-Dirac (ver estatística de Fermi-Dirac) da seguinte maneira:
Onde n(p) é o número de partículas com momento linear p. O coeficiente inicial 2 é a dupla degeneração de spin dos férmions. A primeira fração é o colume do espaço de fases em um diferencial de momentos dividido pelo volume de uma determinada seção em dado espaço. A h³ é a constante de Planck ao cubo que, como se tem dito, significa o volume dessas seções nas quais cabem até duas partículas com spins opostos. O último termo fracionário é o denominado fator de preenchimento. K é a constante de Boltzmann, T a temperatura, E p a energia cinética de uma partícula com momento p e ψ o parâmetro de degeneração que é dependente da densidade e da temperatura. • O fator de preenchimento indica a probabilidade de que este preencher um estado. Seu valor está comprendido entre 0 (todos vazios) e 1 (todos preenchidos). • O parâmetro de degeneração indica o grau de degeneração das partículas. Se toma valores grandes e negativos a matéria estará em um regime de gás ideal. Se está próximo a 0 a degeneração se começa a notar. Se diz que o material está parcialmente degenerado. Se o valor é grande e positivo o material está altamente degenerado. Isto acontece quando as densidades são elevadas ou também quando as temperaturas são baixas. Desta equação se podem deduzir as integrais do número de partículas, a pressão que exercem e a energia que têm. Estas integrais são possíveis de serem resolvidas analiticamente quando a degeneração é completa.
O valor da energia das partículas dependerá da velocidade das partículas a qual se decidirá se tem-se un gás relativista ou não. No primeiro caso se usarão as equações de Einstein e no segundo valerá a aproximação clássica. Como se pode ver as relações energia-pressão variam significativamente sendo maiores as pressões obtidas com a degeneração completa não 108
108
relativista. É lógico já que a matéria relativista é mais quente. • Matéria degenerada não relativista (NR):
•
Matéria degenerada extremamente relativista (ER):
As estrelas típicas com degeneração são as anãs brancas e as anãs marrons sustentadas por elétrons e as estrelas de nêutrons sustentadas por nêutrons degenerados. Se considera que sua temperatura tende a 0 já que não possuem fonte de calor alguma. Suporemos estes corpos com um parâmetro de degeneração tendente a +infinito. Gases Degenerados Gases degenerados são gases compostos de férmions que têm uma configuração particular a qual usualmente forma-se a altas densidades. Férmions são partículas subatômicas com spin fracionário (semi-inteiro ou metade de um inteiro). Seu comportamento é regulado por um conjunto de regras dentro da mecânica quântica chamadas de estatística de Fermi-Dirac. Uma regra em particular é o princípio de exclusão de Pauli que estabelece que há somente um férmion que pode ocupar cada estado quântico o qual também se aplica aos elétrons que não estão ligados a núcleos mas meramente confinados num volume fixo, tal como no interior profundo de uma estrela. Partículas como elétrons, prótons, nêutrons, e neutrinos são todos férmions e obedecem a estatística de Fermi-Dirac. Um gás de férmions, a qual toda a energia situa-se abaixo de um valor crítico, denominada energia de Fermi, está confinado é chamado um gás de férmion inteiramente degenerado. O gás de elétrons em metais e no interior de estrelas anãs brancas constituem dois exemplos de um gás de elétrons degenerado. A maior parte das estrelas são sustentadas contra sua gravidade pela pressão de gás normal. Estrelas anãs brancas são suportadas pela pressão de degeneração do gás de elétrons em seu interior. Para anãs brancas as partículas degeneradas são os elétrons enquanto para as estrelas de nêutrons são os nêutrons. No fim da vida de uma estrela, a gravidade exerce uma enorme pressão sobre seu núcleo, e o comprime até onde não possa mais por causa da pressão de degeneração. Entretanto, enquanto a velocidade média das moléculas aproxima-se (dentro da dentro da incerteza quântica) da velocidade de luz para compensar a gravidade, a conseqüente pressão de degeneração pode não ter mais ação, porque nada pode se mover mais rapidamente do que a velocidade de luz. Se a pressão de degeneração falha nisto, então os átomos desabam, são esmagados, em direção ao núcleo atômico em um gás degenerado de elétrons, e se a pressão de degeneração falha novamente, então os elétrons irão ser esmagados no núcleo com prótons vindo a se tornar nêutrons. Degeneração de Elétrons Situação nos gases ordinários Num gás ordinário, a maior parte dos níveis de energia chamados n-esferas (unicamente certos estados discretos de energia disponíveis aos elétrons) não estão preenchidos e os elétrons estão livres para mover-se. Como a densidade de partículas é crescente num volume fixo, elétrons progressivamente preenchem os mais baixos níveis de energia e elétrons adicionais são forçados a ocupar estados de alta energia. Conseqüentemente, gases degenerados fortemente resistem a adicional 109
109
compressão porque os elétrons não podem mover-se para níveis mais baixos de energia os quais já estão preenchidos devido ao princípio de exclusão de Pauli. Os elétrons degenerados são mantidos na posição porque todas as camadas de mais baixa energia estão preenchidas e então eles não podem mais se mover tão livremente como num gás normal. Mesmo que energia térmica possa ser extraida do gás, ele ainda poderá não se esfriar, desde que os elétrons não possam ceder energia por mover-se para um nível mais baixo de energia. Isto aumenta a pressão do gás de férmions denominada pressão de degeneração. Num gás degenerado a pressão média é alta o suficiente para manter o material sendo comprimido pela gravidade. Situação em altas densidades Sob altas densidades a matéria torna-se um gás degenerado quando os elétrons foram todos separados de seus átomos originais. No núcleo de uma estrela onde a queima de hidrogênio nas reações de fusão nuclear parou, transforma-se numa mistura de íons positivamente carregado, principalmente núcleos de hélio e carbono, flutuando num mar de elétrons os quais foram afastados de seus núcleos. Gás degenerado é um quase perfeito condutor de calor e não obedece as leis dos gases ordinários. Anãs brancas são luminosas não porque elas estejam gerando qualquer energia mas principalmente porque elas retém uma grande quantidade de calor. Gás normal exerce mais altas pressões quando é aquecido e se expande, mas a pressão num gás degenerado não depende da temperatura. Quando o gás torna-se super-comprimido, as partículas posicionam-se uma contra as outras produzindo gás degenerado que comportam-se mais como um sólido. Em gases degenerados as energias cinéticas dos elétrons são sempre altas e a taxa de colisão entre elétrons e outras partículas é sempre baixa, conseqüentemente elétrons degenerados podem viajar grandes distâncias em velocidades que aproximam-se da velocidade da luz. Em vez de temperatura, a pressão em um gás degenerado depende somente da velocidade das partículas degeneradas; entretanto, calor adicional não faz aumentar a velocidade. Pressão é somente aumentada pela massa de partículas as quais aumentam a força gravitacional empurrando as partículas para ainda maior proximidade. Logo, o fenômeno é oposto ao que normalmente é encontrado na matéria aonde se a massa de matéria é aumentada, o objeto torna-se maior. Em gás degenerado, quando a matéria é aumentada, a pressão é aumentada, e as partículas tornam o espaço mais restrito, então o objeto torna-se menor. Gás degenerado pode ser comprimido a densidades muito altas, valores típicos estão na escala de 107 gramas por centímetro cúbico. O limite de Chandrasekhar Há um limite superior para a massa de um objeto elétron-degenerado, o limite de Chandrasekhar, além do qual a pressão de degeneração dos elétrons não pode suportar o objeto contra o colapso. O limite é aproximadamente 1.44 massas solares para objetos com composições similares ao Sol. O limite específico desta massa muda com a composição química do objeto, como isto afeta o raio da massa do número de elétrons presentes. Objetos celestes abaixo deste limite são estrelas anãs brancas, formadas pelo colapso dos núcleos de estrelas as quais acabou o combustível. Durante o colapso, um gás degenerado de elétrons forma-se no núcleo, provendo suficiente pressão degenerativa que é comprimida até resistir ao adicional colapso. Acima deste limite de massa, uma estrela de nêutrons (suportada pela pressão da degeneração de nêutrons) ou um buraco 110
110
negro pode vir a se formar. Degeneração de Prótons Matéria suficientemente densa contendo prótons experimenta pressão de degeneração de prótons, de maneira similar a pressão de degeneração de elétrons e matéria elétron-degenerada: prótons confinados a volume suficientemente pequeno tem um máximo momento dado pelo princípio de incerteza de Heisenberg. Por causa dos prótons serem muito mais massivos que elétrons, o mesmo momento mínimo representa uma muito menor velocidade para prótons que para elétrons. Como resultado, na matéria com aproximadamente igual número de prótons e elétrons, a pressão de degeneração de prótons é muito menor que a pressão de degeneração de elétrons, e a a degeneração de prótons é usualmente modelada como uma correção das equações de estado da matéria elétron-degenerada. Degeneração de Nêutrons
111 Estrutura de uma estrela de Nêutrons As estrelas de nêutrons Degeneração de nêutrons é análoga a degeneração de elétrons e é observada nas estrelas de nêutrons, as quais são suportadas pela pressão de um gás degenerado de nêutrons. Isto acontece quando um núcleo estelar acima de 1.44 massas solares (o limite de Chandrasekhar) colapsa e não é detido pelos elétrons degenerados. Como a estrela colapsa, a energia de Fermi dos elétrons aumenta ao ponto aonde é energeticamente favorável para eles combinarem-se com prótons para produzir nêutrons (via decaimento betainverso, também denominado “neutralização” e captura de elétrons). O resultado deste colapso é uma estrela extremamente compacta composta de matéria nuclear, a qual é predominantemente um gás degenerado de nêutrons, algumas vezes chamado de neutrônio, com uma pequena mistura adicional de gases degenerados de prótons e elétrons. Comparação com o gás degenerado de elétrons Nêutrons num gás degenerado de nêutrons são distribuidos no espaço muito mais compactamente que elétrons num gás degenerado de elétrons, porque o mais massivo nêutron tem um muito mais curto comprimento de onda a uma dada energia. No caso de estrelas de nêutrons e anãs brancas, isto combina-se ao fato que as pressões no interior das estrelas de nêutrons são muito mais altas que aquelas nas anãs brancas. A pressão crescente é causada pelo fato que a compactação de estrelas de nêutrons causa forças 111
gravitacionais que são muito mais altas que em um corpo menos compacto com massa similar , resultando em uma estrela da ordem de milhares de vezes menor que uma anã branca. O limite de Tolman-Oppenheimer-Volkoff Há um limite superior para a massa de um objeto nêutron-degenerado, o limite de Tolman-Oppenheimer-Volkoff, o qual é análogo ao limite de Chandrasekhar para objetos elétron-degenerados. O limite preciso é desconhecido, como depende das equações de estado da matéria nuclear, para as quais um modelo altamente preciso não é ainda disponível. Acima deste limite, uma estrela de nêutron pode colapsar em um buraco negro, ou em outras densas formas de matéria degenerada (como a matéria quark) se estas formas existem e tem adequadas propriedades (normalmente relacionadas ao grau de compressibilidade, ou “rigidez”, descrita pelas equações de estado). Degeneração de Quarks Em densidades maiores que aquelas suportadas pela degeneração de nêutrons, espera-se que ocorra matéria quark. Algumas variações desta tem sido propostas como representantes dos estados de degeneração de quarks. Matéria estranha é um gás degenerado de quarks que é frequentemente afirmada como contendo quarks estranhos em adição aos usuais quarks up e down. Materiais “supercondutores coloridos” são gases de quarks nos quais pares de quarks organizam-se de uma maneira similar a um par de Cooper em supercondutores elétricos. As equações de estado para as várias formas propostas de matéria quark-degenerada variam grandemente, e são usualmente também pobremente definidas, devido a dificuldade em modelar as interações da força forte. Matéria quark-degenerada deve ocorrer nos núcleos de estrelas de nêutrons, dependendo das equações de estado da matéria nêutron-degenerada. Ela deve também ocorrer em hipotéticas estrelas de quarks, formadas pelo colapso de objetos acima do limite de massa Tolman-Oppenheimer-Volkoff para objetos nêutron-degenerados. Se matéria quark-degenerada formada em todas estas situações depende das equações de estado tanto de matéria nêutron-degenerada quanto de quark-degenerada, ambas as quais são pobremente conhecidas. Tipos Especulativos de Matéria Degenerada Degeneração de Preóns Préons são partículas subatômicas propostas como sendo constituintes dos quarks, as quais vêm a ser partículas compostas em modelos baseados em préons. Se préons existem, matéria préon-degenerada deve ocorrer em densidades maiores que aquelas que são suportadas por matéria degenerada de quarks. As propriedades da matéria degenerada de préons depende muito fortemente do modelo escolhido para descrever préons, e a existência de préons não é aceita pela maioria da comunidade científica, devido a conflitos entre os modelos de préons originalmente propostos e dados experimentais de aceleradores de partículas. Estuda-se igualmente, a pionização de matéria degenerada.[8] Referências 1. P. Lesaffrea, Ph. Podsiadlowskib and C.A. Tout; The convective Urca process; Nuclear Physics A Volume 758, 25 July 2005, Pages 463-466 – www.sciencedirect.com (em inglês) 2. M. P. Silverman (Trinity College), R. L. Mallett (University of Connecticut); Cosmic Degenerate Matter: Gravitational Condensation of 112
112
Ultra-Low Mass Bosons – flux.aps.org (em inglês) Pulsed coherent source of quantum degenerate gases – www.iqo.unihannover.de (em inglês) 4. Sivaram, C.; Thermal gravitational radiation from stellar objects and its possible detection; Astronomical Society of India, Bulletin, vol. 12, Dec. 1984, p. 350-356. – adsabs.harvard.edu (em inglês) 5. Lavenda, B. H.; On degenerate matter in constrained thermodynamic systems.; Hadronic J. Suppl., Vol. 12, No. 4, p. 373 – 393; 12/1997 – adsabs.harvard.edu (em inglês) 6. A. M. Khokhlov; Hugoniot adiabates for the waves of combustion in degenerate matter of supernovae; Astrophysics and Space Science; Volume 149, Number 1 / November, 1988; DOI 10.1007/BF00640469 – www.springerlink.com (em inglês) 7. Iben, I., Jr.; More on carbon burning in electron-degenerate matter – Within single stars of intermediate mass and within accreting white dwarfs; Astrophysical Journal, Part 1, vol. 253, Feb. 1, 1982, p. 248-259.; DOI 10.1086/159630 – adsabs.harvard.edu (em inglês) 8. G. S. Saakyan and L. Sh. Grigoryan; Pionization of degenerate matter; Astrophysics; Volume 13, Number 2 / April, 1977; DOI 10.1007/BF01005709 – www.springerlink.com (em inglês) Anã branca Em astronomia, anã branca é o objeto celeste resultante do processo evolutivo de estrelas de até 10 M Sol , o que significa dizer que cerca de 98% de todas as estrelas evoluirão até a fase de anã branca, entretanto, somente 6% dos objetos nas vizinhanças do Sol são anãs brancas. Estrelas com até 10 M Sol não são massivas o suficiente para que a temperatura em seu núcleo seja suficientemente alta para que possam fundir carbono em reações de nucleosíntese. Após terem se tornado gigantes vermelhas durante a fase de queima nuclear de Hélio/Hidrogênio, elas ejetarão sua camada externa, formando uma nebulosa planetária e deixando para trás, um núcleo composto praticamente de carbono e oxigênio. Embora este núcleo seja mil vezes mais luminoso que o Sol e com uma temperatura efetiva que pode chegar a 150 000 K, ele não tem uma fonte de energia adicional, e irá gradualmente irradiar sua energia e esfriar. O núcleo, sem o suporte contra o colapso gravitacional oferecido pelas reações de fusão termonucleares, torna-se extremamente denso, com uma massa típica de 0.6 M Sol contida em um volume comparável ao da Terra. O colapso gravitacional da anã branca é barrado apenas pela pressão de degenerecência eletrônica. A maior massa de uma anã branca, além da qual a pressão da matéria degenerada não pode mais suporta-la, é em torno de 1,4 M Sol . Uma anã branca com massa maior do que este limite (conhecido como limite de Chandrasekhar ) pode explodir em uma supernova. A medida que esfriam, as anãs brancas passam pelas chamadas faixas de instabilidade do diagrama HR, quando começam a pulsar, tornando-se anãs brancas pulsantes. Como as anãs brancas esfriam vagarosamente, seriam necessários centenas de bilhões de anos para que uma anã branca esfriasse o suficiente para deixar de ser visível, se transformando em anãs negras. Como a idade do universo é atualmente estimada em 13.7 bilhões de anos, elas ainda não tiveram tempo suficiente para esfriar a ponto de deixarem de ser visíveis. Mesmo as anãs brancas mais velhas do disco de nossa galáxia ainda estão visíveis, com luminosidades acima de 3×10-5L Sol e temperaturas superficiais 3.
113
113
efetivas da ordem de 3700 K. Formação
Nebulosa planetária NGC 3132. No centro, pode-se ver uma anã branca. Todas as estrelas com até 10 M Sol terminarão como anãs brancas, depois de todo o hidrogênio que elas possuem ter sido queimado em hélio. Próximo do fim deste estágio de queima nuclear, essas estrelas passam por uma fase de gigante vermelha e então ejetam a maior parte de suas camadas superficiais, criando uma nebulosa planetária envolta do núcleo quente (T > 100 000 K), o qual irá se transformar em uma jovem anã branca que brilha por causa de seu calor residual. Uma anã branca típica tem cerca de 0.6 massas solares, com um tamanho algumas vezes maior que a Terra, o que faz das anãs brancas uma das formas mais densas de matéria (em média 109 kg/cm3; em alguns casos, pode chegar a 10.000 kg/cm3!), superadas apenas pelas estrelas de nêutrons, buracos negros, e pelas hipotéticas estrelas de quarks. Quanto maior a massa de uma anã branca, menor seu tamanho. Existe um limite máximo para a massa de uma anã branca, o limite de Chandrasekhar (cerca de 1.4 vezes a massa do Sol). Se esse limite é excedido, a pressão exercida pelos elétrons deixa de ser suficiente para contrabalançar a força gravitacional, e a estrela colapsa para uma estrela de nêutrons. Anãs brancas de carbono/oxigênio evitam esta fatalidade através de uma reação de fusão nuclear que leva a uma explosão de supernova de tipo Ia, antes de atingir o limite de massa. A pesar deste limite, a maioria das estrelas termina suas vidas como anãs brancas, desde que elas tendem a ejetar mais massa no espaço antes do colaps final, frequentemente gerando uma espetacular nebulosa planetária. É por causa disso que mesmo estrelas mais massivas, com 8 M Sol terminarão como anãs brancas, esfriando gradualmente até tornarem-se anãs negras. Características Muitas anãs brancas são aproximadamente do tamanho da Terra, tipicamente 100 vêzes menor que o diâmetro do Sol; sua massa média está entre 0.5-0.6 massas solares, apesar de existir uma pequena variação. Seu estado condensado implica que a mesma quantidade de matéria está compactada em um volume tipicamente 1 milhão de vêzes menor que o do Sol, o que faz com que sua densidade média 1 milhão de vêzes maior que a desnsidade média do Sol. Nestas condições, a matéria está em um estado degenerado. Matéria degenerada comporta-se de um modo levemente contra-intuitivo; por exemplo, quanto maior é a massa de uma anã branca, menor ela será e maior será sua densidade. Nos anos de 1930, isto foi explicado através da mecânica quântica: o peso de uma anã branca é suportado pela pressão de 114
114
degenerescência eletrônica, o qual depende da densidade e não da temperatura. O modelo do gás de Fermi nos ajuda a compreender melhor este efeito. Se, para todas as estrelas observadas, for feito um diagrama do brilho (absoluto) contra a cor (diagrama de Hertzprung-Russel ou diagrama HR), nem todas as combinações de brilho e cor ocorrem. Poucas estrelas estão na região baixo-brilho-cor-quente (as anãs brancas), mas a maioria das estrelas seguem uma faixa, chamada seqüência principal. Estrelas de baixa massa da seqüência principal são pequenas e frias. Elas são avermelhadas e são chamadas de anãs vermelhas ou (ainda mais frias), anãs marrons. Essas pertence a uma classe de corpos celestes inteiramente diferente da classe das anãs brancas. Em anãs vermelhas, como em todas as estrelas da seqüência principal, a pressão que contrabalança a força gravitacional, é causada pelo movimento térmico do gás. A pressão obedec e a lei dos gases ideiais. Uma outra classe de estrelas é chamada gigantes: estrelas na parte de alto-brilho no diagrama HR. São estrelas infladas pela pressão de radiação e são muito grandes. História das descobertas A primeira anã branca descoberta foi a companheira da estrela Sírius (α Canis Majoris), a estrela mais brilhante do céu. Em 1844, Friedrich Wilhelm Bessel (1784-1846) analisando perturbações no movimento próprio de Sírius, concluíu que Sírius possuiria uma companheira que não podia ser observada com seu telescópio, mas com a qual formaria um sistema binário. Bessel estimou que o período orbital do sistema seria da ordem de 100 anos. Somente em 31 de janeiro de 1862, Alvan Graham Clark Jr. (1832-1897), enquanto testava um novo telescópio refrator de 37 cm de diâmetro, descobriu uma estrela próxima de Sírius, uma estrela fraca de magnitude 8, que até então nunca havia sido observada. Era a companheira de Sírius, cuja existência Bessel havia predicto. A companheira de Sírius a ser chamada de Sírius B (enquanto Sírius passou a ser chamadada e Sírius A).
Perturbações no movimento próprio de Sírius A, devido à Sírius B.
Uma impressão artística de Sírius A (maior) e de Sírius B (menor). Sírius B foi 115
115
a primeira anã branca descoberta. (Credit:NASA) Em 1914, o americano (nascido na Síria) Walter Sydney Adams (1876-1956), analisou o espectro de Sírius B e descobriu que sua baixa luminosidade e sua alta temperatura efetiva indicavam um raio de 18 000 km, ou seja, duas vezes e meia o raio da Terra, mas tendo a mesma massa do Sol. Sua densidade média era altíssima: 150 000 vezes a densidade da água. Era o objeto mais denso conhecido até então. Por causa de seu pequeno tamanho e da cor branca de sua luz, esta estranha estrela foi chamada de anã branca. Até 1917 outras duas estrelas com as mesmas características de Sírius B foram descobertas: 40 Eridani B e van Maanen 2, esta última descoberta por Adriaan van Maanen (1884-1946), sugerindo a existência de uma classe de objetos que passou a ser chamada de anãs brancas. A alta densidade da matéria condensada que formava as anãs brancas permaneceu como um desafio para a Física moderna até que em 1939, Subrahmanyan Chandrasekhar (1910-1995) desenvolveu uma teoria rigorosa descrevendo a estrutura dessas estrela. Chandrasekhar propôs que a pressão que suporta tão altas densidades é a pressão de degenerescência eletrônica decorente do princípio da incerteza de Heisenberg e do princípio de exclusão de Pauli, segundo o qual dois elétrons de mesmo spin não podem ocupar o mesmo nível de energia. O elétrons têm momenta e energia cinéticas tão altos (muito maiores do que indicaria sua energia térmica) e contrabalançam o colapso gravitacional. Por esta razão, anãs brancas (e estrelas de nêutrons também) são chamados de objetos degenerados. Atualmente, mais de 10000 anãs brancas são conhecidas. Classificação Espectral O sistema de classificação espectral de anãs brancas que vem sendo utilizado atualmente foi proposto em 1983 e utiliza uma combinação de símbolos: • um D (maiúsculo) para indicar que se trata de um objeto degenerado; • uma letra maiúscula indicando o tipo espectroscópico primário ou dominante; • uma letra maiúscula, opcional, indicando alguma característica espectroscópica secundária, se presente no espectro da estrela; • uma letra maiúscula, também opcional, indicando alguma característica peculiar da estrela(P=estrela polarizada; H=estrela magnética sem polarização detectável; V=estrela variável; X=espectros peculiáres ou inclassificáveis) • um índice de temperatura de 0 a 9, opcional. Os três últimos símbolos são opcionais. O segundo e terceiro símbolos dão informações sobre a composição química superficial da estrela, a partir das linhas espectrais: • DA = somente linhas de Balmer; ausência de He I e metais; • DB = linhas de He I; ausência de hidrogênio e metais; • DC = espectro contínuo, nenhuma linha mais profunda que 5%; • DO = fortes linhas de H II; presença de He I ou H; • DZ = algumas linhas de metais (especialmente Ca); nenhum He ou H; • DQ = linhas de carbono (atômico ou molecular); • DBA = atmosferas com predominância de He e traços de H; • DAB = linhas fracas de He I em um espectro com linhas de Balmer; Uma anã branca DA1, por exemplo, apresenta apenas linhas [H I] em seu espectro e uma temperatura efetiva de 30000 K. Já uma anã branca classificada como DBAP3, é uma anã branca magnética, polarizada, com 116
116
linhas de hélio e hidrogênio, mas com predominância de hélio, em seu espectro e uma temperatura efetiva da ordem de 20000 K. No que diz respeito à abundância química superficial, as anãs brancas podem ser divididas em dois grandes grupos: • as que possuem atmosferas formadas essencialmente por hidrogênio puro (DAs), e que constituem cerca de 80% de todas as anãs brancas; e • as que possuem atmosferas formadas essencialmente por hélio puro (DOs e DBs) que representam os 20% restantes. Uma pequena porcentagem das anãs brancas correspongem aos demais tipos espectrais (DBAs, DABs, DCs, DQa, DZs). Relação Massa-Raio
117
Relação massa-raio. Note que quanto maior a massa, menor é o raio. Para encontrar a relação entre a massa de uma anã branca e seu raio, partimos da condição de equilíbrio hidrostático:
onde é a taxa de variação na pressão em função do raio G é a constante gravitacional M(r) é a massa contida dentro de um raio específico, r ρ(r) é a densidade como uma função do raio. A derivação mostrará que anãs brancas de mais altas massas têm raios menores. Começamos fazendo uma estimativa aproximada para a densidade média, simplesmente dividindo a massa da anã branca por seu volume:
Colocando isto na equação do equilíbrio hidrostático e integrando ambos os lados, obtemos uma equação para a pressão na região central da estrela:
Para um gás degenerado (do que são feitas as anãs brancas), a pressão é também proporcional à densidade: Igualando as duas equações para a pressão: 117
Finalmente, chegamos a uma relação entre a massa de uma anã branca e seu raio. Reescrevendo a equação para se ver mais claramente, temos: , isto é, o raio da anã branca é proporcionao ao inverso da raiz cúbica de sua massa. Quanto maior for a massa de uma anã branca, menor será seu raio. (Este resultado não leva em conta correções relativísticas). Nucleossíntese estelar A nucleossíntese estelar é o conjunto de reações nucleares que tem lugar nas estrelas para fabricar elementos mais pesados. (Para informação sobre outros processos de sínteses de elementos ver nucleossíntese) Estes processos começaram a ser entendidos em princípios do século XX quando ficou claro que só as reações nucleares podiam explicar a grande longevidade da fonte de calor e luz do Sol. Aproximadamente 90% da energia produzida pelas estrelas viria das reações de fusão do hidrogênio convertido em hélio. Mais de 6% da energia gerada viria da fusão do hélio em carbono. O restante de fases de combustão apenas contribuiriam de forma apreciável à energia emitida pela estrela ao longo de toda sua vida. História Anos 20 Em 1920, Arthur Eddington, baseando-se nas precisas medições dos átomos realizadas por F.W Aston, foi o primeiro a sugerir que as estrelas obtinham sua energia a partir da fusão nuclear do hidrogênio em hélio. Em 1928, George Gamow deduziu o chamado fator de Gamow, uma fórmula mecânicoquântica que dá a probabilidade de encontrar uma temperatura determinada dos núcleos suficientemente próximos como para que possam atravessar a barreira coulombiana. O fator de Gamow foi usado nesta década pelo astrônomo inglês Atkinson e o físico austríaco Houtermans e mais tarde pelo próprio Gamow e por Teller para calcular o rítmo com que as reações nucleares se produziam nas altas temperaturas existentes nos interiores estelares. Anos 30 Em 1939, em um artigo titulado “Energy Production in Stars“, o estadounidense Hans Bethe analizou as diferentes possibilidades para que se desse a fusão do hidrogênio a hélio. Selecionou dos processos que ele criou os que deviam ser a principal fonte de energia das estrelas. O primeiro deles foi as cadeias próton-próton, que são as reações dominantes em estrelas pequenas com massas não muito maiores que a do Sol. O segundo processo foi o ciclo carbono-nitrogênio-oxigênio, o qual foi também tratado independe e simultaneamente pelo alemão Carl Friedrich von Weizsäcker em 1938, este grupo de reações é o mais importante nas estrelas massivas e é igualmente equivalente à fusão de quatro prótons para formar um núcleo de hélio-4. Hoyle Estes trabalhos explicaram a geração de energia capaz de manter as estrelas quentes. Eles não explicavam a variação de núcleos mais pesados, entretanto. Mais tarde, foram adicionados importantes detalhes à teoria de 118
118
Bethe. Esta teoria foi iniciada por Fred Hoyle em 1946 com seu argumento qie uma conjunto de núcleos muito quentes estavam relacionados ao ferro.[1] Hoyle seguiu em 1954 com um grande artigo estabelecendo como estágios avançados de fusão dentro das estrelas sintetizariam elementos entre o carbono e ferro em quantidade. Artigo B²FH e posteriormente Rapidamente, muitas omissões da teoria de Hoyle foram adicionadas. Por exemplo, iniciando quando somou-se um importante avanço com a publicação de um relevante e celebrado artigo de revisão em 1957, por Burbidge, Burbidge, Fowler e Hoyle (comumente referido como o artigo B²FH).[2] Este trabalho posterior reunia e refinava pesquisas primordiais em um quadro amplo que apresentava confiavelmente a explicação, um marco coerente, para a relativa abundância observada dos elementos. Significativas melhorias foram apresentadas por A. G. W. Cameron e por Donald D. Clayton. Cameron apresentou sua própria abordagem independente (seguindo Hoyle) da nucleossíntese. Ele introduziu computadores nos cálculos dependentes de tempo da evolução de sistemas estelares. Clayton calculou os primeios modelos dependentes de tempo do processo s, o processo r, a queima de silício em elementos do grupo do ferro, e descobriu cronologias para determinar a idade dos elementos. Este campo inteiro de pesquisas expandiu-se rapidamente nos anos 1970. Reações importantes As reações mais importantes na nucleosíntese estelar são: • Queima do hidrogênio: o A cadeia próton-próton o O ciclo CNO • Queima do hélio: o O processo triplo-alfa • Queima de metais: o Processo de combustão do carbono o Processo de combustão do neônio o Processo de combustão do oxigênio o Processo de combustão do silício • Produção de elementos mais pesados que o ferro: o Captura de nêutrons: O processo-R O processo-S o Captura de prótons: O processo-P Queima de metais
119
119
O pico do ferro marca o final da vida das estrelas. Como se vê no diagrama o rendimento a cada nova etapa de fusão disminui rapidamente. Chegando ao ferro esse rendimento é negativo e as reações de fusão se detém. Se ao esgotar-se o hélio no núcleo da estrela, a massa da estrela é suficientemente grande, o núcleo será capaz de comprimir-se e aquecer-se o suficiente para empreender a fase seguinte de fusão do carbono. Haverá, pois, duas novas camadas de fusão, uma de hélio e outra de hidrogênio em cima desta. Tal e como ocurria na transformação em supergigante vermelha, agora a pressão exercida por essas novas camadas fará que a cobertura externa da estrela se expanda outra vez. As massas mínimas para estes processos não estão bem determinadas já que se desconhecem bastante os ritmos de reação, as seções eficazes e os ritmos de expulsão de massa por vento estelar das estrelas mais massivas. O início das reações do carbono se situam indicativamente em um mínimo de 8 massas solares mas poderia produzir-se a menores massas. Se pode assegurar que com essa massa se chega a queimar o carbono mas o mínimo real talvez esteja entre 4 e 8. Pelo que diz respeito aos demais ciclos aqui os dados são todavia mais incertos ainda que se possa afirmar que uma estrela de mais de 12 vezes a massa do Sol deveria passar por todas as fases de combustão possível até chegar ao ferro. A medida que se somam fases de combustão se adicionam mais camadas de fusão formando uma espécie de núcleo com estrutura de cebola. Deveriam produzir-se trocas a cada fase mas a do carbono é a última que dura um tempo significativo pelo que as demais etapas de combustão não modificam significativamente a constituição da estrela porque ocorrem tão rápido que não dá tempo à estrela de adaptar-se a cada nova situação. Assim, a etapa de supergigante vermelha é, realmente, a última transformação significativa, após ela, e em posteriores fases de combustão, a estrela se tornará cada vez mais instável convertendo-se, muito provavelmente, em uma variável antes de seu destino final como objeto compacto. Combustão do carbono ( > 8 MSol )
Terminada a fusão do hélio o núcleo volta a comprimir-se e a elevar sua temperatura. Dos três elementos que majoritariamente compõe o núcleo neste estágio, carbono e oxigênio em 90% mais um pouco de neônio, é o carbono o que tem a temperatura de fusão mais baixa, uns 600 milhões de graus (6·108 K). Ao chegar a esta temperatura e a uma densidade de uns 2×108 kg/m3, os átomos de carbono começam a reagir entre si dando lugar a diversos elementos mais pesados através de uma série de canais de saída distintos. A duração desta etapa será da ordem de umas centenas de anos podendo chegar aos 1000 anos. As reações mais prováveis são as que ocorrem mais posteriormente no diagrama. A do sódio-23 tem uns 56% de ocorrência e a do neônio-20 uns 44%. Os prótons e as partículas alfa emitidas em tais reações serão rapidamente recapturadas pelo carbono, o oxigênio, o neônio e o próprio sódio. Estas reabsorções têm efeitos energéticos 120
120
significativos mas quanto à nucleosíntesis assim como são as que farão que o sódio não esteja presente entre os elementos residuais da combustão do carbono. O mesmo diz respeito ao oxigênio, que ainda que se forme pouco, se soma ao que já havia sido formado durante o processo triplo alfa. Tudo isto fará que resulte num núcleo de oxigênio-16, neônio-20, magnésio-24 e alguns traços de silício-28. A composição das cinzas desta etapa é fundamentalmente a seguinte: Frações de massa: Fotodesintegração do neônio Terminado o carbono do núcleo central este volta a contrair-se até chegar à temperatura de 1,2·109 K, momento no qual volta a deter-se o colapso durante uns pouos anos, uma década mo máximo. A essas temperaturas os fótons irradiados pelo centro do núcleo são tão energéticos que logram fotodesintegrar o neônio-20. Este processo ainda que seja endotérmico (consome energia) consegue que de seus subprodutos se derive outra reação que sem é exotérmica. O balanço global de ambos processos é positivo e o resultado é que a estrela logra sustentar-se aunda resulte em neônio por fotodesintegração no núcleo.
Como se vê nas reações adjuntas, as cinzas desta fase serão as mesmas que na anterior menos o neônio que haverá consumido. Se incrementará a quantidade de oxigênio e magnésio à vez que seguem criando-se novas camadas de fusão. Agora, a parte do núcleo de combustão de neônio há uma camada de carbono, outra de hélio e uma de hidrogênio. Os ventos solares são já muito intensos e desprendem grandes quantidades do hidrogênio mais externo pouco ligado já à estrela. Combustão do oxigênio
Finalizada a etapa do neônio o núcleo da estrela se volta a quecer econtrair até 1,5 a 2·109 K e 107 g/cm³ temperatura e densidade a partir das quais se alcança a ignição do oxigênio. A reação de fusão nuclear do oxigênio produz diversos canais de saída, uns mais prováveis que outros, do mesmo modo que ocorria na fusão do carbono. A etapa dura uns poucos meses, quiçá um ano, e suas cinzas são sobretudo silício-28 acompanhado de silício-30, enxofre-34, cálcio-42 e titânio-46. Muitos destes elementos são subproductos das reações com prótons, nêutrons ou alfas recapturados. As três reações mais prováveis são as que estão retratadas. Resultará enxofre-31 uns 18% das vezes fósforo31 uns 61% e silício-28 uns 21%. Fotodesintegrção e combustão do silício
121
121
Camadas de combustão em uma estrela agonizante em seus últimos momentos antes do colapso final. Quando o núcleo alcança os 2,7·109 K e 3·107 g/cm³ se procede a incineração do silício em um conjunto de complexas reações que sustentam por um pouco mais de um dia a estrela. Uma parte do silício-28 recebe o impacto de fótons ultraenergéticos que o rompem em outros isótopos como silício-27 ou magnésio-24. No processo se reemitem grande quantidade de prótons, nêutrons e partículas alfas que em seguida são recapturados cada vez por átomos mais pesados em uma aproximação assintótica até o pico do ferro. Assim mesmo, o silício também alcança temperaturas de fusão que o levam a formar níquel-56 que posteriormente se degrada até o ferro-56, elemento final a partir do qual a fusão nuclear deixa de ser uma reação rentável e exotérmica, alcançándo-se finalmente o equilíbrio estatístico nuclear (Fe56+Ni56). Chegados a este ponto a já muito convulsiva estrela não poderá sustentar-se mais por si mesma.
Referências F. Hoyle (1946). “The synthesis of the elements from hydrogen”. Monthly Notices of the Royal Astronomical Society 106: 343-383. 2. E. M. Burbidge, G. R. Burbidge, W. A. Fowler, F. Hoyle (1957). “Synthesis of the Elements in Stars”. Reviews of Modern Physics 29 (4): 547650. DOI:10.1103/RevModPhys.29.547. • Bethe (1939). “Energy Production in Stars”. Physical Reviews 55 (1): 103. DOI:10.1103/PhysRev.55.103. (subscription needed) • Bethe (1939). “Energy Production in Stars”. Physical Reviews 55 (5): 434-456. DOI:10.1103/PhysRev.55.434. (subscription needed) • Hoyle (1954). “On Nuclear Reactions occurring in very hot stars: Sysnthesis of elements from carbon to nickel”. Astrophys. J. (Supplement 1): 121-146. • Clayton, Donald D. (1968). Principles of Stellar Evolution and Nucleosynthesis. New York: McGraw-Hill. • Alak K. Ray (2004) Stars as thermonuclear reactors: their fuels and ashes (arxiv.org article) • Wallerstein; I. Iben Jr.; P. Parker; A.M. Boesgaard; G.M. Hale; A. E. Champagne; C.A. Barnes; F. Käppeler; V.V. Smith; R.D. Hoffman; F.X. Timmes; C. Sneden; R.N. Boyd; B.S. Meyer; D.L. Lambert (1999). “Synthesis of the elements in stars: forty years of progress” (pdf). Reviews of Modern Physics 69 (4): 995-1084. Página visitada em 2006-08-04. • Woosley; A. Heger; T. A. Weaver (2002). “The evolution and explosion of massive stars”. Reviews of Modern Physics 74 (4): 1015-1071. • Clayton, Donald D. (2003). Handbook of Isotopes in the Cosmos. Cambridge: Cambridge University Press. Processo de combustão do carbono O processo de combustão do carbono é uma reação nuclear de fusão que se dá em estrelas massivas (com no mínimo 4 MSol desde seu nascimento) que já tenham usado todos os elementos químicos mais leves em processos de fusão nuclear em seu núcleo. Para isto se requerem temperaturas de 6×108 K e densidades de 2×108 kg/m3. As principais reações são: 1.
122
122
12
C + 12C
12
C+ C 12 C+ 12 C 12 C+ 12 C 12
→ → → → →
24
Mg + γ Mg + n 23 Na + 1H 20 Ne + 4He 16 O + 2 4He 23
Energias produzidas e absorvidas 20
Ne + 4He + 4.617 MeV
→
23
Na + 1H + 2.241 MeV
→ 23
Mg + n – 2.599 MeV (endotérmica) (citado como -0.70 MeV [1]) Alternativamente, com menor probabilidade 12 12 24 C+ C Mg + γ + 13,93 MeV [1] → 12 12 16 4 C+ C O + 2 He -0.48 MeV (endotérmica)[1] → 12 12 16 C+ C O + 8Be -0.208 MeV (endotérmica)[2] → Enquanto está em fusão o hélio, a estrela cria um núcleo inerte de carbono e oxigênio. Uma vez esgotado o hélio no núcleo por ser transmutado em carbono, este se colapsa devido ao encerramento das fusões de hélio, que existiam em equilíbrio com a gravidade, ainda que as camadas superiores se expandam. O volume no núcleo diminui, como conseqüência aumenta a densidade e temperatura do núcleo aos níveis necessários para que o carbono possa entrar em fusão. Uma vez começada a combustão do carbono a temperatura no núcleo da estrela se eleva mais ainda permitindo que o hidrogênio e o hélio situados nas camadas superiores, entre novamente em combustão. Em consequência destes processos, aumenta o tamanho da estrela. Ao fundir-se o carbono, os produtos da reação (O, Mg, Ne) se acumulam em um novo núcleo inerte. Depois de uns tantos milhares de anos, o núcleo transmutado se esfria e se contrai novamente. Esta contração eleva de novo a temperatura e a densidade permitindo que o neônio possa fundir-se (ver processo de combustão do neônio). Estas novas temperaturas permitem ademais que haja camadas de carbono, hélio e hidrogênio, externas ao núcleo, que entrem em fusão também. Para temperaturas da ordem de 0,8 a 1,0 bilhões de K, a combustão do carbono processa-se em equilíbrio hidrostático. Para temperaturas maiores que 2 bilhões de K a combustão ocorre em escala hidrodinâmica. Na explosão, o choque aquece a matéria ainda não queimada, iniciando a combustão e acelerando-a. O material queimado expande e esfria, interrompendo as reações termonucleares.[2] Neste ponto, estrelas com massas entre 4 e 8 vezes a massa do sol se desestabilizam e expulsam as camadas exteriores, restando uma anã branca. Estrelas ainda mais massivas podem proceder com o processo de combustão do oxigênio e subseqüentemente com o processo de combustão do silício. Desenvolvimentos Tem-se estudado numericamente o efeito da convecção na combustão hidrostática do carbono em núcleos degenerados com massa de 1,4 MSol.[3] Diversas implicações deste processo estelar tem sido estudados, inclusive, sua importância nos raios cósmicos, especialmente nas reações 12C(α, γ)16O e →
123
123
a fusão 12C + 12C.[4] Examinam-se a possibilidade de anomalias isotópicas para elementos pesados em meteoritos serem sintetizados em captura de nêutrons durante combustão de carbono explosivas.[5] Referências 1,0 1,1 1,2 1. Fusion of Carbon and Oxygen – www.astrophysicsspectator.com (em inglês) 2,0 2,1 Queima do Carbono – astro.if.ufrgs.br 2. 3. A. D. Kudryashov, V. A. Shcherbatyuk and E. V. Ergma; The effect of convection on the process of carbon burning in a degenerate core; Astrophysics and Space Science; Volume 66, Number 2 / December, 1979; DOI 10.1007/BF00650013 – www.springerlink.com (em inglês) 4. F. Strieder; Reaction data in helium and carbon burning; 2008 J. Phys. G: Nucl. Part. Phys. 35 014009; DOI 10.1088/0954-3899/35/1/014009 – www.iop.org (em inglês) 5. Lee, T. ; Schramm, D.N., Wefel, J.P., Blake, J.B.; Isotopic anomalies from neutron reactions during explosive carbon burning; Astrophys. J. ; Vol/Issue: 232:3 1979 Sep – www.osti.gov (em inglês) Processo de combustão do oxigênio O processo de combustão do oxigênio é uma reação de fusão nuclear que ocorre em estrelas massivas que tenham usado os elementos mais leves em seus núcelos. Ele ocorre a 1.5×109 K e densidades de 1010 kg/m3. As principais reações são: 16 16 28 O+ O Si + 4He + 9.594 MeV → 31 P + 1H + 7.678 MeV → 31 S + n + 1.500 MeV → 30 Si + 21H + 0.381 MeV → 30 P + 2D – 2.409 MeV → Alternativamente 16 32 O + 16O S+γ → 24 Mg + 24He → Com o processo de combustão do neônio um núcleo interno de O-Mg formase no centro da estrela. Como a combustão de neônio se encerra, o núcleo contrái-se e aquece-se até o ponto de ignição da combustão de oxigênio. Em aproximadamente seis meses a um ano a estrela consome seu oxigênio, acumulando um novo núcleo rico em silício. Este núcleo é inerte porque não é quente o suficiente. Uma vez que o oxigênio está exaurido, o núcleo esfria e se contrai. Esta contração o aquece ao ponto que o processo de combustão do silício entra em ignição. Externamente a este processo, há uma camada de oxigênio em combustão, seguida por uma camada de neônio, uma camada de carbono, uma camada de hélio e a camada de hidrogênio. Processo de combustão do neônio O processo de combustão do neônio é um tipo de fusão nuclear que só ocorre em estrelas massivas (pelo menos 8 MSolar). A combustão do neônio requer altas temperaturas e densidades de aproximadamente 1.2×109 K e 4×109 kg/m3. A tais temperaturas a fotodesintegração se converte em um efeito significativo, algumas partículas de neônio se decompõe, liberando partículas alfa assim: 20 Ne + γ → 16O + 4He 124
124
Estas partículas alfa podem ser recicladas para produzir magnésio-24: 20 Ne + 4He → 24Mg + γ Ou, alternativamente: 20 Ne + n → 21Ne + γ 21 Ne + 4He → 24Mg + n Onde o nêutron consumido no primeiro passo é regenerado no segundo. A combustão do neônio toma lugar após a combustão do carbono ter consumido todo o carbono do núcleo e forma-se um novo núcleo de oxigênio/neônio/magnésio. O núcleo se esfria, a pressão gravitacional o comprime, aumentando a densidade e temperatura até o ponto de ignição da combustão de neônio. Durante a combustão de neônio, oxigênio e magnésio acumulam-se no núcleo central enquanto o neônio é consumido. Após uns poucos anos a estrela consome todo seu neônio e o núcleo esfria mais uma vez. Conseqüentemente, a pressão gravitacional toma lugar e comprime o núcleo central, aumentando sua densidade e temperatura até o processo de combustão do oxigênio poder começar. Estudam-se a formação de alumínio-26 e emissão e observação astronômica de raios gama em combustões de neônio explosivas, durante os processos de combustão do carbono.[1] Igualmente, estuda-se os processos de combustão de neônio nas estrelas de massas acima de 4 massas solares onde já estabeleceu-se a combustão do oxigênio.[2] Estuda-se a combustão de neônio em camadas externas ao núcleo de matéria degenerada.[3] Os processos nucleares finais de estrelas massivas incluindo a combustão de neônio, passando pela combustão de hélio e demais processos de núcleos mais leves, são importantes na formação de binários e estrelas de nêutrons duplas.[4] Um campo de pesquisa é o processo de combustão do neônio e outros em estrelas supermassivas, com massas acima de 60 massas solares.[5] A importância da combustão do neônio na emissão de raios cósmicos também é campo de estudos.[6] Referências 1. Woosley, S. E., Weaver, T. A.; Explosive neon burning and Al-26 gamma-ray astronomy; Astrophysical Journal, Part 1, vol. 238, June 15, 1980, p. 1017-1025. – adsabs.harvard.edu (em inglês) 2. Arnett, W. D.; Advanced evolution of massive stars. V – Neon burning; Astrophysical Journal, vol. 193, Oct. 1, 1974, pt. 1, p. 169-176. – adsabs.harvard.edu (em inglês) 3. Claudio Ritossa, Enrique García-Berro and Icko Iben, Jr.; On the Evolution of Stars that Form Electron-degenerate Cores Processed by Carbon Burning. V. Shell Convection Sustained by Helium Burning, Transient Neon Burning, Dredge-out, Urca Cooling, and Other Properties of an 11 M Population I Model Star; The Astrophysical Journal, 515:381-397, 1999 April 10 – www.journals.uchicago.edu (em inglês) 4. J. D. M. Dewi, O. R. Pols; The late stages of evolution of helium starneutron star binaries and the formation of double neutron star systems; Mon. Not. R. Astron. Soc. 000, 1-16 – arxiv.org (em inglês) 5. M.F. El Eid, N. Prantzos and N. Langer; Advanced phases and nucleosynthesis in very massive stars; Lecture Notes in Physics; Volume 287/1987 – www.springerlink.com (em inglês) 6. B. S. Meyera, N. Luoa, L. -S. Thea and M. F. El Eid; Nucleosynthesis and composition at the cosmic ray source; Advances in Space Research; Volume 19, Issue 5, 1997 – www.sciencedirect.com (em inglês) 125
125
Neutrônio Neutrônio, também chamado de “elemento zero”, é um termo que foi criado pelo professor Andreas von Antropoff em 1926, que usou esse elemento como centro de sua tabela periódica. O neutrônio consiste em uma substância sem prótons, munida apenas de nêutrons. Foi usado por temos na ficção científica e na literatura popular para se referir a uma fase da matéria extremamente densa. O sentido do termo mudou, e a partir da segunda metade do século XX passou a ser usado legitimamente para referir-se à partículas localizadas nos centros das estrelas de nêutrons. Condensado fermiônico Esta nova descoberta complementa a descoberta do condensado de BoseEinstein, que rendeu o Prêmio Nobel de Física de 2001 aos Drs. Eric Cornell e Carl Wieman. O condensado de Bose-Einstein é uma coleção de milhares de partículas ultra-frias ocupando um único estado quântico, ou seja, todos os átomos se comportam como um único e gigantesco átomo. Os condensados de Bose-Einstein são feitos de bósons, uma classe formada por partículas que são essencialmente gregárias: ao invés de se moverem sozinhas, elas adotam o movimento de suas vizinhas. Ao contrário dos bósons, os férmions – a outra metade da família de partículas e blocos básicos com os quais a matéria é construída – são essencialmente solitários. Por definição, nenhum férmion poderá estar exatamente no mesmo estado quântico que outro férmion. Conseqüentemente, para um físico, mesmo o termo “condensado fermiônico” é um paradoxo. Por décadas, os físicos vêm propondo que a supercondutividade (que envolve férmions) e o condensado de Bose-Einstein estão intimamente relacionados. Eles propõem que o condensado de Bose-Einstein e a supercondutividade seriam dois extremos de um mesmo comportamento superfluídico, um estado incomum no qual a matéria não apresenta resistência ao fluxo. O hélio líquido superfluídico, por exemplo, quando colocado no centro de um compartimento aberto irá espontaneamente fluir para os dois lados do compartimento. A temperatura na qual os metais e ligas se tornam supercondutores depende da intensidade da “interação emparelhada” entre seus elétrons. A temperatura mais alta que se conhece na qual ainda ocorre a supercondutividade é de -135º C.[carece de fontes?] Na experiência que os cientistas agora fizeram, um gás com 500.000 átomos de potássio foi resfriado até 50 bilionésimos de grau acima do zero absoluto e então submetido a um campo magnético. Esse campo magnético fez com que os férmions se juntassem em pares, de forma semelhante aos pares de elétrons que produzem a supercondutividade, o fenômeno no qual a eletricidade flui sem resistência. A equipe da Dra. Jin detectou o emparelhamento e verificou a formação do condensado fermiônico pela primeira vez no dia 16 de Dezembro de 2003. Plasma de quarks-glúons
126
126
Um QGP é formado no ponto do choque de dois íons de ouro relativisticamente acelerados no centro do detector STAR no Colisor de Íons Relativamente Pesados (RHIC) no Laboratório Nacional Brookhaven, Estados Unidos. O plasma de quark-glúons (PQG ou QGP do inglês quark-gluon plasma) é uma fase da cromodinâmica quântica (QCD, do inglês quantum chromodynamics) que existe quando a temperatura e/ou a densidade são muito altas. Este estado se compõe de quarks e glúons (quase) livres que são os componentes básicos da matéria. Crê-se que existiu durante os primeiros 20 a 30 microsegundos depois de que o universo nascera no Big Bang. Os experimentos no SPS (Super Proton Synchrotron) do CERN trataram primeiro de criar QGP nas décadas de 80 e 90, e pode haver sido parcialmente conseguido [1]. Atualmente, experimentos no Colisor de Íons Relativamente Pesados (RHIC) no Laboratório Nacional Brookhaven (Estados Unidos) continuam este esforço [1]. Três novos experimentos tem sido levados a cabo no Grande Colisor de Hádrons (LHC) do CERN, ALICE[2], ATLAS e CM, continuando com o estudo das propriedades do QGP. Introdução geral O QGP contém quarks e glúons, como a matéria hadrônica normal. A diferença entre estes dois estados da QCD é a seguinte: Na matéria normal cada quark ou bem se emparelha com um anti-quark para formar um méson ou se une com outros dois quarks para formar um bárion (tal como o próton e o nêutron). Na QGP, por outro lado, estes mésons e bárions perdem sua identidades e fazem uma massa muito maior de quarks e glúons [3]. Na matéria normal os quarks estão confinados; os quarks de QGP estão desconfinados. Sua definição como um plasma Um plasma é matéria na qual as cargas são distribuídas (conforme o comprimento de Debye) permitindo a presença de outras cargas móveis; por exemplo: a Lei de Coulomb é modificada a permitir uma carga dependente da distância. Na QGP, a cor dos quarks e glúons é distribuida. A QGP tem outras analogias com o plasma normal. Existem também diferenças devido ao fato que cor é não-abeliana, enquanto a carga elétrica é abeliana. O estudo teórico Uma conseqüência desta diferença em relação ao plasma “convencional” é que a carga de cor é muito maior para os cálculos da teoria perturbacional os quais são o método principal da eletrodinâmica quântica. Como resultado, a principal ferramente teórica para explorar a teoria do PQG é teoria do retículo gauge. A temperatura de transição (aproximadamente 175 MeV) foi primeiramente predita pela teoria do retículo de gauge. Desde que a teoria do retículo de gauge tem sido usada para predizer muitas outras propriedades deste tipo de matéria. Uma correspondência AdS/CFT é agora uma nova conjectura de interesse permitindo introspecções dentro em QGP. Sua criação em laboratório O QGP pode ser criado aquecendo a matéria até uma temperatura de 175 MeV. Isto se pode fazer no laboratório fazendo colidir dois núcleos grandes com alta energia. Chumbo e ouro têm sido utilizados para fazer isto no CERN SPS e RHIC, respectivamente. Os núcleos são acelerados a velocidades ultrarelativísticas e se chocam um contra o outro quando se contraem. Em grande parte se atravessam um contra o outro, mas um resultante volume quente chamado “bola de fogo” se cria depois do choque. Uma vez criado, 127
127
esta “bola de fogo” se desfaz devido a sua própria pressão, e se esfria ao dissociar-se. Mediante o estudo deste fluxo, os experimentalistas esperam poder provar a teoria. O PQG no quadro geral da física A cromodinâmica quântica é uma parte da teoria moderna da física de partículas chamada o modelo padrão. Outras partes desta teoria tratam com o modelo eletrofraco e os neutrinos. A eletrodinâmica quântica tem sido provada e se tem mostrado correta até umas poucas partes em um trilhão. O modelo eletrofraco tem sido provado e tem se apresentado correto até umas poucas partes por milhar. Os aspectos perturbativos da QCD tem sido provados a umas poucas partes por centena. Em contraste, os aspectos nãoperturbativos da QCD tem sido apenas provados. O estudoo do PQG forma parte deste esforço de consolidar a grande teoria da física de partículas. Propriedades esperadas Termodinâmica A temperatura de alteração da matéria hadrônica normal ao estado de QGP está ao redor dos 175 MeV, correspondendo a uma densidade de energia de pouco menos de 1 GeV/fm³. Para a matéria relativista, a pressão e a temperatura não são variáveis independentes, assim que a equação de estado é uma relação entre a densidade de energia e a pressão. Isto tem sido encontrado por cálculos de retículos, e comparado com a teoria perturbacional e a teoria de cordas. Isto é todavia um assunto de constante investigação. Funções de resposta tais como o calor específico e vários números de suscetibilidades de quark estão sendo calculados atualmente. Fluxo A equação de estado é uma entrada importante nas equações do fluxo. A velocidade do som está atualmente sob investigação em cálculos de retículos. O percurso livre médio de quarks e glúons tem sido calculado utilizando a teoria perturbacional assim como a teoria das cordas. Os cálculos de retículos têm sido mais lentos aqui, ainda que os primeiros cálculos de coeficientes de transporte tenham sido concluidos recentemente. Estes indicam que o tempo livre médio de quarks e glúons no PQG pode ser comparáble ao espaço médio entre partículas: portanto o PQG é um líquido relativamente a suas propriedades de fluxo. Este é um campo de intensa investigação, pelo que estas conclusões podem evoluir rapidamente. A incorporação dos fenômenos dissipativos em hidrodinâmica é outro acontecimento recente que se encontra todavia em sua fase ativa. Espectro de excitação É espéculado se o PQG contém realmente quarks e glúons (quase) livres. O estudo de propriedades termodinâmicas e de fluxo indicam que é uma simplificação. Há muitas idéias que estão evoluindo atualmente e serão comprovadas em um futuro próximo. Foi recentemente descoberto que alguns mésons construídos de quarks pesados (tal como o quark encantado) não se dissolvem até que a temperatura não chegue perto de 350 MeV. Isto tem levado à especulação que muitas outras classes de estados podem existir no plasma. Algumas propriedades constantes do plasma (como o comprimento de Debye) restringem o espetro de excitação. Notas e referências 1. http://newstate-matter.web.cern.ch/newstatematter/Experiments.html 2. http://aliceinfo.cern.ch/index.html 3. The Indian Lattice Gauge Theory Initiative – Física de matéria em 128
128
condições extremas (em inglês) SPS O Super Síncroton de Prótons, SPS (do inglês Super Proton Synchrotron), é um acelerador de partículas no CERN. Originalmente especificado como uma máquina de prótons de 300 GeV, o SPS foi construido para ser capaz de 400 GeV, uma energia operacional na data oficial de comissionamento de 17 de junho de 1976. Entretanto, esta energia foi excedida pelo Fermilab, que alcançou uma energia de 500 GeV em 14 de maio deste ano. O SPS foi projetado por um time liderado pelo diretor-geral do CERN do que era então conhecido como “Laboratório II” (Laboratory II), Sir John Adams. O SPS tem sido também usado para acelerar antiprótons, elétrons e pósitrons (para uso como injetor para o colisor elétron-pósitron LEP do CERN) e íons pesados. Seu grande momento foi indubitavelmente como um colisor prótonantipróton (como tal ele foi chamado ) de 1981 a 1984, quando seus feixes forneceram os dados para os experimentos UA1 e UA2, os quais resultaram na descoberta dos bósons W e Z, renderam um Prêmio Nobel para Carlo Rubbia e Simon van der Meer em 1984. Cromodinâmica quântica A Cromodinâmica quântica (QCD) é uma teoria física que descreve uma das forças fundamentais: a interação forte. Possui uma propriedade especial chamada liberdade assintótica e foi proposta primeiramente nos anos 70 por David Politzer,Frank Wilczek e David Gross como uma teoria que descreve a estrutura dos prótons, dos nêutrons, e de partículas similares. Ela é uma teoria quântica de campos que descreve a interação dos quarks e dos glúons. Por seus trabalhos na cromodinâmica quântica, Gross, Wilczek, e Politzer foram gratificados com o prêmio Nobel de Física em 2004. De acordo com esta teoria, o caráter da interação forte é determinado por uma simetria especial entre as cargas de cor dos quarks. Esta simetria é conhecida como o grupo de calibre SU(3) e os quarks se transformam sob este grupo como um tripleto de campos fermiônicos SU(3). Embora as expansões perturbativas sejam importantes para o desenvolvimento da QCD, ela também prediz muitos efeitos não-perturbativos tais como o confinamento, os condensados fermiônicos e os instantons. A cromodinâmica quântica é uma parte importante do modelo padrão da física de partículas. O nome “cromodinâmica” vem da palavra grega “chromos” (cor). Este nome é relevante porque a carga dos quarks é geralmente referida como “cor” embora não seja relacionada com a percepção visual da cor. Uma aproximação particular a QCD, é o modelo de redes, que permite aos pesquisadores obterem alguns resultados teóricos e quantidades que eram previamente incalculáveis. Teoria perturbacional Em mecânica quântica, a teoria perturbacional ou teoria de perturbações é um conjunto de esquemas aproximados para descrever sistemas quânticos complexos em termos de outros mais simples. A idéia é iniciar com um sistema simples e gradualmente ir adicionando hamiltonianos “perturbativos”, que representam pequenas alterações ao sistema. Se a alteração ou perturbação não é demasiado grande, as diversas magnitudes físicas associadas ao sistema perturbado (por exemplo seus níveis de energia e seus estados próprios) poderão ser gerados de forma contínua a partir dos do sistema simples. Desta forma, podemos estudar o sistema complexo 129
129
baseando-nos no sistema simples. Teoria de perturbações de muitos corpos Também chamada “teoria de perturbações de Möller-Plesset” e “teoria de perturbações de Rayleigh e Schrödinger”, por seus usos primordiais em mecânica quântica, se chama “de muitos corpos” por sua popularidade entre os físicos que trabalham com sistemas infinitos. Para eles, a consistência com a divisão do problema, que se discute mais abaixo, é uma questão de grande importância, obviamente. Procedimento (qualitativo) A teoria de perturbações, em geral, divide o hamiltoniano em duas partes: H0, que trata os efeitos principais, e para o que se conhecem os vetores e os valores próprios, e uma perturbação menor V. A teoria de perturbações de Möller-Plesset usa a solução Hartree-Fock como hamiltoniano de ordem zero. O hamiltoniano exato se apresenta como um desenvolvimento em série (infinito) de H0 e sucessivas potências da perturbação. Se H0 e V estão bem escolhidos, a série converge com rapidez. Representação diagramática e consistência com a divisão do problema A teoria perturbacional é, como a interação de configurações, um procedimento sistemático que se pode usar para encontrar a energia de correlação, mais além do nível Hartree-Fock. A teoria de perturbações não é um método variacional, como que não dá níveis superiores da energia, senão somente aproximações sucessivamente melhores. Por outro lado, é consistente com a divisão do problema (isto é: a energia das energias calculadas para dois sistemas é igual a energia calculada para o sistema soma). R. P. Feynman desenvolveu uma representação diagramática da teoria de perturbações de Rayleigh e Schrödinger, e a aplicou em seus trabalhos de eletrodinâmica quântica. Inspirado por ele, J. Goldstone usou estas representações para demonstrar a consistência da divisão (mostrou que certas contribuções, que aparentemente rompiam a consistência, se anulavam sistematicamente a qualquer ordem de perturbação). Com ajuda destas mesmas representações, H. P. Kelly levou a cabo pela primeira vez a aproximação do par eletrônico independente, somando certas partes da perturbação (certos diagramas) até uma ordem infinita. Aplicações da teoria perturbacional A teoria perturbacional é uma ferramenta extremadamente importante para a descrição de sistemas quânticos reais, já que é muito difícil encontrar soluções exatas da equação de Schrödinger a partir de hamiltonianos de complexidade moderada. De fato, a maioria dos hamiltonianos para os quais se conhecem funções exatas, como o átomo de hidrogênio, o oscilador harmônico quântico e a partícula em uma caixa estão demasiado idealizados para descrever sistemas reais. Através da teoria das perturbações, é possível usar soluções de hamiltonianos simples para gerar soluções para um amplo espectro de sistemas complexos. Por exemplo, adicionando um pequeno potencial elétrico perturbativo ao modelo mecanoquântico do átomo de hidrogênio, podem-se calcular os pequenos desvios nas linhas espectrais do hidrogênio causadas por um campo elétrico (o efeito Stark). (Há de se notar que, estritamente, se o campo elétrico externo fosse uniforme e se estendesse ao infinito, não haveria estado conectado, e os elétrons terminariam saindo do átomo por efeito túnel, por débil que fosse o campo. O efeito Stark é uma pseudo-aproximação.) 130
130
As soluções que produz a teoria perturbacional não são exatas, mas com frequência são extremamente corretas. Tipicamente, o resultado se expressa em termos de uma expansão polinômica infinita que converge rapidamente ao valor exato quando se soma até um grau alto (geralmente, de forma assintótica). Na teoria da eletrodinâmica quântica, em que a interação elétron – fóton se trata perturbativamente, o cálculo do momento magnético do elétron está de acordo com os resultados experimentais até as primeiras 11 cifras significativas. Em eletrodinâmica quântica e em teoria quântica de campos, usam-se técnicas especiais de cálculo, conhecidas como diagramas de Feynman, para somar de forma sistemática os termos das séries polinômicas. Sob certas circunstâncias, a teoria perturbacional não é caminho adequado. Este é o caso quando o sistema em estudo não pode ser descrito por uma pequena perturbação imposta a um sistema simples. Em cromodinâmica quântica, por exemplo, a interação dos quarks com o campo dos glúons não pode ser tratada perturbativamente a baixas energias, porque a energia de interação é demasiadamente grande. A teoria de perturbações tão pouco pode descrever estados com uma geração não-contínua, incluindo estados ligados e vários fenômenos coletivos como os solitons. Um exemplo seria um sistema de partículas livres (sem interação), nas que se introduz uma interação atrativa. Dependendo da forma da interação, pode-se gerar um conjunto de estados próprios completamente novo, que corresponderia a grupos de partículas ligadas umas a outras. Um exemplo dste fenômeno pode ser encontrado na supercondutividade convencional, na que a atração entre elétrons de condução mediada por fónons leva à formação de elétrons fortemente correlacionados, conhecidos como pares de Cooper. Com este tipo de sistemas, devem-se usar outros esquemas de aproximação, como o método variacional ou a aproximação WKB. O problema dos sistemas não perturbativos tem sido aliviado pelo advento dos computadores modernos. Agora é possível obter soluções numéricas, não perturbativas para certos problemas, usando métodos como a Teoria do Funcional da Densidade (DFT). Estes avanços tem sido de particular utilidade para o campo da química quântica. Também tem-se usado computadores para levar a cabo cálculos de teoria perturbacional a níveis extraordinariamente altos de precisão, algo importante em física de partículas para obter resultados comparáveis aos resultados experimentais. Méson
Noneto mesônico de spin 0. 131
131
Noneto mesônico de spin 1. O mesão ou méson (português brasileiro) é uma partícula subatômica (um Hádron) composta por um quark e por um antiquark de carga de cor oposta. Frequentemente, um par de quark e antiquark não ocorre isoladamente, mas, em vez disso, mistura-se com outros de modo a que os quarks fiquem com uma sobreposição de sabores (como sempre, os sabores mais semelhantes em massa misturam-se mais). Os Mésons mesoscalares (de spin 0) têm a energia mais baixa, e o quark e o antiquark têm spin oposto; nos Mésons vetoriais (de spin 1), o quark e o antiquark têm spin paralelo. Ambos surgem em versões de maior energia quando o spin é aumentado por momentum angular orbital. A maior parte da massa de um Méson provém da energia de ligação e não da soma das massas dos seus componentes. Todos os Mésons são instáveis. Os mesões foram originalmente previstos como transportadores da força que liga os Prótons e os Nêutrons no núcleo. Quando foi descoberto, o Múons foi identificado como membro da família devido à sua massa semelhante e foilhe dado o nome de “Méson mu”. No entanto, verificou-se que não mostra uma atracção forte pela matéria nuclear. Na realidade, é um Lepton. Mais tarde, descobriu-se o Píon, e verificou-se que é este o verdadeiro transportador da força e que decai num muão. Os vários tipos de Méson (meson) Massa em AntiPartícul Símbol Meiapartícul Constituição repous S C B a vida o o a MeV/c2 (português europeu)
Píon
π+
π-
139.6
0
0
0
2.60×1 0-8
Píon
π0
Ele mesmo
135.0
0
0
0
0.83×1 0-16
Kaon
K+
K-
493.7
+ 1
0
0
1.24×1 0-8
497.7
+ 1
0
0
0.89×1 0-10
Kaon
132
132
Kaon
497.7
+ 1
0
0
Eta
η0
Ele mesmo
548.8
0
0
0
Rho
ρ+
ρ-
770
0
0
0
Phi
φ
Ele mesmo
1020
0
0
0
D
D+
D-
1869.4
0
+ 1
0
D
D0
1864.6
0
+ 1
0
1969
+ 1
+ 1
0
D
5.2×108
<10-18 0.4×1023
20×1023
10.6×1 0-13 4.2×1013
4.7×1013
0.8×10-
J/Psi
J/Ψ
Ele mesmo
3096.9
0
0
0
B
B-
B+
5279
0
0
1
1.5×10-
B
B0
Upsilon
Υ
Ele mesmo
5279
0
0
1
9460.4
0
0
0
20
12
1.5×10 12
1.3×1020
Antipartícula Antipartículas são genericamente partículas elementares que constituem a chamada antimatéria. As antipartículas são simétricas às partículas elementares da matéria, tendo a mesma massa que aquelas. As cargas elétricas das partículas e antipartículas e seus momentos angulares têm os mesmos valores absolutos que suas correspondentes simétricas. No entanto, os campos (sinais) são contrários. Conceitua-se que antipartícula é a denominação que se utiliza para partículas consideradas elementares pela física e que apresentam a mesma massa, spin e paridade de uma partícula. Porém, sua carga elétrica, número bariônico, número leptônico e números quânticos de estranheza, charme, força trifônica, beleza e top opostos. Para cada partícula corresponde uma antipartícula. Algumas partículas neutras, como o fóton (partícula-onda) e o pi neutro, são suas próprias antipartículas Devido à descoberta das antipartículas, poderia ser que exitisse um “átomo” formado por antielétrons (ou pósitrons), antiprótons e antinêutrons, e vários desses “átomos” formariam a antimatéria (conceito proposto inicialmente por Dirac), que em contato com a matéria, causaria a aniquilação total (rendimento 100%). Diagrama de fase Um típico diagrama de fase. A linha pontilhada dá o comportamento anômalo da água. As linhas verdes marcam o ponto de congelamento e a linha azul o ponto de ebulição, mostrando como tais grandezas variam de acordo com a pressão 133
133
Em física química, mineralogia e ciência de materiais, um diagrama de fase é um tipo de gráfico que mostra as condições de equilíbrio entre as fases termodinamicamente distintas. Em matemática e em física, um diagrama de fase também tem significados alternativos, como um sinônimo de espaço fásico. Fusão Fusão é o nome dado ao processo de passagem de uma substância do estado sólido para o estado líquido. Um sólido é chamado cristalino quando se funde bruscamente a uma temperatura determinada, que se mantém constante (se a pressão permanecer constante), até que a mudança de fase se complete. Os sólidos não cristalinos (sólidos amorfos) vão amolecendo gradativamente durante a fusão, pois durante o processo a temperatura vai aumentando Leis da fusão cristalina • Primeira lei: sob determinada pressão, a fusão de uma substância pura e cristalina, sempre ocorre à mesma temperatura. • Segunda lei: se a pressão for mantida constante, durante a fusão cristalina a temperatura permanecerá constante. Influência da pressão na temperatura de fusão Quando uma substância cristalina aumenta de volume ao se fundir (grande maioria), uma maior pressão dificultará esse aumento de volume e exigirá uma maior temperatura para que a fusão ocorra. Se a substância diminuir de volume ao se fundir (caso de poucas substâncias e entre elas a água, um aumento da pressão diminuirá a temperatua de fusão). Pelo citado acima podemos concluir que só tem sentido falar em temperatura de fusão se especificarmos a pressão. Em particular, costumase chamar de ponto de fusão de uma substância à temperatura de fusão sob pressão normal (1 atmosfera). Re-gelo Ao comprimir os dois cubos de gelo a pressão pode atingir um valor tal que a temperatura de fusão do gelo se torne inferior àquela em que os blocos se encontram (suposto inferior a 0°C). Assim o gelo começa a fundir. Ao parar a compressão, a água resultante da fusão, estando abaixo de 0°C, solidifica soldando os cubos de gelo. Sólidos amorfos Os sólidos amorfos são sólidos que não apresentam ordem estrutural num estado normal, mas somente em dimensões atômicas, com poucas unidades atômicas. Também são chamados de não-cristalinos. Outros sólidos apresentam alguma ordem em seu estado normal, diferentemente dos amorfos, significando que sua estrutura se repete em distâncias bem menores que a de outros sólidos, em relação ao tamanho do sólido. Exemplos de sólidos amorfos: vidro,plástico, vários polímeros e várias substâncias orgânicas que parecem, mas não são cristalinas. Vaporização Vaporização é o nome dado ao processo de passagem de uma substância do estado líquido para o estado gasoso. Tipos de Vaporização Existem três tipos de vaporização: Evaporação Na evaporação, o líquido passa para o estado gasoso a qualquer temperatura. É um processo lento e superficial, ou seja, as moléculas da 134
134
superfície do líquido conseguem adquirir energia suficiente para passar para o estado gasoso. Ebulição Na ebulição, o líquido está passando para o estado gasoso na sua temperatura de ebulição, que é a temperatura máxima que o líquido pode existir a uma determinada pressão. Todas as moléculas do líquido estão recebendo calor. É caracterizada pela formação de bolhas no líquido. Borbulhamento. Calefação Na calefação, o líquido passa rapidamente para o estado gasoso. O líquido recebe uma grande quantidade de calor e se torna vapor rapidamente. Sai muito vapor do líquido neste processo. Ponto de ebulição O ponto de ebulição ou temperatura de ebulição é a temperatura em que uma substância passa do estado líquido ao estado gasoso. No ponto de ebulição, a pressão do vapor saturado de um líquido é igual à pressão atmosférica (760 mmHg) pelo que, o ponto de ebulição varia com a altitude e a pressão. Quanto mais baixa for a pressão menor será o ponto de ebulição e vice-versa. O ponto de ebulição da água em condições normais de pressão é de 100 ºC, chamando-se vapor quando se encontra em estado gasoso. O sistema utilizado para a determinação do ponto de ebulição é uma “técnica tradicional”, e utiliza-se de material simples de laboratório. A determinação do ponto de ebulição de um líquido através desta técnica não implica quaisquer fórmulas ou equações, mas apenas a construção de um gráfico a partir dos diversos valores registrados. O ponto de ebulição corresponde então, por razões acima já explicitadas, a uma espécie de patamar no gráfico. Ebulição Água em ebulição O fenômeno da ebulição ocorre quando uma substância passa do estado líquido para o estado gasoso, e é constante para uma mesma substância, nas mesmas condições de pressão. O ponto de ebulição da água no nível do mar é de 100,0°C. Quando um soluto não volátil é dissolvido em água, observa-se que a temperatura de ebulição da solução formada é superior ao valor da temperatura de ebulição da água pura. Este fenômeno é denominado efeito ebulioscópico. Informações sobre a elevação do ponto de ebulição de soluções são fundamentais para o projeto e resolução de equações de balanço de diversos tipos de equipamentos da indústria química, em particular evaporadores de múltiplo efeito. Algumas equações podem ser encontradas na literatura para predição deste parâmetro, porém sua validade é restrita a soluções diluídas ou soluções ideais. Tais hipóteses não podem ser aceitas na grande maioria dos processos de interesse industrial. No caso de evaporadores, deseja-se aumentar o teor de sólidos de um determinado licor até valores onde uma solução nunca poderia ser considera diluída. Além disto, cita-se o exemplo da concentração de soluções de sais, que não podem ser admitidas como soluções ideais. Desta forma, torna-se necessário o uso de dados experimentais da elevação do ponto de ebulição, em função da concentração de sólidos e pressão. A Lei de Raoult estabelece que em soluções ideais, a pressão parcial de um componente numa solução é dada pelo produto de sua fração molar e sua pressão de vapor na temperatura da solução. Assim, quanto maior for a 135
135
concentração de um determinado soluto dissolvido em água, menor será a fração molar da água na solução e, consequentemente, menor será o valor da pressão parcial da água. Admitindo que o soluto seja não-volátil, a solução entrará em ebulição quando a pressão parcial da água se igualar com a pressão do sistema. Para que isto ocorra, é necessário que a solução seja aquecida até uma temperatura superior à temperatura de ebulição da água pura. Informações sobre a elevação do ponto de ebulição de soluções aquosas são fundamentais no estudo de diversas operações unitárias da indústria química. Nota-se entretanto que estes dados não são encontrados facilmente na literatura. Entretanto, dados de pressão parcial da água sobre soluções aquosas são encontrados com maior facilidade nos livros usualmente consultados por estudantes de engenharia química. Este trabalho apresenta um procedimento, baseado em princípios de termodinâmica, para calcular a elevação do ponto de ebulição de soluções a partir de dados de pressão parcial da água. Lei de Raoult Na química, a lei de Raoult é dedicada a François-Marie Raoult (1830-1901) e afirma que a pressão parcial de cada componente em uma solução ideal é dependente da pressão de vapor dos componentes individuais e da fração molar dos mesmos componentes. Uma vez alcançado o equilíbrio na solução, a pressão de vapor total da solução é: e a pressão de vapor individual ou pressão parcial de cada componente é onde (Pi)puro ou Pi* é a pressão de vapor do componente puro Xi é a fração molar do componente na solução • Como conseqüência, com o aumento do número de componentes em uma solução, a contribuição individual de cada componente na pressão de vapor diminui, já que a fração molar de cada componente diminui a cada acréscimo de um novo componente. Se um soluto puro tem pressão de vapor zero (isto é, não evapora) e é dissolvido em um solvente, a pressão de vapor da solução final (solvente-soluto) será menor que o do solvente puro. Esta lei é válida estritamente apenas se a ligação entre, por exemplo, as moléculas de diferentes líquidos em uma mistura for qualitativamente igual à ligação entre moléculas dos próprios líquidos individualmente (que é a condição de uma solução ideal). Portanto, a comparação entre valores de pressões de vapor reais e valores preditos pela lei de Raoult permite obter informações sobre a força relativa da ligação entre os líquidos presentes na mistura estudada. •
Variação da pressão de vapor total de uma mistura binária com a fração 136
136
molar do composto 1 quando a Lei de Raoult é obedecida. Por exemplo, se o valor real for menor que o valor esperado, é porque menos moléculas escaparam da solução líquida para a fase vapor; isto pode ser explicado ao afirmar que a força de ligação entre as moléculas dos diferentes líquidos é mais forte do que a ligação dentro dos próprios líquidos individualmente, de forma que menos moléculas têm energia suficiente para escapar à fase vapor. Se, porém, o valor real é maior que o valor esperado, é porque mais moléculas escaparam para a fase vapor devido à ligação mais fraca entre as diferentes moléculas da mistura. A partir da Lei de Raoult também é possível observar que em uma solução ideal de dois líquidos voláteis, a pressão de vapor total (em uma dada temperatura) varia linearmente com a composição da solução de P2* a P1* quando X1 varia de 0 a 1, como pode ser observado na figura ao lado. François-Marie Raoult
137
François-Marie Raoult François-Marie Raoult (Fournès, 10 de Maio de 1830 – Grenoble, 1 de Abril de 1901), foi um químico francês. Estudou o fenómeno da descida do ponto de congelação e do aumento do ponto de ebulição nas soluções, e fundamentando-se neles desenvolveu um método para a determinação do peso molecular. Evaporação A evaporação é um fenômeno no qual átomos ou moléculas no estado líquido (ou sólido, se a substância sublima) ganham energia suficiente para passar ao estado vapor. O movimento térmico de uma molécula de líquido deve ser suficiente para vencer a tensão superficial e evaporar, isto é, sua energia cinética deve exceder o trabalho de coesão aplicado pela tensão superficial à superfície do líquido. Por isso, a evaporação acontece mais rapidamente a altas temperaturas, a altas vazões entre as fases líquida e vapor e em líquidos com baixas tensões superficiais (isto é, com pressões de vapor mais elevadas). Como apenas uma proporção pequena de moléculas está localizada perto da superfície e movendo-se na direção correta para escapar do líquido em um certo instante, a taxa de evaporação é limitada. Além disso, como as moléculas de maior energia escapam e as que ficam têm menor energia 137
cinética média, a temperatura do líquido diminui. Este fenômeno também é chamado de resfriamento evaporativo. Um exemplo para tal fenômeno é a transpiração (suor). Equilíbrio evaporativo Se a evaporação ocorrer em um recipiente fechado, as moléculas que escapam do líquido acumulam-se na forma de vapor acima do líquido. Muitas dessas moléculas, aliás, retornam ao líquido. Quando o processo de escape e retorno alcança um equilíbrio, o vapor é chamado de saturado, e não ocorrem mudanças adicionais na pressão de vapor ou na temperatura do líquido. Evaporação da água É um erro dizer que somente existe vapor d’água a 100 °C a 1 atm. As moléculas de água estão em um estado constante de evaporação e condensação perto da superfície da água líquida. Se uma molécula na superfície da água recebe energia suficiente, ela deixará o líquido, com formação de vapor a uma certa pressão. A uma pressão de vapor de 1 atm, a água acaba fervendo, e isto ocorre a 100 °C. A razão entre a perda de calor de uma superfície de água por evaporação e a perda de calor devido à convecção, independente da velocidade do vento, é dada por:
onde Qc,pa é a perda de calor de uma superfície de água por convecção em W/(m2•K), Qe é a perda de calor de uma superfície de água por evaporação em W/(m2•K), Tp e Ta são as temperaturas da água e do ar em Kelvin (ou Celsius) e Pwp e Pa são as pressões do vapor da superfície da água e do ar e p é a pressão barométrica, com todas pressões em mmHg (Bowen, 1926). A equação de Bowen foi modificada por Sartori (1987) que incluiu um parâmetro que permite o cálculo dos três casos de fluxo de massa que podem ocorrer quando uma superfície livre de água é exposta ao ar, cujas situações não podem ser previstas somente com a equação de Bowen. Então, a equação de Bowen-Sartori se torna:
onde rh é a umidade relativa. Referências: Sartori, E. “A mathematical model for predicting heat and mass transfer from a free water surface”. Proc. ISES Solar World Congress, Germany (1987). Sartori, E. “Solar still versus solar evaporator: a comparative study between their thermal behaviors”. Solar Energy, 56/2 (1996). Sartori, E. “A critical review on equations employed for the calculation of the evaporation rate from a free water surface”. Solar Energy, 68/1 (2000). Sartori, E. “Letter to the Editor”, Solar Energy Journal, 73/6, 2003. Fatores que afetam a taxa de evaporação • A concentração da substância evaporante no ar. Se o ar contiver uma alta concentração da substância que evapora, então tal substância evaporará mais devagar. • A concentração de outras substâncias no ar. Se o ar já estiver saturado com outras substâncias, poderá ter uma capacidade menor para a 138
138
substância que evapora. Temperatura. Se a substância estiver quente, a evaporação será rápida. • Vazão de ar. Isto está em parte relacionado com o tópico da concentração citado anteriormente. Se existe ar fresco passando pela substância o tempo todo, então é mais provável que sua concentração não aumente, o que favorece uma evaporação mais rápida. Além disso, moléculas em movimento têm mais energia cinética do que aquelas em repouso; por isso, quanto mais forte o fluxo de ar, maior é o potencial para evaporação. Forças intermoleculares. Quanto maiores as forças intermoleculares • dentro do líquido ou sólido, mais energia será necessária para fazer suas moléculas evaporarem. Aplicações da evaporação Evaporação forçada É um processo usado na separação de misturas, no qual uma mistura é aquecida de forma a promover a evaporação do componente mais volátil (por exemplo, água) e deixar sobrar o componente menos volátil. Deposição de filmes A evaporação é um método comum de deposição de filmes finos, usada na indústria. A deposição evaporativa é um processo geralmente mais lento e, por isso, mais caro do que o método por impacto de íons (sputtering). Contudo, substratos plásticos geralmente não podem tolerar o bombardeio com átomos energeticamente neutros que inevitavelmente surgem em uma câmara de sputtering. Um exemplo importante de um processo evaporativo é a produção de filmes de Mylar aluminizados em um sistema roll-to-roll. Frequentemente, a camada de alumínio nesse material não é espessa o suficiente de forma a ser opaca, já que uma camada mais fina é menos custosa do que uma camada espessa. A principal função do alumínio é isolar o produto do ambiente externo, criando uma barreira à passagem de luz, oxigênio ou vapor d’água. Para algumas aplicações, o fato de a deposição evaporativa ocorrer de modo diretamente visual (line-of-sight fashion, em inglês) é uma vantagem importante. A distribuição de energia do material evaporado aproxima-se a uma distribuição maxwelliana, com a temperatura da fonte de evaporação. Em contraste, os plasmas encontrados nos sistemas de sputtering estão longe do equilíbrio térmico e podem ter a distribuição desviada para o lado de maior energia, ou seja, têm partículas com velocidades aleatórias maiores. Por isso, a evaporação é um processo mais suave, com um feixe mais bem definido de matéria-prima que pode ser usado para revestir apenas um lado de um substrato ou até mesmo o lado característico de superfícies gravadas, como no processamento MEMS. Os três principais tipos de evaporação são térmica, por feixe de elétrons e resistiva. No método térmico, o cadinho que retém a matéria-prima é aquecido por irradiação por um filamento que o envolve. No método por feixe de elétrons, a corrente que aquece o cadinho é proveniente de um filamento e atraído ao cadinho por alta voltagem. A evaporação resistiva é feita pela passagem de uma grande corrente através de um fio ou lâmina do material a ser depositado Tensão superficial •
139
139
Uma moeda pode ficar acima da água graças a tensão superficial da água Na física, a tensão superficial é um efeito que ocorre na camada superficial de um líquido que leva a sua superfície a se comportar como uma membrana elástica. As moléculas situadas no interior de um líquido são atraídas em todas as direções pelas moléculas vizinhas e, por isso, a resultante das forças que atuam sobre cada molécula é praticamente nula. As moléculas da superfície do líquido, entretanto, sofrem apenas atração lateral e inferior. Esta força para o lado e para baixo cria a tensão na superfície, que faz a mesma comportar-se como uma película elástica. A tensão superficial está presente em situações interessantes: – Colocando-se cuidadosamente uma pequena agulha sobre a superfície da água, observa-se que ela pode permanecer sobre a película superficial sem afundar no líquido, apesar de ser muito mais densa que a água. – A gota de água que se forma em uma torneira mantém sua forma devido a elasticidade na superfície da gota. – Num copo cheio de água, podemos acrescentar pequenos objetos sem que a água transborde. Isto ocorre porque a superfície da água comporta-se elasticamente.
Forças em contato, mostrado ponto de contato ângulo superior a 90 ° (à esquerda) e inferior a 90 ° (à direita). Este efeito permite que insetos caminhem sobre a água. Também permite que pequenos objetos de metal como agulhas ou lâminas flutuem na superfície da água.. A tensão superficial está relacionada com a diferença de pressão entre os dois lados de uma interface pela equação de Laplace:
Em que R1 e R2 são os raios de curvatura da interface. Energia cinética Em física, a energia cinética é a quantidade de trabalho que teve que ser realizado sobre um objeto para tirá-lo do repouso e colocá-lo a uma velocidade v. Para um objeto de massa m a uma velocidade v a energia cinética é 140
140
calculada como:
Discussão conceitual Uma das coisas importantes a se lembrar desta expressão é que a energia cinética aumenta com o quadrado da velocidade. Isto significa que um carro a 160 km/h causará 4 vezes mais estrago que um andando a 80 km/h, ou 16 vezes mais que um a 40 km/h.. ou 32 vezes mais que um a 20 km/h Também da definição da energia cinética como a soma “integral” do trabalho realizado em um determinado deslocamento do corpo podemos entender porque uma colisão de veículos causa tanto estrago. Um veículo andando a 80 km/h por exemplo chegou a esta velocidade devido ao trabalho do motor durante um certo tempo e distância. Ao colidir, toda a energia cinética do veículo deve ser dissipada para que ele volte ao repouso. Na colisão com um poste, por exemplo, a distância que o veículo terá para realizar um trabalho equivalente ao que foi feito para coloca-lo em movimento é significativamente muito menor, alguns centímetros, talvez um metro. Desta forma, as forças envolvidas terão que ser muito maiores, para que o produto Força x deslocamento (trabalho) seja igual ao do percurso original. A energia cinética é a energia que o sistema possui em virtude do movimento das partículas que constituem o sistema, em relação ao referencial adotado.Ela depende de sua massa e do módulo de sua velocidade ao quadrado;não depende da direção de sua velocidade porque a energia cinética é uma grandeza escalar. Assim, podemos generalizar dizendo que é a energia que temos quando um determinado corpo está em movimento. Um outro importante conceito de energia cinética, é quando nos referimos ao trabalho. Consideremos um caminhão que têm a mesma velocidade do carro, mas possui maior massa, maior também será o trabalho realizado, ou seja , maior a energia cinética. “O trabalho realizado pela força resultante “F” que desloca um corpo de uma posição para outra, é igual à variação de energia cinética”, ou seja, . Dedução da energia cinética Da definição de energia cinética como trabalho para colocar um corpo em movimento, podemos obter a expressão geral dada acima para o cálculo da energia cinética:
como o deslocamento em instante infinitesimal de tempo é, obtemos:
,
Físicos adoram cancelar infinitesimais do tipo dt que aparecem em denominadores com os que aparecem em numeradores, apesar da ânsia que isto causa nos matemáticos. Cancelando o dt na expressão acima podemos escrever (para uma massa constante)
141
141
Pulverização catódica (Redirecionado de Sputtering) Pulverização catódica (ou sputtering) é uma técnica de deposição de material usada para recobrir uma superfície magnetizada, diferenciando-se de técnicas mais comuns de deposição como os filmes que recobrem as superfícies de bijuterias. Nela, a superfície depositada é mais espessa e permite que esta seja trabalhada. Essa técnica é largamente utilizada nos dias de hoje no recobrimento de discos rígidos para computadores. Matéria estranha Matéria estranha (ou em inglês: Strange matter) é um tipo de quark. Strangelets ou ainda strange nugget seriam pequenos fragmentos de matéria estranha. Só será comprovada sua existência se a “hipótese da matéria estranha” estiver correta, em cujo caso seriam o verdadeiro estado fundamental da matéria, e os núcleos seriam somente estados metaestáveis com uma duração muito extensa. Calefação (processo físico) A Calefação é a vaporização que ocorre quando um líquido entra em contato com uma superfície que se encontra a uma temperatura muito maior que a temperatura de ebuliçao do líquido. Durante a calefação o líquido se divide em esferóides, que executam um movimento rápido e desordenado à medida em que diminuem de volume. Leis da calefação Primeira lei: Durante a calefação não ocorre o contato entre o líquido e a superfície aquecida. A ausência de contato é explicada pela rápida e intensa vaporização das gotas líquidas do lado mais próximo da chapa aquecida. O colchão de vapor que assim se forma impede o contato das gotículas com a superfície aquecida. Segunda lei: A temperatura do líquido calefeito é inferior à sua temperatura de ebulição. Calefação (sistema de aquecimento) A Calefação é o sistema de aquecimento em recintos fechados, muito utilizado em países de clima frio. Há muito tempo utilizado, desde que os homens das cavernas incendiavam madeira, aquecendo o ar no interior do recinto. Durante o auge do Império Romano o sistema evoluiu. As pessoas passaram a utilizar dutos, que espalhavam o ar quente por toda a habitação, sendo necessário ter o fogo em apenas um lugar, e não em cada cômodo. Processo conhecido como calefação central. Durante a Idade Média o sistema de calefação central foi abandonado. Novamente foi utilizado o fogo em cada parte da moradia. Porém, no lugar das fogueiras no chão, estabeleceram-se lareiras. A idéia de construir chaminés também é desta época, por causa da fumaça que se acumulava no recinto. Com o passar do tempo, e o descobrimento de novas formas de energia, criou-se o radiador elétrico, radiador à vapor, sistemas de aquecimento pela energia solar. Porém, ainda nos dias atuais é comum existir lareiras no interior das casas situadas em regiões frias.
142
142
Condensação
Condensação da humidade. Condensação também conhecido com liquefação, é uma das fases em que ocorre a transformação da matéria, do estado gasoso vapor para líquido. A condensação que normalmente ocorre quando o vapor é resfriado pode ocorrer em sistemas fechados com o vapor comprimido sendo que ambas as situações dependem somente do equilíbrio entre a pressão e temperatura. A temperatura de arrefecimento onde ocorre a condensação do vapor de água é chamada de ponto de orvalho. Os sistemas de condensação são explorados nas refinarias em destilação e usados na transformação de energia em turbinas termoelétricas e na produção de frio criogenia . Ponto de orvalho Em climatologia e meteorologia, o termo ponto de orvalho se refere à temperatura a partir da qual o vapor d’água contido na porção de ar de um determinado local sofre condensação. Quando a temperatura está abaixo do ponto de orvalho, normalmente temos a formação de névoa seca ou neblina. Pela equação abaixo. onde: Pt(Orv) = Ponto de orvalho em graus Celsius • • T = Temperatura em graus Celsius • UR = Umidade relativa (em %). válida somente se: 0 °C < T < 60 °C 1 < UR < 100 Névoa seca
Forte névoa seca formada sobre Santiago do Chile Assim como a neblina, a névoa seca (também conhecida por bruma ou nevoeiro fotoquímico – ou ainda haze, em inglês)[1] é formada quando há a condensação de vapor d`água, porém em associação com a poeira, fumaça e outros poluentes, o que dá um aspecto acinzentado ao ar. É muito comum a ocorrência desse fenomêno nas grandes cidades e metrópoles, sobretudo nos dias frios de inverno[2], quando ocorrem associados à presença de uma inversão térmica. Ao contrário do que ocorre com a neblina, a névoa seca normalmente apresenta uma visibilidade superior a 1 km. Porém, quando ocorre nas 143
143
proximidades de aeroportos, a redução da visibilidade pode chegar a afetar a aviação. Altera o nicho ecológico de algumas espécies. Inversão térmica
Inversão térmica é uma camada atmosférica de espessura da ordem de uma centena de metros que ocorre no topo da camada limite planetária (CLP), a uma altitude da ordem de 1 km sobre áreas continentais, e onde o gradiente térmico (gradiente vertical da temperatura do ar) decresce com a altura, numa razão inferior a 10 graus por km (gradiente adiabático). Princípios da inversão térmica
144
Exemplificação da inversão térmica num diagrama Skew-T / Log-P resumido O fenômeno da inversão térmica[1], capaz de confinar grandes quantidades de poluentes numa estreita camada da atmosfera, é um fenômeno onde a convecção natural é dificultada pela inversão do gradiente de temperatura em função da altitude necessário para a livre dispersão dos solutos do ar que formam a poluição, confinando-os a uma estreita camada fluida, rica em poluentes. Na inversão térmica, o gradiente da temperatura do ar segue um perfil aproximadamente adiabático, tipicamente de -1ºC/100m, até determinada altitude onde há um aumento da temperatura em função da altitude. Essa inversão no gradiente de temperatura inviabiliza a formação da convecção natural entre essas camadas de ar. A partir de uma altitude um pouco maior, a gradiente de temperatura do ar volta a seguir a aproximação adiabática da atmosfera que se estende até altitudes de 10 km. As inversões térmicas podem ocorrer em várias altitudes da atmosfera[2], contudo as mais preocupantes são as inversões em baixa altitude (100 a 300 metros) por sua capacidade de dificultar a dispersão dos poluentes gerados nos centros urbanos. Clima O clima é constituído de vários elementos: temperatura, chuva, umidade, 144
ventos, massas de ar e pressão atmosférica. Esses elementos do clima sofrem a influência de vários fatores, como, por exemplo: a posição astronômica e geográfica da região ou país, a configuração do território, as altitudes e as linhas mestras do relevo, a latitude, a altitude, a proximidade do mar, a vegetação e a continentalidade. Se uma parcela de ar ascender de forma adiabática, i.e., sem trocar calor com o ambiente, ela esfriará a uma taxa de 10 graus por km, aproximadamente. Assim, dentro de uma camada de inversão térmica, ela se encontrará mais fria que o ambiente e portanto com uma densidade relativa maior que a do ar ambiente. A parcela sofrerá uma aceleração retardante e por isso tenderá a voltar para o seu nível de partida (que pode ser considerado seu nível de equilíbrio estático). É um caso de estabilidade estática. De forma similar, uma parcela que se desloque para baixo sem trocar calor com o ambiente externo (de forma adiabática) tenderá a se aquecer mais rapidamente que o ambiente (aquecimento adiabático) de forma que sofrerá a ação de uma aceleração retardante que tenderá a colocá-la em seu nível original. Por essa razão parcelas de ar (poluído ou não) que entrem na camada de inversão térmica tendem a não ultrapassá-la. Sobretudo devido à presença de ilhas de calor, nas metrópoles a inversão térmica de altitude (no topo da CLP) funciona como uma tampa para os poluentes emitidos dentro da CLP. Somente a formação de uma nuvem de grande desenvolvimento vertical consegue liberar o ar poluído para os níveis superiores da atmosfera livre (média e alta troposfera). Note-se que no topo da troposfera há também uma inversão térmica de altitude, ainda mais intensa que a encontrada no topo da CLP. Quando um cumulonimbus alcança a tropopausa, as parcelas de ar são impedidas de ascender mais pelas condições de estabilidade estática encontradas na camada de transição entre a troposfera e a estratosfera. Na estratosfera predomina escoamento laminar e condições de estabilidade estática intensas, i.e., a temperatura do ar aumenta com a altura e comprimento. Problemas de saúde Este fenômeno afeta diretamente a saúde das pessoas, principalmente das crianças, provocando doenças respiratórias, cansaço entre outros problemas de saúde. Pessoas que possuem doenças como, por exemplo, bronquite e asma são as mais afetadas com esta situação. Soluções As soluções para estes problemas estão ligados à adoção de políticas ambientais eficientes que visem diminuir o nível de poluição do ar nos grandes centros urbanos. A substituição de combustíveis fósseis por biocombustíveis ou energia elétrica poderia reduzir este problema. Campanhas públicas conscientizando as pessoas sobre a necessidade de trocar o transporte individual (particular) pelo transporte público (ônibus e metrô) também ajudaria a amenizar o problema. A fiscalização nas regiões onde ocorrem queimadas irregulares também contribuiria neste sentido. Conclusão A maneira mais comum na qual a inversão de superfície se forma, é através do ar gelado perto do chão à noite. Quando o sol se põe, o chão perde calor muito rápido e isso esquenta o ar que está em contato com o chão. Entretanto, desde que o ar é um fraco condutor de calor, o ar logo acima da superfície continua quente. Condições que favorecem o desenvolvimento de 145
145
fortes inversões de superfície são: ventos calmos, céu claro e longas noites. Ventos calmos previnem que o vento ar quente acima da superfície se misture com o do chão, e céus limpos aumentam a taxa de resfriamento da superfície terrestre. Noites longas permitem que o ar gelado no chão continue por um longo período, resultando em uma diminuição maior da temperatura da superfície. Desde que noites no inverno são muito mais longas que as do verão, inversão térmica de superfície são mais fortes e comuns nos meses de inverno. Uma forte inversão implica em uma substancial diferença etre o ar gelado de superfície e o ar quente acima. Durante o dia, as inversões térmicas tendem a se tornarem fracas e normalmente desaparecem. Entretanto, entre certas condições meteorológicas, como uma alta pressão sobre a área, essas inversões podem se estender por vários dias. Troposfera Troposfera é a camada atmosférica que se estende da superfície da Terra até a base da estratosfera (0 – 7/17 km). Esta camada responde por oitenta por cento do peso atmosférico e é a única camada em que os seres vivos podem respirar normalmente. A sua espessura média é de aproximadamente 12km, atingindo até 17km nos trópicos e reduzindo-se para em torno de sete quilômetros nos polos. Composição A troposfera contém uma grande variedade de gases: azoto (78%) e oxigénio (21%), sobretudo, mas também vapor de água, dióxido de carbono (CO2) e metano, entre outros. Estes gases mantêm o nosso planeta quente porque ajudam a reter o calor e radiam parte dele para a superfície da Terra. Sofre o efeito directo do aquecimento da superfície: a convecção (aquecimento do ar por contacto com a superfície mais quente e elevação deste ar sob forma de correntes ascendentes que vão distribuir o calor através dos níveis inferiores da atmosfera) distribui o calor na vertical da troposfera. A temperatura diminui com a altitude: o gradiente térmico é aproximadamente de 1°C /150 m. Divisão da atmosfera
Camadas da atmosfera, simplificadamente. A atmosfera é dividida em camadas, isto se deve porque existe uma variação de temperatura do ar atmosférico conforme a altitude. A camada onde vivemos, é a mais baixa de todas, portanto a mais quente e mais densa, é nela onde estão concentrados 90% de todo o ar da atmosfera. Logo acima da troposfera está uma camada limítrofe, chamada de tropopausa, e sobre esta a estratosfera que vai do topo da tropopausa até 50 km de altura. 146
146
Divisão Simplificada da Atmosfera A atmosfera, simplificadamente, é dividida em cinco camadas: Troposfera; (é onde ocorre a vida, se situa desde o nível do mar até 12 km acima dele) Estratosfera; (é onde os aviões super-sônicos trafegam, não ocorrem fenômenos meteorológicos) Mesosfera; (é onde o ozônio começa a se formar, ocorrem as auróras boreais e austrais) Ionosfera; (têm ions, partículas de eletrecidade) Exosfera. (os meteoros, quando passam por aqui, incandessem. Característica térmica da troposfera A principal característica da troposfera, é a redução na temperatura do ar à razão de 0,65°C a cada cem metros de altitude, não levando-se em conta os efeitos da inversão térmica.
147 Este gráfico ilustra a distribuição das camadas da atmosfera segundo a pressão, temperatura altitude e densidade Os deslocamentos de ar Os movimentos de ar na troposfera são verticais e horizontais, estes causam condensação do vapor d’água ocorrendo a formação de nuvens e a precipitação de chuvas. Os processos meteorológicos e a pressão atmosférica Os processos meteorológicos se desenvolvem em sua totalidade na troposfera; de sua base até aproximadamente 3 km de altitude, é denominada de biosfera, esta, é submetida à troca de massas de ar com a camada livre situada no nível imediatamente superior, onde os ventos são mais fortes e constantes; a
147
As nuvens determinam o clima do planeta pressão atmosférica decresce com o aumento da altitude. Ao nível do mar, a pressão gira em torno de é de 1.013 milibares, à medida que se vai subindo a pressão cai à razão de um milibar a cada oito metros até aproximadamente 1.000 metros, esta razão varia continuando-se a subida, pois, à medida que se ascende, aumenta o número de metros necessários para provocar a mesma queda de pressão. Logo acima da troposfera existe a camada de transição chamada de tropopausa. Tropopausa A tropopausa é o nome dado à camada intermediária entre a troposfera e a estratosfera, situada a uma altura média em torno de 17km no equador.
Camadas da atmosfera, simplificadamente. A distância da Tropopausa em relação ao solo varia conforme as condições climáticas da troposfera, da temperatura do ar, a
Este gráfico ilustra a distribuição das camadas da atmosfera segundo a Pressão, Temperatura Altitude e Densidade latitude entre outros fatores. Se existe na troposfera uma agitação climática com muitas correntes de convecção, a tropopausa tende a subir. Isto se deve por causa do aumento do volume do ar na troposfera, este aumentando, aquela aumentará, por conseqüência, empurrará a tropopausa para cima. Ao subir a tropopausa esfria, pois o ar acima dela está mais frio. Na região 148
148
tropical, a tropopausa tem sua maior altitude em relação ao solo, isto se deve por causa das temperaturas maiores do ar na região. Uma vez que a tropopausa está mais alta, a temperatura dos gases qua a compõe tende a cair, portanto é no equador que a tropopausa atinge sua menor tempetratura, chegando à oitenta graus negativos. Nos últimos vinte anos, a altura média da tropopausa tem subido, isto se deve ao aquecimento global. Do ano de 1980 até o ano 2000, a região subiu cerca de duzentos metros de altura média em relação ao solo. Isto tem causado preocupação entre os meteorogistas, pois indica claramente que a temperatura global tem aumentado significativamente. Cumulonimbus Os cumulonimbus são nuvens convectivas de trovoada que se desenvolvem verticalmente até grandes altitudes, com a forma de montanhas, torres ou de gigantescas couve-flores. Têm uma base entre 300 e 1.500 metros e um topo que pode ir até 29 km de altitude podendo até ter quase 3 veses a altura do monte Everest, sendo a média entre 9 e 12 km. O topo é caracterizado pela chamada “bigorna”: uma expansão horizontal devida aos ventos superiores, lembrando a forma de uma bigorna de ferreiro. São formadas por gotas d’água, cristais de gelo, gotas superesfriadas, flocos de neve e granizo.
149 Mapa das nuvens. Nuvens cumulus são abreviadas como Cb. Os cumulonimbus são alimentados por fenómenos de convecção muito vigorosos (por vezes com ventos de mais de 50 nós). Na base, são formados por gotículas de água, mas nas zonas mais elevadas da “bigorna”, são já formadas por cristais de gelo. Podem estar associados a todas as formas de precipitação forte, incluindo grandes gotículas de chuva, neve ou granizo. Uma trovoada é basicamente uma nuvem cumulonimbus capaz de produzir ventos fortes e tempestuosos, raios, trovões e mesmo, por vezes, violentos tornados. Tipos Tipos de nuvens Cumulonimbus: • Cumulonimbus calvus • Cumulonimbus capillatus • Cumulonimbus praecipitatio • Cumulonimbus virga • Cumulonimbus pannus • Cumulonimbus incus • Cumulonimbus mammatus • Cumulonimbus pileus • Cumulonimbus velum • Cumulonimbus arcus 149
•
Cumulonimbus tuba Fotos
Cumulonimbus
Cumulonimbus
Small Cumulonimbus
Solidificação Designa-se como solidificação à passagem do estado físico de uma substância de líquido para sólido. O processo inverso designa-se como fusão. A passagem direta do estado gasoso para o estado sólido designa-se como sublimação. A solidificação ocorre devido à perda de energia cinética das partículas que compõem a substância durante o processo de arrefecimento, mas também pode ocorrer devido ao aumento de pressão, ou graças à combinação dos dois fenômenos. A solidificação processa-se, em geral, por precipitação, através da formação de “germes de nucleação” em fase sólida no seio da substância no estado líquido que, depois, vão crescendo agregando partículas do líquido. Sublimação
Simples aparelho de sublimação. A água fria percorre um circuito no interior 150
150
do aparelho. 1 Entrada da água de arrefecimento 2 Saída da água de arrefecimento 3 Tomada de vácuo do gás 4 Câmara de sublimação 5 Composto sublimado 6 Material a sublimar 7 Aquecimento externo A sublimação é a mudança do estado sólido para o estado gasoso ou viceversa, sem passar pelo estado líquido. O ponto de sublimação, assim como o ponto de ebulição e o ponto de fusão, é definido como o ponto no qual a pressão de vapor do sólido se iguala a pressão aplicada. Também é chamado de re-sublimação a passagem do estado gasoso para o sólido se considerar que a sublimação seja apenas a passagem do estado sólido para o gasoso. Mas muitos químicos consideram que sublimação é o nome de ambos os processos e desconsideram o substantivo re-sublimação. Em certos livros também se fala de deposição já que as moléculas do gás se depositam espontaenamente para a formação do sólido. A sublimação é característica de substâncias que possuem pressão de vapor no ponto de fusão maior que a pressão atmosférica. Dessa forma, na pressão atmosférica a substância desenvolve pressão de vapor suficiente para vaporizar completamente. Isso ocorre geralmente com substâncias apolares com alta simetria, pois elas possuem pontos de fusão altos e altas pressões de vapor. A naftalina, assim como o iodo são bons exemplos de substâncias sublimáveis. Sublimação como método de purificação A sublimação pode ser usada para purificar sólidos. O sólido é aquecido até que sua pressão de vapor se torna suficientemente grande para ele vaporizar e condensar como sólido numa superfície fria colocada logo acima. O sólido é então contido na superfície fria enquanto as impurezas permanecem no recipiente original. Muitos sólidos não desenvolvem pressão de vapor suficiente a 760 mm Hg (pressão atmosférica ao nível do mar) mas podem ser sublimados utilizando aparatos capazes de reduzir a pressão aplicada. A redução de pressão é uma forma de prevenir a decomposição térmica de substâncias que requerem alta temperatura para sublimarem a pressões comuns. A vantagem que esta técnica apresenta é que nenhum solvente é necessário e assim não é preciso removê-lo mais tarde. A sublimação também permite a remoção de material ocluso, como moléculas de solvatação. Ela consiste num método mais rápido de purificação do que a cristalização, no entanto, não é tão seletiva pois é difícil lidar com a similaridade de pressão de vapor entre os sólidos. Técnica que se usa quando um dos componentes da mistura sólida sublima facilmente, isto é, passa directamente do estado sólido ao estado gasoso, por aquecimento, e do estado gasoso ao estado sólido, por arrefecimento. Pode usar esta técnica para separar, por exemplo, o iodo da areia. Decomposição térmica Decomposição térmica, também chamada termólise, é definida como uma reação química onde uma substância química “quebra-se” em pelo menos duas substâncias químicas quando aquecido. A reação é usualmente endotérmica já que aquecimento é requerido para romper as ligações químicas do composto durante a decomposição. A temperatura de decomposição de uma substância é a temperatura na qual a substância decompõe-se em menores moléculas de outras substâncias ou em seus átomos constituintes. 151
151
Por exemplo, o carbonato de cálcio decompõe-se em óxido de cálcio e dióxido de carbono a partir de aproximadamente 840 °C. CaCO3 → CaO + CO2 Ligação química As ligações químicas são uniões estabelecidas entre átomos para formarem as moléculas, que constituem a estrutura básica de uma substância ou composto. Na Natureza existem aproximadamente uma centena de elementos químicos. Os átomoselementos químicos ao se unirem formam a grande diversidade de substâncias químicas. Para exemplificar podemos citar o alfabeto em que podemos juntar as letras para formar as palavras. Os átomos, comparando, seriam as letras e as moléculas seriam as palavras. Na escrita não podemos simplesmente ir juntando as letras para a formação de palavras: aasc em português não tem significado (salvo se corresponder a uma sigla); porém se organizarmos essas letras teremos casa que já tem o seu significado. Assim como na escrita a união estabelecida entre átomosenergia etc. As ligações químicas podem ocorrer através da doação e recepção de elétrons entre os átomos (ligação iônica). Como exemplo NaClCompostos iônicoselectricidade no estado líquidodissolvido. Eles normalmente têm um alto ponto de fusão e alto ponto de ebulição. Outro tipo de ligações químicas ocorre através do compartilhamento de elétrons: a ligação covalente. Como exemplo H2O (água). Existe também a ligação metálica onde os elétrons das últimas camadas dos átomos do metal saltam e passam a se movimentar livremente entre os átomos criando uma força de atração entre os átomos do metal, neste caso, não há perda de elétrons. Teoria do Octeto Um grande número de elementos adquire estabilidade eletrônica quando seus átomos apresentam oito elétrons na sua camada mais externa. Existem exceções para essa teoria como o Hidrogênio (H) e o Hélio (He), onde ambos se estabilizam com dois elétrons na última camada, ainda temos o caso do átomo de carbono que é tetravalente (pode realizar quatro ligações), além dele todos os átomos que pertencem a família de número 14 da tabela periódica são tetravalentes e sendo assim encontram-se no eixo central dessa regra (Octeto), nesses casos os átomos optam (por assim dizer) por fazer 4 ligações sigmas (ligações simples) entre diferentes átomos. Ligações Iônicas ou Eletrovalentes
Configuração Eletrônica de lítio e fluor. O Lítio tem um elétron em sua camada de valência, mantido com dificuldade porque sua energia de ionização é baixa. O Fluor possui 7 elétrons em sua camada de valência. Quando um elétron se move do lítio para o fluor, cada íon adquire a configuração de gás nobre. A energia de ligação proveniente da atração eletrostática dos dois íons de cargas opostas tem valor negativo suficiente para que a ligação se torne estável. Ligações Iônicas são um tipo de ligação química baseada na atração eletrostática entre dois íons carregados com cargas opostas. Na formação da ligação iônica, um metal tem uma grande tendência a perder elétron(s), formando um íon positivo ou cátion. Isso ocorre devido à baixa energia de ionização de um metal, isto é, é necessária pouca energia para remover um 152
152
elétron de um metal. Simultaneamente, o átomo de um ametal (não-metal) possui uma grande tendência a ganhar elétron(s), formando um íon de carga negativa ou ânion. Isso ocorre devido à sua grande afinidade eletrônica. Sendo assim, os dois íons formados, cátion e ânion, se atraem devido a forças eletrostáticas e formam a ligação iônica. Se estes processos estão interligados, ou seja, o(s) elétron(s) perdido(s) pelo metal é(são) ganho(s) pelo ametal, então, seria “como se fosse” que, na ligação iônica, houvesse a formação de íons devido à “transferência” de elétrons do metal para o ametal. Esta analogia simplista é muito utilizada no Ensino Médio, que destaca que a ligação iônica é a única em que ocorre a transferência de elétrons. A regra do octeto pode ser utilizada para explicar de forma símples o que ocorre na ligação iônica. Exemplo: Antes da formação da ligação iônica entre um átomo de sódio e cloro, as camadas eletrônicas se encontram da seguinte forma: 11Na – K = 2; L = 8; M = 1 17Cl – K = 2; L = 8; M = 7 O sódio possui 1 elétron na última camada (camada M). Bastaria perder este elétron para que ele fique “estável” com 8 elétrons na 2ª camada (camada L). O cloro possui 7 elétrons na sua última camada (camada M). É bem mais fácil ele receber 1 elétron e ficar estável do que perder 7 elétrons para ficar estável, sendo isto o que acontece. Sendo assim, é interessante ao sódio doar 1 elétron e ao cloro receber 1 elétron. No esquema abaixo, está representado este processo, onde é mostrado apenas a camada de valência de cada átomo. Seria como se fosse que os átomos se aproximam e ocorre a transferência de elétron do sódio para o cloro:
O resultado final da força de atração entre cátions e ânions é a formação de uma substância sólida, em condições ambientes (25 °C, 1 atm). Não existem moléculas nos sólidos iônicos. Em nível microscópico, a atração entre os íons acaba produzindo aglomerados com formas geométricas bem definidas, denominadas retículos cristalinos. No retículo cristalino cada cátion atrai simultaneamente vários ânions e vice-versa. Características dos compostos iônicos • Apresentam forma definida, são sólidos nas condições ambientes; • Possuem altos ponto de fusão e ponto de ebulição; • Conduzem corrente elétrica quando dissolvidos em água ou fundidos. OBS.: O hidrogênio faz ligação iônica com metais também. Embora possua um elétron, não é metal, logo, não tende a perder esse elétron. Na verdade, o hidrogênio tende a receber um elétron ficando com configuração eletrônica igual à do gás hélio. Ligações Covalentes ou Moleculares Ligação covalente ou molecular é aquela onde os átomos possuem a tendência de compartilhar os elétrons de sua camada de valência, ou seja, de sua camada mais instável. Neste tipo de ligação não há a formação de íons, pois as estruturas formadas são eletronicamente neutras. Como o exemplo abaixo do oxigênio. Ele necessita de dois elétrons para ficar estável e o H irá compartilhar seu elétron com o O. Sendo assim o O ainda necessita de um elétron para se estabilizar, então é preciso de mais um H e esse H compartilha seu elétron com o O, estabilizando-o. Sendo assim é formado uma molécula o H2O. 153
153
OBS.: Ao compartilharem elétrons, os átomos podem originar uma ou mais substâncias simples diferentes. Esse fenômeno é denominado alotropia. Essa substâncias são chamadas de variedades alotrópicas. As variedades podem diferir entre si pelo número de átomos no retículo cristalino. Ex.: Carbono, Oxigênio, Enxofre, Fósforo. Características dos compostos moleculares • Podem ser encontrados nos três estados físicos; • Apresentam ponto de fusão e ponto de ebulição menores que os compostos iônicos; • Quando puros, não conduzem eletricidade; • Quando no estado sólido podem apresentar dois tipos de retículos cristalinos (R. C. Moleculares, R. C. Covalente). Ligações Covalentes Dativa ou Coordenada Este tipo de ligação ocorre quando os átomos envolvidos já atingiram a estabilidade com os oito ou dois elétrons na camada de valência. Sendo assim eles compartilham seus elétrons disponíveis, como se fosse um empréstimo para satisfazer a necessidade de oito elétrons do elemento com o qual está se ligando. Ligação metálica A ligação metálica ocorre entre metais, isto é, átomos de alta eletropositividade. Num sólido, os átomos estão dispostos de maneira variada, mas sempre próximos uns aos outros, compondo um retículo cristalino. Enquanto certos corpos apresentam os elétrons bem presos aos átomos, em outros, algumas dessas partículas permanecem com certa liberdade de se movimentarem no cristal. É o que diferencia, em termos de condutibilidade elétrica, os corpos condutores dos isolantes. Nos corpos condutores, muitos dos elétrons se movimentam livremente no cristal, de forma desordenada, isto é, em todas as direções. E, justamente por ser caótico, esse movimento não resulta em qualquer deslocamento de carga de um lado a outro do cristal. Aquecendo-se a ponta de uma barra de metal, colocam-se em agitação os átomos que a formam e os que lhe estão próximos. Os elétrons aumentam suas oscilações e a energia se propaga aos átomos mais internos. Neste tipo de cristal os elétrons livres servem de meio de propagação do calor – chocam-se com os átomos mais velozes, aceleram-se e vão aumentar a oscilação dos mais lentos. A possibilidade de melhor condutividade térmica, portanto, depende da presença de elétrons livres no cristal. Estudando-se o fenômeno da condutibilidade elétrica, nota-se que, quando é aplicada uma diferença de potencial, por meio de uma fonte elétrica às paredes de um cristal metálico, os elétrons livres adquirem um movimento ordenado: passam a mover-se do pólo negativo para o pólo positivo, formando um fluxo eletrônico orientado na superfície do metal, pois como se trabalha com cargas de mesmo sinal, estas procuram a maior distância possível entre elas. Quanto mais elétrons livres no condutor, melhor a condução se dá. Os átomos de um metal têm grande tendência a perder elétrons da última camada e transformar-se em cátions. Esses elétrons, entretanto, são simultaneamente atraídos por outros íons, que então o perdem novamente e assim por diante. Por isso, apesar de predominarem íons positivos e elétrons livres, diz-se que os átomos de um metal são eletricamente neutros. 154
154
Os átomos mantêm-se no interior da rede não só por implicações geométricas, mas também por apresentarem um tipo peculiar de ligação química, denominada ligação metálica. A união dos átomos que ocupam os “nós” de uma rede cristalina dá-se por meio dos elétrons de valência que compartilham (os situados em camadas eletrônicas não são completamente cheias). A disposição resultante é a de uma malha formada por íons positivos e uma nuvem eletrônica. Teoria da nuvem eletrônica Segundo essa teoria, alguns átomos do metal “perdem” ou “soltam” elétrons de suas últimas camadas; esses elétrons ficam “passeando” entre os átomos dos metais e funcionam como uma “cola” que os mantém unidos. Existe uma força de atração entre os elétrons livres que movimentam-se pelo metal e os cátions fixos. Propriedade dos metais • Brilho metálico característico; • Resistência a tração; • Conduntibilidade elétrica e térmica elevadas; • Alta densidade; • Ponto de fusão e ponto de ebulição elevado.
155
155