DE VOLTA PARA O FUTURO: OS PRECURSORES DA NANOTECNOCIÊNCIA
Peter A. Schulz
Introdução: a expectativa do progresso A nanociência, como toda atividade humana, não é um fato desprovido de história ou de características sociais próprias. Essa primeira frase, já em tom de advertência, justifica-se pelo grande apelo que o prefixo nano exerce atualmente, afinal todos nós já ouvimos ou lemos a respeito, principalmente promessas de um “admirável mundo novo”, que seria possível graças à nanotecnologia. Os textos técnicos sobre o assunto sintonizam com maior precisão as expectativas com a realidade e, à medida que o tempo passa, a postura frente ao tema torna-se mais sóbria e bem informada. Um paralelo pode ser traçado com a decodificação do genoma humano. O anúncio dessa empreitada veio junto com uma avalanche de previsões de desenvolvimentos na medicina, que ainda não se realizaram e, talvez, demorem muito ainda para se concretizar. Como conseqüência, somos testemunhas de uma espécie de “ressaca” do genoma humano. O que aconteceu? A decodificação do genoma humano é, de fato, uma conquista científica importante, mas é apenas o primeiro passo de um longo caminho até que se concretizem as aplicações vislumbradas. E essa demora gerou um quebra de expectativas. Estavam errados os cientistas que anunciaram os espetaculares potenciais dessa atividade? Não, não estavam, mas essa história toda revela a necessidade de que o diálogo entre ciência e sociedade precisa ser amadurecido. A percepção de demoras, contratempos e procedimentos característicos do método e desenvolvimento da ciência e tecnologia precisam fazer parte da nossa cultura. Para o tema desse artigo, o cenário é parecido ao do genoma humano, mas para desvendar alguns aspectos da nanociência e da nanotecnologia, que deveriam ser fundidos em um termo só, nanotecnociência1. Como ponto de partida, escolho uma 1
Tomo aqui emprestado o título de um livro de divulgação científica editado na Colômbia: Nanotecnociencia, nociones preliminares sobre el nanocosmos (Bogotá: Associación Colombiana pro Enseñanza de la Ciência, Ediciones Buinaima, 2007), de vários autores.
2
Peter A. Schulz
definição rápida desse termo, que é uma versão da frase ouvida do Prof. Cylon Gonçalves da Silva:2 “demoramos muito tempo para aprender que tudo na natureza é feito de átomos, agora estamos aprendendo a fazer tudo a partir dos átomos”. O que é fazer tudo a partir dos átomos? Como se deu a transição entre um aprendizado (tudo na natureza é feito de átomos) e o outro (fazer tudo a partir dos átomos)? Conceitos básicos da nanotecnociência hoje A nanotecnociência (Vogt, 2002) não é uma área do conhecimento que possa ser tão bem delineada como, por exemplo, a mecânica quântica, a química orgânica ou a genética. Não existe um âmbito bem definido, como para as três áreas mencionadas, nem teorias ou modelos unificados, que caracterizam claramente várias outras áreas (teoria da evolução, teoria da relatividade, teoria quântica de campos etc.) A nanotecnociência é um conjunto de procedimentos de várias disciplinas, ou seja, trata-se de uma ciência em construção, para a qual, no entanto, um grupo de conceitos-chave é comum: microscopia de alta resolução e miniaturização, vinculada à manipulação de “cima para baixo” (top-down); construção “de baixo para cima” (bottom-up), que precisa de procedimentos de auto-arranjo (self assembling); fenômenos emergentes e síntese de nanopartículas. Os conceitos-chave inserem-se, portanto, em uma atitude-chave: interdisciplinaridade. Esses procedimentos constituem o arsenal de ferramentas disponíveis para estudar e manipular a matéria na escala do nanômetro: a nanotecnociência. Não faz sentido desmembrar em dois termos separados, pois o desenvolvimento desses procedimentos listados acima, necessários para uma tecnologia (de elementos nanoscópicos), será tema de pesquisa básica ainda por muito tempo. O escopo desse artigo não é discutir em detalhes cada um desses procedimentos, pois uma discussão com exemplos contextualizados aparece em trabalho prévio (Schulz, 2005). Neste artigo, os conceitos-chave serão retomados na crônica sobre seus precursores, como sugerido pelo título. A busca da miniaturização: uma questão cultural? A miniaturização é a mais bem estabelecida estratégia de manipulação do mundo microscópico. Ela é fundamental no desenvolvimento da microeletrônica, com o prefixo caracterizando as dimensões características dos detalhes gravados nos circuitos integrados. O potencial dessa abordagem do problema fica evidente com a famosa Lei de Moore, que estabelece que o nú2
Professor emérito do instituto de Física da Unicamp.
Cadernos IHU Idéias
3
mero de componentes (ou a capacidade de memória) em um circuito integrado dobra a cada 24 meses com a diminuição associada das dimensões desses componentes (Moore, 1965). Atualmente, estamos na chamada tecnologia de 65nm. Essa já não é mais micro, mas sim nano-eletrônica, baseando-se, ainda, nas “tradicionais” técnicas de difusão de elementos, processamento por metalização, corrosão e litografia. Os limites e a obsolescência dessa tecnologia já foram anunciados muitas vezes, mas acredita-se na sua sobrevida até pelo menos 2020, pois ainda não se vislumbra uma alternativa competitiva. Muito antes dessa clara referência à miniaturização no contexto da tecnologia de informação, temos a importância dessa idéia de diminuir a dimensão dos objetos em nossa cultura. Dois exemplos precursores são emblemáticos: o relógio de pulso e o rádio de bolso (“radinho de pilha” ou “rádio transistor”), esse último sendo um produto do chamado modelo de imperativo cultural (Schiffer, 1993): muito antes de sua realização, as pessoas almejavam ter um rádio portátil. Outros exemplos, ligados à obtenção, transferência e armazenamento de informação (algumas vezes de forma ilícita, ou seja, por meio de espionagem), são as microcâmeras, microfones e microfilmes. Culturalmente, no entanto, a miniaturização tem uma presença ancestral e universal. Por um lado, objetos pequenos são considerados uma característica da cultura oriental: “Todas as coisas pequenas, Não importa o que sejam, Todas as coisas pequenas são bonitas” Sei Shonagon Em O livro de travesseiro (séc. X) Representantes dessa visão de mundo são, por exemplo, os Bonsais. O fascínio por objetos pequenos não se circunscreve, no entanto, à cultura oriental, mas é compartilhada pela tradição ocidental também: desde a Idade Média, existem relatos sobre circos de pulgas. Hoje em dia, a gravação de nomes em grãos de arroz, esculturas em palitos ou as edições da Bíblia em miniatura ainda atraem a atenção das pessoas. Apesar de exemplos tão abrangentes, é estranho que a noção de miniaturização tenha recebido ainda pouca atenção no âmbito das ciências humanas. A natureza como inspiradora: animais e plantas A observação de fenômenos naturais sempre foi uma fonte inspiradora para o ser humano. A observação do vôo dos pássaros seria, por exemplo, a origem da ambição humana para voar e também o modelo para as primeiras soluções técnicas. Sem en-
4
Peter A. Schulz
trar em muitos detalhes, a ambição mencionada aparece no mito de Ícaro e as observações empíricas já aparecem documentadas nos trabalhos de Leonardo da Vinci.3 Em um novíssimo cenário, que surgiu com o amadurecimento do conceito de nanotecnociência, a natureza aparece novamente como fonte inspiradora, pelo menos de maneira indireta. A ressalva (maneira indireta) é necessária, pois agora a observação não é mais direta, como no caso do vôo dos pássaros, mas mediada por algum tipo de instrumentação científica. Talvez devesse ser mencionado ainda que voar também pode ser considerado um imperativo cultural, embora inspirado na natureza. Que outro imperativo cultural a natureza promoveria, mas no âmbito da nanotecnociência? A criação de uma fibra tão resistente e flexível como o fio da teia de aranha! As propriedades desse fio ainda não foram reproduzidas por um material sintético (Elices, 2005). O uso da teia de aranha com fins medicinais é ancestral (tratamento de feridas) e o esforço para criar um material sintético com propriedades parecidas passou a ser bastante intenso recentemente. Esses esforços aparecem sob a palavra-chave de biomateriais. Mas ainda não é esse o alvo desse capítulo, e sim o desenvolvimento de um dos sistemas emblemáticos da nanotecnociência: os nanotubos de carbono. Essa forma alotrópica do carbono, descoberta apenas em 1991 (Herbst, 2004), revelou ser finalmente um material sintético com propriedades mecânicas competitivas com o fio da teia de aranha. Por outro lado, o próprio fio natural é nano, chegando ao diâmetro de apenas 50 nm em alguns casos (Blackledge, 2005). Deixando esse tipo de imperativos culturais de lado, a natureza fornece também dicas diretas para produtos nanotecnológicos, como no caso do efeito Lótus, assim chamado por ser observado na folhas da planta com esse nome. Trata-se de um processo de autolimpeza, ou seja, a superfície da folha de Lótus é hidrofóbica, não se molha, e a água escorre pela folha carregando junto a sujeira. Botânicos descobriram, na década de 1970 do século XX, que esse efeito hidrofóbico tem origem física e é devido à nanoestruturação das folhas, que, em conjunto com a tensão superficial das gotas de água, dificultam a aderência dessas ao vegetal. Efeito parecido acaba ocorrendo com as partículas de sujeira, que são arrastadas pela água que não molha a planta. Elaborar superfícies e tintas com as mesmas propriedades é uma das aplicações de biomimetismo em nanotecnociência mais bem sucedidas até agora. Uma introdução técnica ao tema pode ser encontrada no trabalho de Lai (Lai, 2003) ou no site do grupo de um dos descobridores do efeito, Wilhelm Barthlott.4 3 4
Uma bela introdução ao universo de Leonardo da Vinci pode ser vista na página do Museum of Science de Boston: http://www.mos.org/leonardo/ Cf. http://www.lotus-effekt.de/en/lotus_effect_html.html
Cadernos IHU Idéias
5
A existência do átomo e as nanopartículas antigas A possibilidade de construir objetos a partir dos átomos é uma das idéias centrais da nanotecnociência, mas a idéia do átomo como unidade básica dos entes físicos5 ainda não era consenso na comunidade científica no início do século XX. De fato, o status definitivo de tijolo fundamental da matéria veio apenas na segunda década do século passado. Um exemplo de oposição é o de Wolfgang Ostwald, mentor e incentivador das ciências dos colóides, precursora da nanotecnociência. É dele o seguinte texto: em referência, por exemplo, à hipótese atômica, também a proposição de que “os átomos possam existir de fato, nós só não podemos confirmá-los por limitações técnicas”, foi derrubada. Nós não poderemos jamais por definição demonstrar a existência dos átomos (Ostwald, 1902).
Era uma escola de pensamento forte que considerava os átomos como uma construção arbitrária para a explicação de alguns fenômenos físicos. Cientistas famosos eram dessa corrente, liderados por Ernst Mach. Esse grupo esperava, ainda no começo do século XX, construir a ciência sobre uma base puramente fenomenológica, sem “hipóteses desnecessárias” como o atomismo (Holton, 1979). No entanto, curiosamente, o próprio Ostwald, inicialmente um desses desafetos do átomo, em poucos anos reviu sua posição e acabou sendo um precursor em relação a nanotecnociência. Como foi a vitória da hipótese atômica e como os colóides entram nessa história? Colóides são misturas homogêneas, consistindo de duas fases: uma fase dispersa e uma fase contínua. A fase dispersa é constituída de pequenas partículas ou gotas dispersas na fase contínua. O tamanho dessas partículas dispersas varia de 1 nm a 1 microm, ou seja, misturas coloidais são muitas vezes sistemas de nanopartículas, estudadas já sistematicamente por Thomas Graham em meados do século XIX (Jafelicci e Varanda, 1999). Partículas coloidais, devido às suas dimensões, também se caracterizam por apresentar o movimento browniano6, estudado, entre outros, por Albert Einstein7 na primeira década do século XX. Uma das conseqüências do movimento browniano é que pequenas partículas em um líquido não se depositam totalmente no fundo de um recipiente sob a ação da força peso, fi5
6 7
Pelo menos da matéria conhecida, estimada em 5% do universo. A chamada matéria escura responde pelo resto (junto com a energia escura) e sua constituição ainda é desconhecida. Identificado pela primeira vez por um biólogo inglês, Robert Brown, em 1827, observando estranhos movimentos de grãos de pólen na água. De fato, seu trabalho sobre o movimento browniano foi um dos trabalhos do ano miraculoso de 1905 (ver edição especial da Revista Brasileira de Ensino de Física, vol. 27, nº 1, mar. 2005).
6
Peter A. Schulz
cando em suspensão, devido às colisões com as moléculas do líquido. A concentração dessas partículas em suspensão é função da altura, seguindo uma distribuição de Boltzmann, que apresenta uma constante universal na sua definição, por sua vez relacionada ao número de Avogadro. A demonstração experimental definitiva da hipótese atômica foi a determinação experimental da constante de Avogadro em 1909 por Jean Perrin, medindo a sedimentação de partículas coloidais mencionada acima. Para isso, ele precisava de micropartículas com dimensões bem definidas (partículas de dimensões diferentes introduziriam variáveis adicionais e de difícil controle), usando partículas de goma-guta (um tipo de resina) com diâmetros de aproximadamente 500 nm (Chagas, 2003). Mais importante, para nós, não é a dimensão, já sub-microm, mas sim a uniformidade no tamanho, que é uma questão central na tecnologia de nanopartículas. “O mundo das dimensões perdidas” e o surgimento da interdisciplinaridade A interdisciplinaridade é a atitude-chave para o desenvolvimento de um conjunto de conhecimentos associados a uma escala de tamanho na qual ocorrem os fenômenos básicos da física de materiais e naturalmente da química, mas também da biologia molecular. Se para realizar uma miniaturização (processo top-down) podemos nos limitar ainda a algum processo físico, a realização mais ambiciosa e promissora de construções bottom-up, envolvendo auto-arranjos ou partículas inteligentes, são predominantemente interdisciplinares. Na busca de precursores, que é o objetivo desse artigo, podemos também nos perguntar sobre a origem histórica da interdisciplinaridade. Essa tarefa se complica rapidamente, pois, para definir interdisciplinaridade, é necessário estabelecer um conceito para disciplina. Sob qualquer perspectiva, escrever uma história da interdisciplinaridade é um desafio ainda pouco assumido.8 Da perspectiva desse trabalho, é oportuno pensar a interdisciplinaridade no modo como proposto pelos cientistas já mencionados até aqui e envolvidos com as ciências dos colóides. Para divulgar essa nova ciência, Wolfgang Ostwald publicou um livro, baseado em conferências técnicas e de divulgação proferidas em uma viagem aos EUA (1913-1914), intitu8
A autora Julie Thompson Klein (Klein, 1990) argumenta que qualquer atividade interdisciplinar incorpora uma rede complexa de fatores históricos, sociais, psicológicos, políticos, econômicos, filosóficos e intelectuais. Independentemente da opção de que essa atividade torne-se uma instrumentação de curto prazo ou uma reconcepção a longo prazo do modo que aprendemos e conhecemos de resolver problemas e respondemos questões, o conceito de interdisciplinaridade é um importante meio de resolver problemas que não podem ser tratados usando métodos ou abordagens singulares.
Cadernos IHU Idéias
7
lado O mundo das dimensões esquecidas, que foi um sucesso, merecendo várias edições e traduções. Citando Holton, a ciência dos colóides era um empreendimento manifestadamente interdisciplinar: [...] Acreditava-se em geral que a pesquisa do estado coloidal era uma grande fronteira, tanto para a ciência pura como para a plicada, e poderia constituir uma ponte entre a matéria orgânica e a inorgânica. Esse campo parecia encerrar grandes promessas para a pesquisa médico-biológica, e também para a indústria (Holton,1979).
A leitura do artigo “O mundo dos colóides” (Jafelicci e Varanda, 1999) permite vislumbrar a extensão dessa interdisciplinaridade, bem como a abrangência das aplicações dos colóides. Como já mencionado, as partículas coloidais foram rebatizadas como nanopartículas e um exemplo ilustrativo dessa curiosa história são as nanopartículas de ouro. A síntese dessas partículas é um problema químico, mas sua caracterização é física e as aplicações envolvem a medicina. Essa história passou por altos e baixos, merecendo um capítulo à parte. Nanopartículas de ouro: da Roma antiga ao remédio inteligente Soluções de nanopartículas de prata e ouro (70 nm de diâmetro) diluídas em vidro são utilizadas (embora não se sabia, evidentemente, de que as partículas eram tão pequenas, nem quais eram suas propriedades ópticas) desde pelo menos o século IV para confecção de cálices que mudavam de cor, conforme a iluminação (Begbroke): a luz refletida (espalhada) era verde, e a luz transmitida era vermelha (devido à absorção). A identificação desses materiais como soluções coloidais, e um primeiro estudo sistemático de suas propriedades ópticas, é devido a Michael Faraday (mais conhecido como um dos pais do eletromagnetismo) em 1857. A partir dessa data, a pesquisa sobre propriedades ópticas de “soluções turvas” passou a interessar um grupo crescente de físicos e uma teoria para as propriedades ópticas de vidros coloidais foi publicada por James Clerk Maxwell Garnett em 1904 (Garnett, 1904). Garnett recebeu esse nome como homenagem de seu pai a um amigo, o grande físico que nomeia as equações do eletromagnetismo. Por outro lado, a suspeita de que partículas coloidais poderiam ter aplicações em medicina parece ser contemporânea a essas pesquisas sobre propriedades ópticas. Trata-se de um aspecto histórico pouco divulgado, mas que merece uma revisão (Turkevich 1985). A ação de partículas coloidais de ouro (e também de outros metais) sobre os seres vivos é estudada pelo menos desde o começo do século XX:
8
Peter A. Schulz Benjamin Moore mencionou ter realizado experimentos de injeção de soluções de platina em animais, mas não fornece detalhes, obtendo resultados negativos. Foi demonstrado que a autólise (auto destruição das células) é acelerada sob a influência de metais coloidais (Max Morse, Science, New Series, vol. 37, no 950, p. 423 (março de 1913).
Ouro coloidal era usado no tratamento de artrite e várias doenças eram diagnosticadas pela interação de ouro coloidal com os líquidos espinais obtidos dos pacientes. A partir de 1920, no entanto, o interesse em fenômenos coloidais passou a migrar de sistemas inorgânicos para moléculas orgânicas de grande peso molecular. Assim, muitos cursos de química coloidal foram abandonados, e a pesquisa era prejudicada pela incapacidade da microscopia óptica da época, com resolução de 200 nanômetros, para investigar partículas coloidais menores. O desenvolvimento do microscópio eletrônico durante a década de 1930 abriu a possibilidade para o estudo detalhado dos colóides. A resolução do microscópio eletrônico era de 2 nm em 1945,9 permitindo os estudos sistemáticos, antes impossíveis, distribuírem o tamanho das partículas coloidais e, portanto, avaliarem a uniformidade na produção desses sistemas.10 Uma das conseqüências do advento da microscopia eletrônica foi o progresso na síntese de partículas coloidais, em particular o processo desenvolvido por John Turkevich em 1951 (Turkevich, 1951), que permitia o controle do tamanho e da uniformidade das partículas. É interessante observar que esse trabalho sobre a síntese de ouro coloidal passou inicialmente desapercebido, sendo citado pela primeira apenas em 1960. No entanto, nos últimos 10 anos, esse artigo vem merecendo atenção crescente (com mais de 500 citações, sendo mais de 100 só em 2007). Esse exemplo mostra como um ciclo de prestígio de um tema de pesquisa e da relevância de uma tecnologia depende de fatores externos aos aspectos técnicos mais diretos. Uma das grandes motivações atuais para o desenvolvimento de nanopartículas é a confecção de remédios inteligentes que se associam seletivamente ao tecido/célula doente e que são facilmente injetáveis ou eliminados devido às dimensões nanoscópicas. Nanopartículas de ouro revestidas de materiais biocompatíveis, responsáveis pela seletividade, são, por exemplo, importantes marcadores de células doentes. Uma visão rápida e abrangente da importância dessa área pode ser obtida na visita à página da revista Drug Delivery Technology.11 9
Atualmente, a resolução chega a décimos de nanômetro, permitindo a visualização individual de átomos pesados e a determinação de espaçamentos inter-atômicos. 10 A uniformidade nas micropartículas de guta percha foi essencial na experiência de Perrin, por exemplo, como discutido mais acima. 11 http://www.drugdeliverytech.com/
Cadernos IHU Idéias
9
A busca pela nano-manipulação O paradigma atual para a instrumentação em nanotecnociência é, provavelmente, o conjunto de microscópios de varredura de sonda (scanning probe microscopes) desenvolvidos no início dos anos 1980 (Neves, 1998). Esses instrumentos são constituídos de três elementos que precisam estar acoplados. Primeiro a sonda em si, objeto que só pode ter uma resolução nanoscópica se também tiver dimensões da mesma ordem de grandeza. Essas sondas precisam ser deslocadas sobre o objeto de estudo de forma controlada (a varredura do nome) com precisão também da ordem de nanômetros ou mesmo Angstrons. Por último, a variação da medida de uma propriedade física, em função da posição da sonda, precisa ser “traduzida” em imagens do objeto estudado (ou manipulado) em escala atômica. A confecção das sondas é interessante, mas aqui vou me ater ao segundo aspecto, a movimentação controlada com precisão subnanométrica. Essa movimentação, controlada nas 3 direções do espaço no caso de um microscópio de varredura de ponta, teve precursores bastante interessantes. O princípio desse controle baseia-se no uso da piezoeletricidade para converter uma voltagem em uma mudança sutil nas dimensões de um de um tipo particular de material cristalino. Esse princípio era bem conhecido em 1960, e o melhor material disponível era a cerâmica de titanato zirconato de chumbo (PZT), que podia ser encontrado no mercado desde 1952. É difícil localizar na literatura especializada o primeiro registro do uso desse material para realizar movimentos nanoscópicos controlados, mas os trabalhos de David Tabor, entre 1969 e 1972, merecem uma revisão, pois utilizaram o PZT para posicionamento em escala nanométrica para medir forças de van der Waals entre superfícies de mica (Tabor, 1972). Esse controle era apenas em uma direção, para aproximar e afastar as duas superfícies, sendo a força entre elas medidas por deflexões de uma haste elástica (o mesmo princípio do microscópio de força atômica, inventado em 1986!). A microscopia de varredura precisava ainda de um controle de posição no plano da superfície, e não apenas na direção vertical (esses microscópios são interessantes por medir a variação de uma força com a posição), mas a pista de como fazer esse controle – usando o efeito piezoelétrico – também já se encontrava disponível desde pelo menos 1961, ano da defesa de tese de G. W. Ellis sobre o potencial de transdutores piezoelétricos para uso em micromanipuladores12 (Ellis, 1961). O interesse nesse trabalho pioneiro era o da manipulação de células, ou seja, biofísica e não
12 Um protótipo de um micromanipulador piezoelétrico foi construído em 1955 por Gordon Ellis.
10
Peter A. Schulz
(ainda) nanotecnociência. O grande salto possível no contexto mais recente, esse sim inimaginável para esses precursores, é a visualização e manipulação de átomos individuais. Outros micromanipuladores e um exemplo da nanotecnociência brasileira Um trabalho recente e muito interessante foi a confecção de um fio de átomos de ouro, que pode ser filmada em um microscópio eletrônico de alta resolução do Laboratório Nacional de Luz Sincrotron em Campinas (Rodrigues, 2000). As imagens impressionantes mostram fios de até 5 átomos de ouro em linha. Uma outra série de experimentos determina como a resistência elétrica desses nanofios é controlada inequivocamente pela mecânica quântica. Uma versão simples desse experimento pode ser feita em laboratórios de ensino, simplesmente observando o contato intermitente de fios de ouro encostados e postos a vibrar. A vibração provoca a alternância entre contato e separação dos fios com uma variação da resistência elétrica em função do tempo. Na eminência da ruptura do contato entre os fios, existe uma ponte nanoscópica de ouro entre os fios, e a resistência elétrica é quantizada (Rodrigues, 1999). Nos experimentos das imagens, fios de ouro são criados a partir de “pontes” em uma membrana de ouro, obtidas por furos feitos pelo próprio feixe de elétrons do microscópio. Essas pontes são então estreitadas por tensões aplicadas até o limite de uma “pinguela” de espessura monoatômica. Esse experimento tem um precursor praticamente esquecido pela história, realizado em 1939 por G. L. Pearson (Pearson, 1939). Esse cientista dos laboratórios Bell estava preocupado com as correntes entre contatos elétricos separados por distâncias microscópicas, problema de relevância no desenvolvimento de relês eletromecânicos para telefonia. No trabalho em questão, são apresentados “[...] dados mostrando a formação de pontes de baixa resistência elétrica, formadas entre eletrodos metálicos separados (por distâncias microscópicas), a campos elétricos de dezenas de milhões de volts por centímetro e que o material dessas pontes é o mesmo dos eletrodos [...]” (Pearson, 1939). A distância entre os eletrodos era controlada por um dispositivo mecânico com movimentos de precisão de até 10-7 cm, ou seja, um nanômetro. Por muito pouco que em 1939 não foi observada a famosa quantização da condutância, verificada somente 60 anos depois.
Cadernos IHU Idéias
11
A longa história do auto-arranjo Para tornar a nano fabricação possível em toda sua potencialidade, um novo paradigma faz-se necessário: a auto-organização, associada ao auto-arranjo ou autoformação. Essa idéia baseia-se na aposta de que os próprios nano-objetos se organizassem e construíssem os dispositivos que seriam de confecção impossível para ferramentas exteriores. Impossível ou muito lenta, pois a manipulação átomo a átomo (microscopia de varredura de sonda), embora fascinante, do ponto de vista da produção teria o desempenho de um pedreiro assentando tijolos (átomos), mas nesse caso a “casa” (memórias RAM, por exemplo) teria bilhões de tijolos em vez de dezenas de milhares de uma casa convencional. E um microscópio de varredura de sonda não é muito mais rápido assentando átomos do que um ser humano assentando tijolos! Aqui, é bom lembrar que, na tecnologia “convencional” dos circuitos integrados baseados em silício, todos os “tijolos” (componentes eletrônicos) de um circuito são impressos simultaneamente. O conceito de auto-arranjo (self assembling) é, hoje, bem estabelecido e um exemplo importante de auto-organização e de auto-arranjo é o DNA, cujas características estão sendo exploradas como opção para uma eletrônica molecular (Seeman 2004): [...] Cientistas da Universidade Duke vem utilizando as propriedades de auto arranjo do DNA para produção em massa de estruturas em escala nanométrica no formato de treliças nas quais padrões de moléculas podem ser especificados. Eles declaram que esse avanço representa um passo em direção à produção em massa de circuitos eletrônicos e ópticos com dimensões 10 vezes menor que os menores circuitos produzidos atualmente.13
Apesar de promissor, esses avanços ainda demorarão a aparecer em equipamentos comerciais. Por outro lado, a idéia de uma eletrônica molecular já é razoavelmente antiga e aparece discutida em seus contornos já bastante atuais em um artigo de Arthur Robinson na revista Science em 1983 (Robinson, 1983). Os título e subtítulo são sugestivos: “ Nanocomputadores de moléculas orgânicas? A última palavra em eletrônica miniaturizada é um computador cujos elementos são moléculas que poderiam inclusive se reproduzir e se montar”. A idéia de um dispositivo molecular remonta a uma proposta de 1974, feita por Ari Arivan e Mark Ratner (segundo Robinson, 1983), mas o conceito de auto-arranjo é ainda anterior, sendo proposto pelo químico Hans Kuhn ainda nos anos 60 do século passado: 13 Notícia divulgada em: http://www.eurekalert.org/pub_releases/2005-12/ du-dsu122005.php
12
Peter A. Schulz Os experimentos descritos a seguir partem do pressuposto de construir sistemas organizados simples a partir de moléculas, ou seja, uma organização de moléculas individuais, cujas propriedades são determinadas por seu ordenamento. Enquanto que as moléculas já se associam de forma organizada nas mais simples estruturas biológicas, faltam aos químicos os métodos para conectar moléculas de uma maneira pré-programada. Ele (o químico) consegue sintetizar moléculas bastante complexas, mas não consegue, como faz a natureza, agregar distintas moléculas de modo planejado. Nós podemos vislumbrar o objetivo longínquo de construção de agregados organizados maiores desde dois aspectos. Por um lado, estaremos motivados para refazer estruturas biológicas simples. Por outro lado, devemos nos esforçar para produzir organizações de moléculas, não tendo a natureza como inspiradora e sim a nossa fantasia, que sejam úteis e com propriedades dependentes da organização precisa das moléculas no agregado e assim obter ferramentas com dimensões moleculares.14
Esse texto, transcrito da introdução de um artigo científico, possui agora um caráter de premonição impressionante. A proposta já existia e era pesquisada, portanto, há mais de 40 anos, mas apenas nas duas últimas décadas foi incorporada por um grupo mais amplo dentro da comunidade científica como uma estratégia de desenvolvimento.15 Mais sobre a lei de Moore e os fenômenos emergentes Gordon Moore foi um dos co-fundadores da Intel e foi também um visionário da nanotecnociência em relação a um de seus conceitos fundamentais, como já mencionado, que vem a ser a miniaturização. A famosa lei foi formulada em 1965 nos primórdios da então microeletrônica e previa inicialmente que o número de componentes em um chip dobraria a cada ano. O marco inicial da microeletrônica foi a invenção do circuito integrado por Jack Kilby em 1958,16 nos laboratórios da Texas Instruments. Em 1975, Moore reviu a lei, anunciando que o ritmo diminuiria para a multiplicação dos componentes por 2 somente a cada dois anos. Muitas vezes, a lei é citada incorretamente como sendo 18 meses o tempo necessário para esse aumento de 100% no número de componentes / chip. 14 Kuhn H. em Pure and Appl. Chem., n. 11, 1965, p. 435. 15 A pesquisa de sistemas auto-organizados remontam ao século XIX, com a descoberta dos anéis de Liesegang em soluções que apresentam competição entre processos de difusão e reações químicas (cf. o site http://www.sas.org/ tcs/weeklyIssues/2004-04-30/chem/), bem como a auto organização de filmes finos de óleo sobre água (para explorar mais esse tema leia, por exemplo, Oliveira jr. O. N., Langmuir-Blodgett films, Braz. J. Phys. (1992), vol. 22, p. 60-69). 16 Ver o site da Texas Instruments: http://www.ti.com/corp/docs/kilbyctr/jackstclair.shtml
Cadernos IHU Idéias
13
Na discussão inicial, publicada na revista Electronics (Moore, 1965), Moore antecipa que o número de componentes de um circuito integrado em 1975 seria de 65.000. Nas diferentes versões que foram sendo divulgadas, aparecem algumas inconsistências: os números às vezes se referem a componentes em geral, outras vezes a transistores propriamente ditos. Assim, é interessante navegar pelos detalhes do próprio site corporativo sobre o tema (Intel). No artigo original, a projeção para 1975 é realmente de 65.000 componentes e, em vários gráficos, a lei de Moore é apresentada como número de transistores em um chip como função do ano. No gráfico do site da Intel, o ano de 1975 dá conta, no entanto, de apenas 10.000 transistores por chip. É interessante observar também que por esse gráfico não se verifica uma diminuição de ritmo proposto pelo próprio Moore em 1975, pelo contrário, parece que o ritmo é mais acelerado ainda! O que sim parece ter diminuído de ritmo é a evolução da performance dos microprocessadores em MIPS (milhões de instruções por segundo). Na discussão do artigo de 1965, Moore delineia um excelente planejamento estratégico, mas não prevê nenhuma ruptura tecnológica para dar continuidade a suas previsões. Nesse sentido, Moore é até bastante conservador, sempre focalizando os limites da tecnologia baseada no silício. Além disso, a lei de Moore é apenas uma “lei” entre aspas. Não se trata de uma lei da natureza, como a da gravitação universal, válida para qualquer distância ou massa. Mesmo assim, as especulações sobre até quando ela se manterá (com eventuais variações de ritmo) ocupam bastante espaço na literatura especializada, bem como nas publicações de interesse geral. Uma maneira de vislumbrar esse limite é numa demonstração alternativa da lei: a diminuição das dimensões características dos componentes em um circuito integrado com o tempo. De acordo com essa representação da lei, por volta de 2040, essas dimensões características seriam equivalentes ao diâmetro de um único átomo. Esse seria definitivamente um limite intransponível, mas não é a questão relevante. Todas essas previsões não levam em conta rupturas tecnológicas, que abrem novas possibilidades totalmente emergentes, isto é, impossíveis de serem previstas com base nos paradigmas disponíveis. Um exemplo, agora histórico, de ruptura é o próprio surgimento da microeletrônica. As reais possibilidades da eletrônica molecular não podem ainda ser avaliadas ou, em outros termos, não temos condições ainda de propor uma “lei de Moore” para essa nova tecnologia. E quanto ao limite intransponível de 1 átomo? Bem, em princípio, a capacidade de processamento de dados não se esgotaria com tão drástica redução de tamanho dos componentes, pois estamos o tempo todo pensando em termos de computação clássica, cuja capacidade poderia ser ainda multiplicada por uma nova forma de computação, baseada
14
Peter A. Schulz
na mecânica quântica.17 E, assim, chegamos a uma versão mais abrangente da lei de Moore: o que importa seria a evolução da capacidade de processamento de dados por unidade de custo em função do tempo. Uma análise desse tipo foi realizada por Ray Kurzweil, no seu texto “The law of accelerating returns” (Kurzweil), que observa um contínuo aumento nessa capacidade de processamento desde 1900, apesar de cinco mudanças de paradigmas tecnológicos (cartões perfurados, relês eletromecânicos, válvulas eletrônicas, transistores e, finalmente, circuitos integrados). Esse argumento parece sugerir que o aumento continuaria com o surgimento de novos paradigmas tecnológicos. A premonição de Feynman e o projeto de uma nova ciência O eminente físico norte americano Richard Feynman18 é considerado o profeta da nanotecnociência, tendo sido a profecia anunciada em uma palestra proferida por ele no Insituto de Tecnologia da Califórnia em 29 de dezembro de 1959. O título dessa palestra era “There is plenty of room at the bottom” (“Tem muito espaço lá embaixo”). Uma das hipóteses levantadas nessa palestra era a de que seria possível condensar, na cabeça de um alfinete, todos os 24 volumes da Enciclopédia Britânica, vislumbrando as futuras descobertas na fabricação de sistemas em escala atômica e molecular. Essa palestra é um exemplo de texto que é muito mais citado do que realmente lido, parâmetro que indica sua importância, mas que, por outro lado pode dar origens a lendas urbanas não justificadas. Existe uma tradução para o português dessa palestra19 e vale a pena ler com atenção. Feynman aborda praticamente todos os conceitos importantes da nanotecnociência, começando com a proposta de que “o que eu quero falar é sobre o problema de manipular e controlar coisas em escala atômica”. A motivação para essa manipulação é condensar a informação em uma escala imaginada na época talvez só por ele, mas que hoje em dia faz parte do nosso cotidiano. O interessante nessa palestra é que Feynman não propõe a questão no vazio, mas aborda estratégias (ainda não viáveis tecnologicamente na época) para conseguir o objetivo proposto. Nesse sentido, a pa-
17 Não é objetivo desse artigo tratar de assunto tão complexo como a computação quântica, mas uma introdução ao tema pode ser obtida no site da Sociedade Brasileira de Matemática Aplica e Computacional: http://www.sbmac.org.br/ boletim/pdf_2004/livro_08_2004.pdf 18 Um livro autobiográfico muito ilustrativo do espírito de Richard Feymman foi traduzido recentemente para o português: O senhor esta brincando, Sr. Feynman?. Rio de Janeiro: Campus, 2006. 19 Pode ser encontrada numa edição especial sobre nanociência da revista eletrônica Comciência: http://www.comciencia.br/reportagens/na notecnologia/ nano19.htm
Cadernos IHU Idéias
15
lestra segue com a discussão de “como escrevemos pequeno?”, que é um problema distinto de como ler essa informação miniaturizada. Para isso, seriam necessários “melhores microscópios eletrônicos”, e Feynman segue sua palestra fazendo um paralelo com o “maravilhoso sistema biológico”: O exemplo biológico de escrever informação em uma escala pequena inspirou-me a pensar em algo que pudesse ser possível. A biologia não é simplesmente escrever informação; é fazer algo com ela. Várias das células são muito pequenas, mas podem ser muito ativas; elas fabricam várias substâncias; deslocam-se; vibram; e fazem todos os tipos de coisas maravilhosas – tudo em uma escala muito pequena. Além disso, armazenam informação. Considerem a possibilidade de que nós também possamos construir algo muito pequeno que faça o que queiramos – que possamos fabricar um objeto que manobra naquele nível!
Feynman aborda na palestra vários problemas envolvendo princípios físicos que poderiam ser encontrados no caminho até o espaço lá embaixo, mas atreve-se a propor até o rearranjo dos átomos: Mas não tenho medo de considerar a questão final em relação a se, em última análise – no futuro longínquo –, poderemos arranjar os átomos da maneira que queremos; os próprios átomos, no último nível de miniaturização! O que aconteceria se pudéssemos dispor os átomos um por um da forma como desejamos (dentro do razoável, é claro; você não pode dispô-los de forma que, por exemplo, sejam quimicamente instáveis).
Como existe uma tradução para o português facilmente acessível, não cabe aqui esmiuçar todos os detalhes dessa palestra e eu convido a todos para lê-la na integra. O objetivo aqui é exatamente propor essa leitura – ou releitura – a partir dos elementos reunidos nesse artigo, ou seja, levando em conta as informações disponíveis na época. Feynman era um cientista muito bem informado e, embora não faça citações em um sua palestra, estava muito provavelmente informado sobre as conquistas científicas e tecnológicas do seu tempo: as possibilidades de micromanipulação (puramente mecânica ou piezoelétrica), os avanços possibilitados pela microscopia eletrônica na síntese de partículas coloidais, a fronteira aberta pela invenção dos circuitos integrados e a estrutura do DNA e o papel dessa estrutura na transcrição de informação. Richard Feynman ainda provoca na mesma palestra: “No ano 2000, quando olharem para esta época, perguntar-se-ão por que só no ano de 1960 que alguém começou a se movimentar seriamente nessa direção”. Hoje, sabemos que não foi em 1960 que começou um movimento sistemático nessa direção (ou seja, nanotecnociência,
16
Peter A. Schulz
nome ainda não cunhado naquele ano), mas sim mais de duas décadas depois. Por que demorou ainda tanto tempo, depois de enunciada, pelo menos em termos gerais, a receita para fazê-lo? A história desse desenvolvimento ainda não foi estudada em profundidade, mas uma das chaves para a compreensão desse fenômeno está na visão de Julie Thompson Klein sobre a interdisciplinaridade, característica da nanociência & nanotecnologia, já mencionada em nota de rodapé acima: “qualquer atividade interdisciplinar incorpora uma rede complexa de fatores históricos, sociais, psicológicos, políticos, econômicos, filosóficos e intelectuais”. Começar a construção dessa rede complexa foi a tarefa empreendida desde a premonição de Feynman e ainda estamos longe de ter tecido todos os nós dessa rede. Referências bibliográficas BLACKLEDGE TA, CARDULLO RA, HAYASHI CY. Polarized light microscopy, variability in spider silk diameters, and the mechanical characterization of spider silk. Invertebrate Biology, 2005, vol. 124, fasc. 2, p. 165-173. BEGBROKE Science Park da Universidade de Oxford museu virtual: http://www.begbroke.ox.ac.uk/nanotech/interface.html CHAGAS, A. P. Os noventa anos de Lês Atomes. Química Nova na escola, 2003, n. 17, p. 36-38. ELICES, M., PEREZ-RIGUEIRO, J., PLAZA, G. R., e GUINEA, G. V. Finding Inspiration in Argiope Trifasciata Spider Silk Fibers. JOM-on line, 2005, vol. 57, fasc. 2, p. 60. www.tms.org/pubs/journals/JOM/0502/Elices-0502.html ELLIS, G. W. Piezoelectric Micromanipulators. Science, New Series, 1962, vol. 138, n. 3537, p. 84-91. GARNETT, James clerk Maxwell. Colours in metal glasses and in metallic films. Proceedings of the Royal Society of London, vol. 73, 1904, p. 443-445. HERBST, M. C.; MACEDO, M. I. F.; ROCCO, A. M., Tecnologia dos nanotubos de carbono: tendências e perspectivas de uma área multidisciplinar. Química Nova, 2004, vol. 27, n. 6, p. 986-992. HOLTON, G. A imaginação cientifica. Rio de Janeiro: Zahar Editores, 1979, p. 35-83. INTEL, site da empresa: http://www.intel.com/technology/mooreslaw/index.htm JAFELICCI Jr.; M. e VARANDA; L. C., O mundo dos Colóides. Química Nova na escola (1999), vol. 9, p. 9-13. KLEIN, J. T. Interdisciplinarity: History, theory and practice. Detroit: Wayne State University Press, 1990. KURWEIL, R. “The law of accelerating returns”. In: http://www.kurzweilai.net/articles/art0134.html?printable=1
Cadernos IHU Idéias
17
LAI, S. C. S. Mimicking nature: physical bais and artificial synthesis of the Lotus effect. Universidade de Leiden (tese de diploma) 2003. In: http://home.wanadoo.nl/scslai/lotus.pdf MOORE, G. E. Cramming more components onto integrated circuits. Electronics, 1965, vol. 38 , fasc. 8, abril. NEVES, B. R. A.; VILELA, J. M. C.; ANDRADE, M. S. Scanning probe microscopy: an introduction. Cerâmica [online]. 1998, vol. 44, no. 290 [cited 2007-10-04], p. 212-219. OSTWALD, W. “Sobre a formação dos conceitos científicos”. Ann. Naturphil, 1902, p. 385-413. PEARSON, G. L. The formation of metallic bridges between separated contacts. Physical Review, 1939, vol. 56, p. 471-474. ROBINSON, Al. L. Nanocomputers from organic molecules?. Science, New Series, vol. 220, n. 4600, 1983, p. 940-942. RODRIGUES, V.; UGARTE, D. Quantização da condutância: um experimento simples para o ensino de física. Revista Brasileira de ensino de Física, 1999, vol. 21, p. 264-271. RODRIGUES, V.; FUHRER. T.; UGARTE, D. Signature of atomic structure in the quantum conductance of nanowires. Physical Revies Letters, 2000, vol. 85, p. 4124-4127. SEEMAN, N. C. Nanotecnologia e a dupla hélice. Scientific American Brasil, 2004, vol. 26. SCHIFFER, M. B. Cultural imperatives and product development: the case of the shirt-pocket radio. Technology and Culture, 1993, vol. 34, fasc. 1, p. 98-113. SCHULZ, P. A. B. O que é nanociência e para que serve a nanotecnologia? Física na Escola, 2005, vol. 6, n. 1, p. 58-62. TABOR, D.; ISRAELACHVILI, J. N. The measurement of van der Waals dispersion forecs in the range 1.5 to 130 nm, Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences, 1972, vol. 331, n. 1954, p. 19-38. TURKEVICH J.; STEVENSON P.C.; HILLIER J. A. Study of the nucleation and growth processes in the synthesis of colloidal Discussions of the Faraday Society, n. 11, 1951. TURKEVICH, J. Colloidal Gold. Part I Historical and preparative aspects, morphology and structure. Gold Bull, 1985, vol. 18, fasc. 3, p. 86-91. VOGT, C. Admirável nano mundo novo. Comciência – revista eletrônica de jornalismo científico, vol. XX 2002. In: http://www.comciencia.br/reportagens/nanotecnologia/nano01.htm
Peter Alexander Bleinroth Schulz (1961) é natural de São Paulo/SP. Possui graduação, mestrado e doutorado em Física, pela Universidade Estadual de Campinas – Unicamp. Tem experiência na área de Física, com ênfase em Estruturas Eletrônicas e Propriedades Elétricas de Superfícies; Interferência e Partículas, atuando principalmente nos seguintes temas: sistemas de baixa dimensionalidade, propriedades de transporte, sistemas mesoscópicos, efeitos de desordem e localização de estados. Atualmente, é professor da Universidade Estadual de Campinas – Unicamp e tem se dedicado a atividades de divulgação científica, em especial sobre nanociência, e de monitoramento da atividade científica (cienciometria). Algumas publicações do autor SCHULZ, P. A.; MENDOZA, M. Evolution of wave-function statistics from closed quantum billiards up to the open quantum dot limit: Application to the measurement of dynamical properties through imaging experiments. Physical Review B, v. 74, n. 3, p. 5304-5304, 2006. SCHULZ, P. A.; KNOBEL, M. Passado, presente e futuro da Física Quântica: digressões sobre a importância da Ciência Básica. Comciência (revista eletrônica http://www.comciencia.br/), 10 maio 2001. RIVERA, P. H.; SCHULZ, P. A. Radiation induced zero-resistance states: Possible dressed electronic structure effects. Physical Review B – Condensed Matter and Materials Physics, v. 70, n. 075314, 2004.