Dall'invenzione della carta all'iPhone

Page 1

Dall’invenzione della carta all’i-Phone come nuovi materiali e nanotecnologie hanno cambiato il mondo Gianfranco Pacchioni gianfranco.pacchioni@unimib.it Dipartimento di Scienza dei Materiali, Università degli Studi di Milano Bicocca

La rivoluzione nanotecnologica parte da lontano, da quando con la messa a punto del transistor, nel 1947, è nata la microelettronica e con essa l’era della miniaturizzazione. La conseguenza di questa trasformazione tecnologica è epocale e può essere tradotta in una parola sola: internet. C’è chi ha visto un parallelo tra i cambiamenti sociali e comportamentali associati alla nascita di internet e quelli prodotti nel quindicesimo secolo dalla introduzione della stampa a caratteri mobili da parte di Johannes Gutenberg. Così come la stampa ha permesso la rapida circolazione dei libri e quindi del sapere, a cui hanno fatto seguito movimenti politici e sociali come l’illuminismo e la rivoluzione industriale, così internet è l’inizio di una trasformazione profonda dei nostri usi, costumi e modelli culturali. Quello che è meno noto è che sia la stampa a caratteri mobili che internet sono basati su tecnologie e materiali innovativi: la carta e alcune leghe metalliche all’epoca di Gutenberg, i semiconduttori, i materiali magnetici, il laser e le fibre ottiche nei giorni nostri. Quello che segue è un breve articolo divulgativo in cui ripercorriamo alcune delle tappe fondamentali che hanno portato materiali innovativi e nanotecnologie ad avere un ruolo cruciale nella nostra vita quotidiana.

The nanotechnology revolution started long time ago, with the design of the transistor, in 1947, and the birth of microelectronics and the begin of the miniaturization era. The consequences of this technological transformation are profound and can be summarized in a single word: internet. A parallel has been proposed between the social and behavioral changes that accompanied the birth of internet with those that occurred in the fifteen century with the introduction of the printing press by Johannes Gutenberg. The printing press has allowed the rapid circulation of books hence of knowledge, and has been followed by social and political movements such as illuminism and the industrial revolution; in the same way, internet is just the initial phase of a profound revolution in our habits, attitudes and cultural models. What is less known is that both printing press and internet are based on innovative materials and technologies: paper and some metal alloys at the time of Gutenberg, semiconductors, magnetic materials, lasers, and optical fibers in our days. What follows is a brief pedagogical article where we analyze historically some of the key steps that led new materials and nanotechnologies to have a profound and relevant impact on our everyday life.

1


Alla fine del secolo scorso a un gruppo selezionato di giornalisti, ricercatori, intellettuali e politici fu posta una domanda che in realtà sembra avere molte risposte: “quel’è a vostro avviso l’invenzione o la scoperta più importante degli ultimi mille anni”? Se si pensa un attimo a questa domanda possono venire in mente davvero moltissime cose che hanno profondamente rivoluzionato la nostra vita: basti citare i progressi nella chirurgia e nella medicina, le automobili e gli aeroplani, l’elettricità o la televisione, oppure teorie scientifiche fondamentali come quella sulla evoluzione, la relatività, la genetica, e via dicendo. La lista è lunga, e ognuno può sbizzarrirsi a trovare altre risposte. In realtà, la maggior parte degli intervistati concordò sul fatto che l’invenzione di maggiore impatto degli ultimi mille anni è quella dovuta a Johannes Gutenberg, il celebre libraio tedesco attivo a Mainz nel 15° secolo a cui si deve l’introduzione della stampa a caratteri mobili, Fig. 1.

Fig. 1: Johannes Gutenberg (1390-1468)

Nel 1455 Gutenberg utilizzò per la prima volta questo procedimento dando inizio a quella che fu una vera e propria rivoluzione: la libera circolazione di idee e conoscenze. Sino a quel momento i libri erano scritti a mano (i famosi incunaboli) ed erano ovviamente estremamente costosi, nonché difficilmente accessibili, preservati com’erano nelle biblioteche dei monasteri. Si è stimato che al tempo di Gutenberg esistessero non più di 20-30.000 libri in tutto il mondo; di questi la maggior parte erano Bibbie. Solo 50 anni dopo l’introduzione del processo di stampa, erano stati pubblicati oltre 30.000 titoli diversi per un totale di 12 milioni di copie. Il costo dei libri crollò, e conoscenza e cultura iniziarono a diffondersi su porzioni sempre più ampie di popolazione, contribuendo in modo decisivo al rapido sviluppo del pensiero filosofico, del progresso scientifico e della conoscenza. Se tutti conoscono Gutenberg e la sua celebre invenzione, solo pochi sono consapevoli del fatto che il processo di diffusione della cultura basato sulla stampa a caratteri mobili si fonda su due tecnologie fondamentali: da un lato la capacità di Gutenberg (esperto metallurgista) di preparare leghe metalliche di piombo, antimonio e stagno per fabbricare i caratteri mobili in grado di non deformarsi sotto la pressione di una pressa a vite; dall’altro la disponibilità di un supporto efficace su cui imprimere i caratteri inchiostrati come la carta. La carta è fatta di fibre vegetali ed è stata inventata in Cina intorno al 150 d. C. Ci volle molto tempo però prima che questo materiale e la tecnologia per produrlo arrivassero in Europa, prima in Italia (a Fabriano) e quindi nel resto del continente. Questo avvenne infatti intorno al 1100, quasi 1000 anni dopo la sua introduzione. Tutto ciò mostra come rivoluzioni importanti come quella di Gutenberg non partano dal nulla ma spesso si basino sulla disponibilità di nuovi materiali e nuove tecnologie. Che cosa ha a che fare la storia di Gutenberg e della sua invenzione con le nanotecnologie? Proviamo a parafrasare la domanda che ci siamo posti all’inizio domandandoci quale è la più importante invenzione o scoperta degli ultimi 100 anni. Anche in questo caso la risposta non è affatto scontata. Il progresso scientifico e tecnologico dell’ultimo secolo è stato impressionante e ha cambiato in modo radicale non solo il modo di vivere, ma anche di pensare. Tra i successi maggiori della ricerca dell’ultimo secolo si potrebbero citare gli antibiotici, la struttura del DNA e la sua manipolazione, le esplorazioni spaziali, le telecomunicazioni, il computer o il trapianto di organi, e 2


chi più ne ha più ne metta. In realtà, la maggiore rivoluzione tecnologica dell’ultimo secolo è un’altra: internet. 2. Internet, la rivoluzione moderna Internet rappresenta una rivoluzione epocale, la cui portata si comincia ad apprezzare solo ora, e che pertanto può a buona ragione essere affiancata alla rivoluzione rappresentata dalla stampa a caratteri mobili. Nello stesso modo in cui quest’ultima tecnologia ha consentito un salto di qualità nell’accesso all’informazione e alla conoscenza, internet ha aperto scenari inimmaginabili anche solo 15-20 anni fa, rendendo disponibili con un click del mouse quantità impressionanti di informazione e contribuendo in modo radicale alla creazione di quel villaggio globale che è oggi il mondo in cui viviamo. Il primo web-server fu messo in funzione dal Tim Berners-Lee nel 1992, e il nome internet, dal latino “intra” e dall’inglese “net”, fu introdotto poco dopo, Fig. 2.

Fig. 2: Il primo web server (1992)

E’ però solo attorno al 1995 che internet cominciò a diffondersi tra la gente comune, per poi crescere a velocità davvero impressionante. Oggi si stima che ci siano circa 2.5 miliardi di computer in rete collegati via internet, con qualcosa come 80 miliardi di pagine web accessibili, di fatto una quantità pressoché illimitata di informazione, ma anche un cambiamento profondo e radicale di come si comunica e ci si mette in relazione con altre persone (basti pensare alla posta elettronica, a fenomeni come Skype, Twitter o Facebook). Bene, nello stesso modo in cui l’invenzione di Gutenberg si basava su alcuni materiali resisi disponibili, anche internet si fonda su materiali e tecnologie di nuova e nuovissima generazione. E generiche tecnologie: anche e soprattutto nanotecnologie! Ecco quindi che per capire quale è la portata della rivoluzione nanotecnologica non c’è bisogno di illustrare progressi e sviluppi prossimi futuri, basta fare riferimento a cose che già fanno parte della nostra vita di tutti i giorni. Ovviamente, il tutto non è cominciato all’improvviso, ma ha avuto uno sviluppo lento e progressivo, tanto che le nanotecnologie sono entrate nelle nostre case, nei nostri uffici, ma anche nelle nostre borse o nelle nostre tasche in silenzio, senza fragore. Così come carta e leghe metalliche sono state alla base della stampa, così internet parte da quattro classi di materiali fondamentali che hanno stravolto gli ultimi 50 anni: il transistor e i semiconduttori, i supporti magnetici, i materiali luminescenti da cui discende il laser, e le fibre ottiche (materiali trasparenti). 3. Il transistor e la nascita della microelettronica Il primo transistor fu messo a punto alla fine del 1947 da Shockley, Brattain e Bardeen che per questa scoperta ricevettero il premio Nobel per la fisica nel 1956. Era fatto di germanio, un elemento semiconduttore, ed era di dimensioni macroscopiche, misurando alcuni centimetri per lato, Fig. 3.

3


Fig. 3: Modello del primo transitor (1947)

In realtà si era solo all’inizio della rivoluzione microelettronica. Pochi anni dopo la scoperta, erano già in produzione industriale transistor di pochi millimetri di lato. Venivano usati nelle radio al posto delle pesanti, voluminose e fragili valvole. Nel 1954 la miniaturizzazione partoriva il primo importante risultato pratico: la radiolina portatile Regency TR1, un grande successo commerciale, Fig. 4 (la gente cominciò a poter ascoltare musica e trasmissioni radiofoniche per strada o allo stadio).

Fig. 4: La prima radio portatile a transistor (1954)

A quell’epoca però i transistor erano ancora troppo grandi e complicati per poter essere usati efficacemente per altri scopi, come ad esempio il calcolo o l’elaborazione dei dati, richiedendo infatti questa applicazione grandi numeri di transistor e complesse connessioni elettriche tra di loro. Una seconda rivoluzione nell’era microelettronica avvenne alla fine degli anni ’50 del secolo scorso, con l’introduzione di un nuovo dispositivo, il circuito integrato, e di una nuova tipologia di transistor, detto MOSFET (da metal-oxide semiconductor field effect transistor). Questa invenzione è dovuta a due persone che giunsero più o meno allo stesso tempo, e in modo indipendente, alla stessa idea, Kilby and Noyce. Anziché costruire transistor e connetterli con fili elettrici, Kilby e Noyce ebbero l’idea di fabbricare i transistor direttamente su una fetta di silicio cristallino puro (il silicio nel frattempo aveva sostituito il germanio), depositando uno strato sottile di un isolante, un film di ossido di silicio, e un elettrodo metallico. Tutto sulla stessa piattaforma, il “wafer” o fetta di silicio. Questo richiedeva però di disegnare e ricavare i transistor sul wafer mediante delle tecniche di fotolitografia, usate ancora oggi per la produzione di circuiti integrati. Kilby ha visto riconosciuto i suoi importanti contributi in questo 4


settore con il premio Nobel assegnatogli nel 2000, riconoscimento che non è potuto andare a Noyce, prematuramente scomparso nel 1990. Ma il circuito integrato era nato, e con lui si era aperta la possibilità di spingere la miniaturizzazione sempre più in giù, riducendo le dimensioni dei transistor sino ai pochi nanometri di oggi e al tempo stesso abbattendo drasticamente il costo di fabbricazione per transistor. Questo approccio, che parte da un oggetto di grandi dimensioni per ricavarne via via di più piccoli, è uno dei paradigmi delle nanotecnologie e va sotto il nome di approccio “top down”. Con il circuito integrato nasce anche l’era dell’informazione digitale, con conseguenze inimmaginabili sui nostri stili di vita. Un transistor infatti può esistere in due stati, carico o scarico, “on” o “off”, e questo segnale elettrico può essere utilizzato per elaborare e immagazzinare informazioni mediante il codice binario. La possibilità di progettare computer potenti divenne così realtà, e già nel 1965 Gordon Moore, uno dei fondatori della Intel, formulò la sua famosa legge empirica rimasta nota come legge di Moore. In un articolo pubblicato sulla rivista Popular Electronics nello stesso anno, Moore affermò che il numero di transistor ricavabili per unità di area da allora in poi sarebbe raddoppiato ogni 18 mesi permettendo una crescita esponenziale dalla capacità di elaborazione negli anni seguenti, Fig. 5.

Fig. 5: Sviluppo esponenziale del numero di transistor per processore (curva rossa) e il crollo del costo per transistor (curva azzurra) dal 1970 al 2006

Con qualche correzione (il numero di transistor per unità di superficie è raddoppiato circa ogni 24 mesi) questa legge è rimasta valida sino a pochi anni orsono, quando sono stati praticamente raggiunti i limiti fisici di questo tipo di miniaturizzazione. La dimensione di un singolo transitor è diminuita al punto che le moderne tecnologie sono basate su dispositivi della dimensione di circa 20 nanometri (1 nm = 10-9 m). L'IBM ha già progettato lo stadio successivo: un transistor di 7 nanometri di dimensione. Tanto per dare un'idea, in 7 nm di lato ci stanno circa 40 atomi! I costi di produzione e i problemi di controllo sono però enormi, tanto che si pensa che lo sviluppo futuro dei computer seguirà strade completamente diverse, come il computer quantistico. Per ora ci accontentiamo di usare computer basati sui transistor, sempre più piccoli e quindi sempre di più. Il potere di calcolo è letteralmente esploso; i primi PC (personal computer) che apparsero sul mercato alla fine degli anni '70 del secolo scorso (come il Commodore, l'Apple II, il primo PC IBM, Fig. 6, e l'Olivetti M24) erano tutti molto più potenti del più grande calcolatore a valvole mai costruito, l'ENIAC del 1946 con più di 17000 valvole e un peso di 30 tonnellate, Fig. 7.

5


Fig. 6: Il personal computer (PC) IBM (1981)

Oggi però la loro potenza di elaborazione appare ridicola, essendo di molti ordini di grandezza inferiore a quella di un qualsiasi telefono cellulare. La rivoluzione microelettronica è cominciata così, in sordina, facendoci entrare con i transistor nell'era delle nanotecnologie senza che potessimo accorgercene.

Fig. 7: Il computer a valvole ENIAC (1946)

La scoperta del transistor e l'era della microelettronica hanno radicalmente cambiato i nostri stili di vita. Ma mentre il ruolo della tecnologia dei semiconduttori in questi processi è ampiamente noto e riconosciuto, ci sono altre tecnologie fondamentali che hanno contribuito in modo decisivo all'affermarsi del settore e alla rivoluzione nelle telecomunicazioni, portandoci infine a internet e al mondo globale che oggi conosciamo. Molte di queste tecnologie sono, in un modo o in un altro, legate a sviluppi nanotecnologici. 4. I materiali magnetici Quando sono apparsi i primi computer basati sui transistor, ci si è trovati di fronte allo stesso problema pratico che ebbe Gutenberg con la stampa a caratteri mobili: dove immagazzinare l'informazione? Sorprendentemente, inizialmente le tecniche per conservare dati nell'era informatica usarono lo stesso supporto fisico usato da Gutenberg per la stampa: la carta. Infatti, la registrazione di dati su supporti fissi avveniva mediante schede o nastri perforati dove la posizione dei fori corrispondeva a un ben preciso carattere e la lettura veniva fatta in modo ottico. E' evidente che un sistema simile non avrebbe potuto reggere a lungo data la mole crescente di dati da "scrivere" e conservare: una scheda perforata contiene una sequenza di solo 80 caratteri, Fig. 8!

6


Fig. 8: Una scheda perforata

Già agli inizi degli anni '50 del secolo scorso si cominciò a esplorare un modo poi dimostratosi molto potente di ricordare dati facendo uso di supporti magnetici. I primi dispositivi magnetici nei computer elettronici erano di ferrite, un materiale a base di ossidi di ferro con proprietà magnetiche intrinseche. Comparvero così i primi dischi e nastri magnetici. L'IBM fu la prima società ad introdurre questa tecnologia per scrivere e leggere dati, divenendo rapidamente leader mondiale nella produzione di supporti magnetici (incluse le prime schede magnetiche che oggi usiamo in mille modi, dal bancomat alla tessera sanitaria). La possibilità di immagazzinare informazione in una data area cominciò a crescere in modo simile a quella di fabbricare sempre più transistor su un wafer di silicio. Qui il problema era simile ma la tecnologia completamente diversa. Anche un dispositivo magnetico può esistere in due stati, magnetizzato o non magnetizzato, oppure magnetizzato in una direzione o in quella opposta. Queste diverse situazioni fisiche possono essere tradotte in due stati logici, lo 0 e l'1 della informazione in codice binario. Tanto più piccola è la regione magnetizzata, tanti più dati si possono immagazzinare in un dato supporto. Per magnetizzare o demagnetizzare una specifica zona (detto dominio magnetico) occorre però una testina magnetica, un sensore, in grado di "scrivere", "cancellare" o "leggere" l'informazione. Più l'area interessata è piccola, più i sensori magnetici usati nella testina devono essere sofisticati e sensibili. Verso la fine degli anni '80 la tecnologia dei dischi magnetici sembrava aver praticamente raggiunto i limiti fisici di miniaturizzazione dei domini magnetici. Allo stesso tempo, nei primi anni '80, era apparsa una tecnologia radicalmente nuova che era considerata in grado di soppiantare completamente i supporti magnetici per la registrazione di dati. Stiamo parlando dei dischi a lettura ottica, compact disk o CD. Grazie al laser, un sistema che ha avuto una importanza cruciale nello sviluppo della information technology e di cui parleremo tra poco, divenne possibile "scrivere" o "leggere" informazione usando un raggio luminoso focalizzato. La lettura e scrittura ottica con un laser consentono di ridurre notevolmente le dimensioni delle regioni interessate, aumentando di molto la quantità di dati immagazzinati sul supporto. Non sorprende quindi che questa tecnologia fosse ritenuta in grado di soppiantare e sostituire completamente i "vecchi" dischi magnetici. Avendo lavorato al centro di ricerche IBM di Almaden in California in quegli anni, ricordo molto bene come la potenziale perdita del settore di mercato dei dischi magnetici, in cui IBM era dominante, preoccupasse molto l'azienda e i suoi dipendenti. In realtà, spesso accade che vere e proprie rivoluzioni tecnologiche avvengono in modo imprevedibile grazie a scoperte importanti che fanno fare un salto di qualità in una certa direzione. Questo è quello che si verificò verso la fine degli anni '80 e che ci riporta direttamente al tema delle nanotecnologie (che allora ancora non si chiamavano così). Proprio quando i dischi magnetici sembravano dover diventare obsoleti e andare fuori mercato, due scienziati europei, il francese Albert Fert e il tedesco Peter Grünberg fecero indipendentemente una importante osservazione. Un dispositivo composto di strati molto sottili di materiali magnetici e metalli non magnetici esibiva una resistenza particolarmente elevata al passaggio di corrente quando esposta anche a deboli campi magnetici. Era il 1988. Il sorprendente effetto osservato veniva chiamato Giant Magneto-Resistance (GMR, magneto-resistenza gigante) e rappresentava una delle prime importanti conseguenze della possibilità di crescere strati sovrapposti di strati di materiale di pochi nanometri di spessore. In altre parole, la scoperta era la conseguenza della capacità di produrre oggetti su scala nanometrica, un mondo largamente inesplorato in cui si manifestano nuovi fenomeni. La scoperta di Fert e Grünberg ebbe un effetto concreto e immediato. L'effetto GMR costituisce un fenomeno fisico utilissimo per la progettazione e fabbricazione di 7


testine magnetiche sensibilissime in grado di rilevare domini magnetici di dimensioni estremamente piccole. Questo ha consentito di passare da dischi magnetici in grado di immagazzinare mega-byte di informazioni (1 Mb = 106 bytes) a supporti magnetici a densità elevatissima come quelli che utilizziamo oggi. E' stato un ricercatore dell'IBM, Stuart Parkin, a tradurre la scoperta di Fert e Grünberg in una applicazione pratica di grande importanza, mettendo a punto una nuova classe di testine magnetiche basate sull'effetto GMR. Già alla fine del secolo scorso tutti i dischi magnetici in commercio erano basati su questa nuova tecnologia. Oggi possiamo comprare un disco da un terabyte di informazioni (1 Tb = 1012 bytes) per 100 Euro. In mezzo secolo la capacità di storage di dati su supporti magnetici è aumentata di otto ordini di grandezza, Fig. 9.

Fig. 9: Sviluppo della capacità di storage magnetico negli anni

Non sorprende quindi che la scoperta di Fert e Grünberg sia stata premiata con il premio Nobel in fisica nel 2007. Tra l'altro, lo sviluppo dei supporti magnetici a scapito dei promettenti dischi ottici, CD o DVD, è dovuto anche a un altro problema di questi ultimi dispositivi: la relativa lentezza con cui l'informazione viene letta o scritta, un aspetto fondamentale quando quantità massicce di dati vengono registrati su un supporto permanente. Così, la storia della registrazione di dati su supporti magnetici e della competizione con i supporti ottici, che hanno trovato comunque ampie applicazioni come strumenti di conservazione permanente di dati, rappresenta un tipico esempio di come sia difficile prevedere lo sviluppo della scienza e della tecnologia ma anche di come le nanotecnologie siano ormai alla base di molte delle cose che usiamo quotidianamente. 5. Laser e fibre ottiche Sino ad ora abbiamo visto come le moderne tecnologie di comunicazione siano basate su due sviluppi nano-tecnologici importanti come i transistor e i sensori per testine magnetiche. I primi ci consentono di elaborare dati e informazioni nei computer, i secondi di scrivere e leggere tali dati nelle varie fasi in cui vengono utilizzati. Ma la trasmissione di grandi quantità di dati, cosa che facciamo quotidianamente spedendo documenti o foto a amici e colleghi, richiede due ulteriori tecnologie fondamentali, entrambe basate su materiali messi a punto con specifiche funzioni: il laser e le fibre ottiche. Il laser fu introdotto negli anni '50 del secolo scorso, e il primo brevetto di un laser a rubino, un ossido di alluminio drogato con atomi di cromo, fu depositato nel 1960 da T. Maiman, Fig. 10.

8


Fig. 10: Rappresentazione schematica del laser a rubino (1960)

Nessuno all'epoca era consapevole di quante fondamentali applicazioni sarebbero state basate su questo dispositivo negli anni a venire. Nessuno poteva prevedere che grazie alle sue specifiche caratteristiche il laser sarebbe diventato il sistema per trasmettere, sotto forma di rapidissimi impulsi luminosi, enormi quantità di dati tra computer diversi collegati tra loro in una rete. Quindi, mentre nel computer l'informazione viene elaborata grazie al cambiamento di stato di carica elettrica di un transistor (elettroni), quando i dati vengono "inviati" sono tradotti in impulsi di luce (fotoni) che possono viaggiare a velocità elevatissime. E' grazie al laser dunque che con un click del mouse possiamo spedire in pochi secondi quantità enormi di dati, interi libri, film, brani di musica, tutto digitalizzato in forma di 0 e 1. I laser di nuova generazione non sono più basati su cristalli di rubino bensì su strati ultrasottili di materiali semiconduttori, ciascuno dello spessore di pochi nanometri. Quindi anche qui le nanotecnologie hanno avuto un ruolo importante. Ma come possono gli impulsi luminosi generati dal laser viaggiare senza essere assorbiti o deviati? E soprattutto come possono giungere a destinazione correttamente? Tutto questo avviene grazie alle fibre ottiche, fili sottilissimi ma lunghissimi di vetro purissimo (l'unico componente è la silice, SiO2), totalmente flessibili, che rappresentano delle vere e proprie autostrade su cui corrono i fotoni generati dal laser, Fig. 11. La trasparenza assoluta è la proprietà chiave delle fibre ottiche. Un materiale trasparente infatti è attraversato dai fotoni di luce senza assorbirli. Questo consente di trasportare i fotoni generati per decine e persino centinaia di chilometri prima che il segnale ottico sia raccolto, amplificato e ritrasmesso.

Fig. 11: Fibre ottiche

Quando arriva a destinazione, un dispositivo chiamato router ritrasforma il segnale ottico in segnale elettrico e il dato è a disposizione di chi l'ha ricevuto. Le fibre ottiche sono quindi veri e propri canali in cui quantità enormi di informazione viaggiano ogni istante a velocità della luce. Quindi, per riassumere, abbiamo visto che in un modo del tutto simile alla straordinaria invenzione di Gutenberg basata su carta e leghe metalliche, anche la recente rivoluzione nella tecnologia della comunicazione si basa su una varietà di materiali quali i semiconduttori di cui sono fatti i transistor e i laser, i materiali isolanti trasparenti di cui sono fatte le fibre ottiche, e i materiali magnetici usati per registrare i dati. Spesso, questi materiali sono prodotti con nanotecnologie che hanno aumentato 9


enormemente la potenzialità di questi dispositivi. Molti di questi sistemi sono stati ridotti di dimensione con processi “top down”, sino a raggiungere i limiti fisici consentiti con queste tecniche. Oggi oggetti sofisticatissimi e potentissimi come un telefono cellulare di nuova generazione, uno smart-phone o un i-pad occupano volumi e hanno pesi ridottissimi proprio grazie a questa capacità di contenere le dimensioni dei componenti e aumentare di conseguenza prestazioni e funzioni. Questa fu anche la previsione, o meglio sarebbe dire la visione, di Gordon Moore nel suo famoso articolo del 1965 in cui descriveva un futuro, che allora appariva davvero molto lontano, in cui computer e altri oggetti elettronici sarebbero stati venduti nei supermercati accanto a cosmetici e detersivi, Fig. 12. Quando l’articolo apparve tale previsione sembrò del tutto irrealistica a molti osservatori; ma questo è proprio quello che è accaduto e che vediamo tutti i giorni.

Fig. 12: L’immagine riportata nel famoso articolo di Gordon Moore pubblicato su “Popular electronics” nel 1965. Nella visione dell’autore un giorno i computer staranno in una mano e verranno venduti in un supermercato, come poi avveratosi

La storia di internet, della microelettronica e del personal computer ci hanno portato quindi direttamente nel mondo “nano”, dandoci al tempo stesso una prova concreta delle sue potenzialità rivoluzionarie. Va detto subito però che il termine “nanotecnologie” è usato in vari contesti, e che può avere significati diversi per persone diverse. A molti di noi appare come una rivoluzione annunciata, anche se molto di quello che produrrà resta assai misterioso. In realtà, anche in base a quanto detto sopra, la nanotecnologia è già arrivata e ne facciamo largo uso sia pure senza esserne coscienti. Quindi le nanotecnologie hanno già prodotto profonde rivoluzioni, e altre ne produrranno. 6. La nascita delle nanotecnologie Diversamente da molti altri campi di ricerca moderni, la nanotecnologia ha una data di nascita precisa, almeno in senso convenzionale. Infatti, il 29 dicembre del 1959 il famoso fisico americano Richard Feynman, Fig. 13, tenne una lezione al Caltech che viene oggi considerata come l’inizio dell’era delle nanotecnologie.

Fig. 13: Richard Feynman (1918-1988)

In una presentazione che non esitiamo a definire futuristica, Feynman pose l’attenzione sulle grandi potenzialità legate alla manipolazione della materia sulla scala degli atomi e delle molecole. “Ora, il 10


titolo di questa lezione è C’è molto spazio giù in fondo, non semplicemente C’è spazio giù in fondo. Ciò che ho dimostrato è che c’è spazio, ossia che si possono ridurre le dimensioni degli oggetti in modo pratico. Ora voglio dimostrare che in realtà c’è tantissimo spazio. Non discuterò come fare tutto ciò, ma solo del fatto che è possibile sulla base delle leggi fisiche che conosciamo sfruttare a fondo tutto questo spazio”. Con questo discorso Feynman puntò l’attenzione sul fatto che il potenziale connesso con il controllo di operazioni su scala nanometrica è enorme, e che non ci sono leggi fisiche che limitino in linea di principio questo potenziale. D’altra parte, Feynman era perfettamente consapevole che atomi e molecole, con dimensioni anche ben al di sotto del nanometro, sono oggetti estremamente piccoli e che una loro manipolazione richiede di sviluppare tecnologie molto sofisticate, non disponibili all’epoca del suo famoso discorso. Infatti, ci vollero alcuni decenni prima di fare dei reali progressi in questa direzione. Ma perché c’è un potenziale così grande nel manipolare la materia su scala nanometrica? Per meglio comprendere questo aspetto consideriamo un numero familiare ai chimici, le cui dimensioni però sono molto difficili da concepire e immaginare per la nostra esperienza quotidiana. Mi riferisco al numero di Avogadro, ossia il numero di molecole contenute in una quantità macroscopica di sostanza, la mole, che corrisponde a un certo numero di grammi della sostanza stessa. Se molti hanno sentito parlare del numero di Avogadro, pochi sanno che questo numero non è stato introdotto da Avogadro stesso che, nel 1812, si limitò a scoprire una importante legge dei gas: ”Volumi uguali di gas alla stessa temperatura e pressione contengono lo stesso numero di molecole”. Per stabilire esattamente quante sono le molecole contenute in una mole ci volle oltre un secolo di sforzi, e la stima più accurata del numero di Avogadro fu fatta da Einstein nel 1911: 6.0221367 x 1023. Si tratta di un numero enorme, seicentomila miliardi di miliardi, difficile da immaginare. Giusto per dare un’idea, si stima che su tutta la terra vivano circa 1016 formiche (dieci milioni di miliardi). Questo significa che per fare un numero di Avogadro di formiche, ci vorrebbero 60 milioni di pianeti come la Terra. Questi numeri ci dicono che non solo è pieno di posto nel nano mondo, per usare l’espressione di Feynman, ma anche che c’è un numero enorme di oggetti. Se saremo in grado di far fare a questi oggetti compiti precisi (come immagazzinare o elaborare informazione) si apriranno opportunità incredibili. 7. La scoperta dei fullereni L’idea di Feynman rimase sostanzialmente un sogno per almeno vent’anni. Fu soltanto tra il 1980 e il 1990 che alcune scoperte fondamentali aprirono la via alla rivoluzione che oggi va sotto il nome di nanotecnologie. Una di queste scoperte avvenne più o meno per caso nel 1985 nei laboratori di Richard Smalley, oggi considerato come uno dei padri di questo campo. Smalley stava studiando cluster gassosi, piccoli aggregati di atomi prodotti con uno strumento sofisticato appositamente progettato dal suo gruppo. I cluster rappresentano una fase intermedia di aggregazione della materia, più grandi degli atomi ma più piccoli e quindi diversi dai solidi e liquidi, e presentano pertanto proprietà inusuali e molto interessanti. Possono contenere da pochi a qualche migliaia di atomi, e le loro proprietà variano con le dimensioni delle particelle. Durante una visita al gruppo di Smalley a Huston, Texas, lo scienziato britannico Harald Kroto decise di studiare cluster di carbonio con lo strumento di Smalley. Utilizzando uno spettrometro di massa, l’esperimento mostrò la formazione di un aggregato particolarmente stabile contenente esattamente 60 atomi di carbonio, Fig. 14.

11


Fig. 14: La figura originale che riporta lo spettro di massa in cui si nota un picco molto intenso in corrispondenza della formazione di un cluster C60 (1985)

Questa osservazione, che in realtà era già stata fatta da un altro gruppo l’anno precedente senza però realizzarne l’importanza, portò Smalley e Kroto a cercare di capire il perché della particolare stabilità di questo cluster. I due cercarono in particolare di immaginare quale struttura avrebbero dovuto formare gli atomi di carbonio per conferire stabilità al sistema. Nel far questo si ispirarono al lavoro di un architetto americano, Backminster Fuller, famoso per aver inventato i duomi geodesici, o tensostrutture. 60 atomi possono formare degli esagoni e pentagoni regolari a dare luogo a una struttura sferica che riproduce perfettamente i palloni da calcio usati in quegli anni, Fig. 15. L’idea brillante di Smalley e Kroto li portò a formulare l’ipotesi, allora non dimostrata, che proprio questa sia la struttura del cluster di carbonio a 60 atomi, C60. Diedero anche un nome a questa nuova molecola chiamandola “fullerene” dal nome del celebre architetto.

Fig. 15: L’articolo di Nature che riporta la prima osservazione del C60 (1985)

La scoperta di Smalley e Kroto sarebbe probabilmente rimasta una curiosità se non fosse stato per un altro importante esperimento fatto qualche anno dopo. Nel 1990 due ricercatori, W. Krätschmer e R. Huffman, riuscirono a dimostrare che applicando un arco voltaico a un elettrodo di grafite si potevano produrre nanoparticelle di carbonio tra cui si trovava in abbondanza anche la molecola di C60. Si trattava di un passo in avanti particolarmente significativo in quanto dimostrava che il fullerene è una forma stabile di carbonio che si trova anche in altre sostanze come il nerofumo e che lo si poteva produrre in quantità macroscopiche (a differenza della apparecchiature sperimentale di Smalley). Questa scoperta portò nel giro di pochi anni a una vera e propria esplosione in questo campo, con la messa a punto di nuovi metodi per generare nano strutture di carbonio come quella del 1991 da parte dello scienziato giapponese Sumio Iijima che ottenne strutture di carbonio allungate, dette nano tubi, sorte di cavi elettrici o meccanici di dimensione molecolare, Fig. 16.

12


Fig. 16: Rappresentazione al computer della struttura di nano tubo di carbonio

Per la loro scoperta Smalley e Kroto ottennero il premio Nobel per la chimica nel 1996. Oggi i nano tubi di carbonio vengono prodotti industrialmente e sono usati in diverse applicazioni, in miscela con polimeri per ottenere nuovi materiali compositi particolarmente resistenti, ma sono studiati anche per possibili applicazioni in elettronica, biologia e medicina. Più di recente, Novesolov e Geim riportarono un metodo per ottenere fogli singoli di carbonio, sottilissime pellicole di un atomo di spessore costituite da esagoni condensati a cui è stato dato il nome di grafene. Nel 2010 anche questa nanostruttura di carbonio ha avuto la consacrazione grazie al premio Nobel andato ai due scopritori. 8. Microscopi per “vedere” gli atomi Qualche anno prima della scoperta del fullerene, un altro salto di qualità prendeva corpo. Due ricercatori del centro IBM di Zurigo, Gerd Binnig e Heinrich Rohrer, progettarono e infine realizzarono uno strumento sofisticatissimo e rivoluzionario, il microscopio a scansione a effetto tunnel, anche noto come STM. A Binnig e Rohrer occorsero alcuni anni di duro lavoro per trasformare in qualcosa di funzionante un’idea fantastica. Questa era basata sul fatto che se uno riesce a produrre una punta estremamente affilata e la pone a distanza molto ravvicinata con la superficie di un conduttore come un metallo, si può, applicando una piccola differenza di potenziale elettrico, indurre un flusso di elettroni, ossia una corrente, tra la punta e la superficie, Fig. 17.

Fig. 17: Immagine simulata della punta di un microscopio STM su una superficie. L’immagine mostra il flusso di elettroni dalla punta alla superficie (o viceversa). Le sfere verdi rappresentano atomi adsorbiti sulla superficie

Se i due oggetti, punta e superficie, sono vicini ma non a contatto, ossia sono separati, il flusso di elettroni deve avvenire attraverso il vuoto (che si comporta da ottimo isolante elettrico) grazie a un meccanismo proprio del mondo atomico quantistico, l’effetto tunnel. L’intensità della corrente generata dipende dalla distanza tra punta e superficie e se si riesce a misurare questa corrente piccolissima si può ottenere una immagine topografica della superficie stessa. Grazie alla 13


elaborazione del segnale elettrico si può ottenere una immagine della superficie con risoluzione atomica il che significa che si possono vedere i singoli atomi di cui è fatta la superficie. E’ da notare che mentre la teoria atomica della materia era stata stabilita interamente già nella prima parte del 20° secolo, sino alla introduzione del primo microscopio STM, avvenuta nel 1982, nessuno aveva potuto osservare direttamente gli atomi. Il metodo introdotto da Binnig e Rohrer, che per questo vennero premiati con il Nobel per la fisica nel 1986, apriva vie completamente inesplorate per la manipolazione della materia a scala atomica e forniva per la prima volta immagini dirette del mondo “nano”. Pochi anni dopo Don Eigler, del centro ricerche IBM di Almaden, in California, migliorava lo strumento originale rendendo possibile operare a temperature molto basse, vicine allo zero assoluto. Con questo strumento Eigler effettuò un esperimento che è passato alla storia, Fig. 18: usò infatti la punta dell’STM per “pescare” atomi di xeno deposti su una superficie di nichel e muoverli uno a uno a proprio piacimento sino a creare una sequenza di atomi che andavano a formare il logo IBM, scritto però con solo pochi atomi!

Fig. 18: Immagini originale prodotte da Don Eigler all’IBM. Spostando atomi di Xeno su una superficie di nichel con la punta di un STM vengono composte le lettere del logo IBM (1990)

Occorre rendersi conto che date le dimensioni infinitesime di un atomo la possibilità di muoverli a piacere e di rimetterli in una posizione desiderata era qualcosa più vicino alla fantascienza che alla realtà. Da allora la tecnologia dei microscopi STM è cresciuta enormemente rendendo questo strumento uno dei pilastri su cui si basa lo studio dei materiali su scala nanometrica. La scoperta dell’STM ha quindi rappresentato un salto qualitativo importante per osservare e manipolare la materia a livello atomico. Va però detto che per funzionare questo dispositivo ha bisogno di un supporto conduttore per consentire il flusso di corrente tra la superficie e la punta. Questo restringe l’uso dell’STM ai materiali conduttori, una limitazione abbastanza grave se uno è interessato alle proprietà di altri sistemi come potrebbero essere materiali isolanti piuttosto che organismi biologici. Per superare questo problema Gerd Binning, lo stesso anno in cui veniva insignito del premio Nobel per la scoperta dell’STM, ebbe un’altra idea brillante. Il suo obiettivo era quello di costruire un altro tipo di microscopio atomico completamente diverso dall’STM in grado di riconoscere e visualizzare il profilo di qualsiasi oggetto, anche su supporti non conduttori. Per raggiungere questo ambizioso obiettivo Binnig ebbe l’intuizione di usare le debolissime forze che si instaurano tra qualsiasi oggetto di dimensioni molecolari quando questi sistemi si trovano a distanza molto corta, tipicamente al di sotto di un nanometro. Queste forze sono note come forze di van der Waals, dal nome dello scienziato danese che le identificò nei primi anni del 20° secolo. Queste forze sono responsabili, ad esempio, della trasformazione dei gas in liquidi alle basse temperature. Binnig progettò una speciale lamina a sbalzo che terminava con una punta molto acuminata. La lamina vibra quando la punta si avvicina alla superficie da esaminare per via dello stabilirsi delle deboli forze di van der Waals a corta distanza, Fig. 19. Misurando queste vibrazioni piccolissime con un laser, Binnig riuscì a produrre una immagine della superficie al di sotto della 14


punta. Chiamò il nuovo strumento AFM, da atomic force microscope o microscopio a forza atomica.

Fig. 19: Rappresentazione schematica del funzionamento di un microscopio a forza atomica (AFM)

Oggi, grazie a vari miglioramenti, è stato possibile raggiungere una risoluzione di tipo atomico anche nelle immagini AFM, tanto che l’uso di questo strumento si è diffuso ancor più dell’STM nello studio dei nano sistemi. L’IBM ha sviluppato una nuova tecnologia basata sull’idea dell’AFM per scrivere e leggere informazione raggiungendo grandi densità di dati. Si chiama millepiedi, e consiste in alcune migliaia di lamine con un ago alla estremità. Questi aghi sono utilizzati per incidere su un substrato, creando una piccola depressione. La presenza o l’assenza della depressione corrisponde a un bit di informazione, 0 o 1. Dato che la dimensione di queste depressioni è di pochi nanometri, questa tecnologia potrebbe raggiungere altissime densità di informazione costituendo un nuovo paradigma per lo stoccaggio dei dati. 9. Lezioni dalla natura C’è un altro aspetto di questa storia su cui vale la pena di soffermarsi. Abbiamo visto che il microscopio AFM è basato sulle deboli forze che esistono quando gli oggetti molecolari sono a distanza molto ravvicinata. Per oltre un secolo i ricercatori hanno cercato di capire come fa il geco, un piccolo rettile che vive in tutti i continenti, a camminare sulle pareti o sui soffitti con grande rapidità e facilità. Molte ipotesi sono state formulate nel corso del tempo: la secrezione di una colla speciale, la presenza di piccole ventose alle estremità delle dita, la capacità di attivare forze elettrostatiche, ecc. Nessuna di queste ipotesi ha retto a una verifica seria. E’ solo di recente che è stato osservato, grazie a immagini ad alta risoluzione ottenute con il microscopio elettronico, che le zampe e le dita del geco terminano con dei sottili filamenti, e che ogni filamento si ramifica in altri filamenti ancora più sottili, ciascuno della dimensione di alcune centinaia di nanometri. La parte terminale delle dita del geco è pertanto un tipico esempio di materiale nano strutturato. Ogni filamento in contatto con una superficie genera delle piccolissime interazioni di tipo van der Waals. Un singolo filamento aderisce in modo debole alla superficie, ma ci sono circa 14000 filamenti per millimetro quadro nelle dita del geco così che l’effetto finale è una forte adesione. Questo esempio, che è divenuto un classico nella anedottica sulle nanotecnologie, è comunque un tipico caso in cui la natura ci fornisce una dimostrazione pratica della potenza nascosta nel mondo a scala nanometrica. E questo ci porta direttamente agli aspetti più recenti e più rilevanti della nano scienza e della nanotecnologia, almeno dal punto di vista delle applicazioni pratiche. La nanotecnologia infatti è una scienza che ha come obiettivo quello di produrre, sfruttando le dimensioni estremamente ridotte di atomi, molecole o loro aggregati, nuovi materiali con proprietà senza precedenti. Materiali che verranno usati in moltissimi campi di grande impatto economico e sociale, come la produzione di energia solare mediante celle fotovoltaiche di nuova generazione, elettronica molecolare in grado di sostituire quella tradizionale dei dispositivi basati sul silicio, la produzione di sensori molto selettivi 15


capaci di individuare la presenza di inquinanti e sostanze tossiche in tracce, la sintesi di materiali ultra-resistenti o di materiali con proprietà termiche eccezionali, ecc. La lista è molto lunga, e non ci sono dubbi sul fatto che la scienza dei materiali sarà radicalmente modificata dalla introduzione delle nano strutture e della nano fabbricazione. In questo senso è in atto un vero e proprio rovesciamento del paradigma sin qui seguito. Se prendiamo come esempio l’evoluzione dei processi di produzione dei transistor, abbiamo visto che questi hanno seguito il percorso concettuale “top down”, in cui si parte da oggetti di dimensioni macroscopiche come un wafer di silicio e si ricavano oggetti sempre più piccoli mediante processi che consentono una miniaturizzazione del sistema. Si parte dall’alto per arrivare in basso, là dove per dirla con Feynman c’è molto spazio. Ma ci sono dei limiti fisici a questo modo di procedere. Le tecniche di miniaturizzazione si scontrano a un certo punto del processo con grandezze che non possono essere ulteriormente ridotte. Insomma, se proviamo a tagliare un foglio di carta con le forbici, c’è un limite a quanto piccoli sono i pezzi di carta che possiamo ottenere. A questo modo di procedere se ne contrappone uno concettualmente opposto, detto “bottom up”, o dal basso all’alto, in cui si usano i mattoncini fondamentali della materia, atomi e molecole appunto, per costruire oggetti un po’ più grandi, di dimensioni dell’ordine di qualche nanometro. E qui sta l’essenza vera della rivoluzione nanotecnologica. Perché l’approccio “bottom up” è semplicemente quello che la natura usa per far funzionare macchine complesse come il nostro organismo. Prendiamo il caso della sintesi proteica, che è regolata da tipici oggetti nanoscopici, i ribosomi delle cellule, che misurano circa 20 nm, Fig. 20.

Fig. 20: Rappresentazione di un ribosoma nell'atto di sintetizzare una proteina

Ogni ribosoma è un agglomerato di proteine e di molecole di RNA. Le proteine e l’RNA si autoassemblano, ossia si aggregano spontaneamente dando luogo a una struttura più complessa, il ribosoma, che ha la funzione di sintetizzare una nuova proteina. Un ribosoma è composto di due parti, dotate di funzionalità diverse e complementari, che formano una vera e propria nanomacchina. L’RNA-messaggero (mRNA) trasporta l’informazione genetica contenuta nel DNA, e l’accoppiata mRNA-ribosoma contiene gli elementi per “assemblare” nel modo giusto la nuova proteina partendo dagli aminoacidi, i mattoni della vita. Due aminoacidi vengono selezionati e poi legati uno all’altro mediante un legame covalente; è il primo passo verso la formazione della proteina. Il processo poi si ripete più volte formando una catena via via più lunga, in cui ogni aminoacido prende la posizione prevista e controllata dalla molecola di RNA-messaggero. Quando la proteina è pronta il processo si arresta. La proteina viene rilasciata, il ribosoma si “smonta” e i suoi componenti ritornano in circolo nella cellula, in attesa di riorganizzarsi per produrre un’altra proteina. Un semplice batterio contiene da 5000 a 20000 ribosomi e produce centinaia di proteine ogni secondo a temperatura e pressione ordinarie. Difficile immaginare qualcosa di più efficiente. Imparare dalla natura e provare a riprodurre sia pure in forma semplificata i suoi elaborati e complessi processi, sviluppatisi in milioni di anni di mutazioni genetiche, è la vera sfida delle nanotecnologie del futuro con importanti e dirette ricadute sulla medicina e sulle scienze della vita. In un futuro non lontano sarà possibile sviluppare nano sensori capaci di identificare le parti del 16


corpo umano in cui tessuti cellulari devono essere riparati; diventerà possibile somministrare farmaci in modo mirato e selettivo solo in quelle zone dell’organismo affette da una determinata patologia (ad esempio distruggendo cellule cancerogene senza danneggiare quelle sane); si costruiranno macchine molecolari in grado di riparare tessuti e organi senza ricorrere alla chirurgia. E via dicendo. Naturalmente, alcuni di questi obiettivi suonano oggi fantastici e di difficile realizzazione, e qualcuno si domanderà se si arriverà mai a tanto. Come abbiamo detto in precedenza, prevedere il futuro è non solo un esercizio difficile, ma anche pericoloso. Venti anni fa nessuno poteva nemmeno lontanamente prevedere la rivoluzione introdotta da internet, anche se le premesse erano già note ed esistenti, e oggi non potremmo più farne senza. Allo stesso modo, è molto difficile prevedere come sarà il mondo da qui a vent’anni. Ci sono pochi dubbi sul fatto che le nanotecnologie siano uno dei campi da cui ci si aspettano i cambiamenti più profondi. Conoscerle meglio è quindi un modo per prepararsi a quello che ci aspetta.

Indicazioni bibliografiche G. Pacchioni, “Quanto è piccolo il mondo. Sorprese e speranze dalle nanotecnologie”, Zanichelli, Bologna 2008. D. Narducci, “Cosa sono le nanotecnologie”, Sironi Editore, Milano 2008.

17


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.