Accastampato n. 1

Page 1

true


Accastampato non e` un periodico, pertanto non e` registrato e non ha un direttore responsabile, e` solo un esperimento – per ora occasionale – realizzato dagli studenti di Fisica dell’Universit`a degli Studi di Roma “Sapienza”

Gli articoli contenuti in questo numero sono protetti con marca digitale grazie a patamu.com

I QR Code in calce ad alcuni articoli codificano il loro URL di pubblicazione on-line e sono generati mediante invx.com

La rivista e` prodotta dal motore di composizione tipografica LATEX. I sorgenti sono disponibili richiedendoli alla Redazione.

Quest’opera e` rilasciata sotto la licenza Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo 3.0 Unported. Se non specificato altrimenti, tutti gli articoli in essa contenuti sono rilasciati dai rispettivi autori sotto la medesima licenza. Per leggere una copia della licenza visita il sito web http://creativecommons. org/licenses/by-nc-sa/3.0/ o spedisci una lettera a Creative Commons, 171 Second Street, Suite 300, San Francisco, California, 94105, USA.


accastampato Rivista degli Studenti di Fisica dell’Universit`a Sapienza di Roma www.accatagliato.org EDITORIALE R EDAZIONE redazione@accatagliato.org

La divulgazione della Scienza a partire da chi la fa La ricerca scientifica a Roma: informare, orientare, incuriosire n pochi sanno che a Roma e dintorni si fa ricerca di livello internazionale. Una delle motivazioni di questa diffusa ignoranza e` sicuramente il fatto che le riviste e i programmi di divulgazione di qualit`a sono quasi sempre tradotti dall’inglese e si contrappongono a prodotti di scarso livello che, nel tentativo di essere commercialmente accattivanti, danno un’idea della scienza completamente sbagliata, tale da renderli addirittura dannosi e fuorvianti. Al contrario, una delle differenze fra la scienza e, per esempio, l’alchimia e` stata storicamente proprio la divulgazione. Solo avendo delle conoscenze di base si pu`o capire un dibattito serio sui temi di attualit`a che pressano, o almeno dovrebbero, l’agenda politica nazionale e internazionale: esempi eclatanti sono la produzione di energia, gli organismi geneticamente modificati, gli effetti dei campi elettromagnetici sulla salute. Troppe volte si sentono dire cose che non sono neanche lontanamente verosimili e questo significa che manca nel nostro paese una cultura minima in questo settore, non solo sugli argomenti di ricerca, ma anche su cosa sia Scienza, su cosa la distingua dalla religione o, appunto, dall’alchimia. Per questi motivi abbiamo deciso di intraprendere un progetto ambizioso e difficile: realizzare una rivista di divulgazione scientifica e diffonderla gratuitamente nelle scuole superiori con tutti i mezzi cui abbiamo accesso, una rivista redatta dagli studenti di Scienze della Sapienza dedicata principalmente agli studenti dei licei di Roma. Non pensiamo di poter risolvere i problemi descritti prima, ovviamente. Speriamo solo di poter generare curiosit`a in qualcuno dei nostri lettori.

I

Non e` semplice scrivere e parlare della ricerca di frontiera a non specialisti: non bisogna dare nulla per scontato e, nel mettersi nei panni del proprio interlocutore, e` necessario usare un linguaggio comprensibile senza rinunciare a spiegare quali siano le cose fondamentali. Per questo ci poniamo due obiettivi: incuriosire coloro che non studiano fisica e confrontarci con l’arte difficile del raccontare cosa studiamo con parole accessibili. Nel mondo accademico italiano si e` data sempre troppo poca importanza alla divulgazione e questo progetto vuole configurarsi come un vero e proprio laboratorio di comunicazione scientifica: per questo motivo invitiamo tutti i nostri lettori a inviarci commenti, critiche e giudizi di qualunque genere, in modo da poter correggere e migliorare sia la nostra competenza specifica, sia la rivista stessa. Questo progetto e` stato pensato e realizzato da studenti, ma si avvale dell’importante collaborazione di ricercatori e docenti del Dipartimento di Fisica della Sapienza. Sono loro che formano la nostra autorevole commissione scientifica che garantisce al lettore la qualit`a di ci`o che sta leggendo. Ricerca, quindi, ma non solo: crediamo che una delle cose pi`u interessanti sia sottolineare le ricadute della ricerca di base nella vita di tutti i giorni, sia nel medio che lungo periodo. Siamo convinti che il senso della ricerca non sia solo nelle applicazioni tecnologiche che ne possono derivare e in questo concordiamo con l’affermazione di Feynman: “Non si lavora per le applicazioni pratiche, ma per l’emozione della scoperta. . . l’emozione, che e` la vera molla dell’impresa scientifica. Se non capite questo, non avete capito niente”. Pensiamo per`o che spiegare come funzionino cose con cui si ha a che fare nella vita quotidiana sia un modo efficace di spiegare la Scienza. E` poi della politica il compito di tradurre in atti concreti la possibilit`a di uscire dalla crisi grazie a investimenti in ricerca e conoscenza e alle loro ricadute innovative. Purtroppo le politiche adottate dai governi che si sono succeduti in questi ultimi anni sono state miopi da questo punto di vista: l’istruzione e la ricerca sono state oggetto di tagli indiscriminati, fatti in nome della razionalizzazione e dell’efficientismo, ma spesso al di fuori di un quadro strategico di largo respiro. Per questo una rubrica sar`a dedicata all’analisi degli effetti, anche nel breve periodo, di tali politiche. Alla luce di tutto ci`o riteniamo che una buona divulgazione scientifica non possa esimersi dal cercare di far prendere coscienza di cosa sia la Scienza e del perch´e noi scienziati e comunicatori riteniamo sia cos`ı importante per la vita della nostra societ`a.

Alessio Cimarelli jenkin@accatagliato.org

Carlo Mancini carlo@accatagliato.org

Silvia Mariani shyka@accatagliato.org

Leonardo Barcaroli leov@accatagliato.org

Erica Chiaverini erica@accatagliato.org

Niccol`o Loret niccolo@accatagliato.org

Isabella Malacari isabella@accatagliato.org

Massimo Margotti massimomargotti@gmail.com

Kristian Gervasi Vidal krisgerv@accatagliato.org

C OMMISSIONE SCIENTIFICA Giorgio Parisi giorgio.parisi@roma1.infn.it

Giovanni Battimelli giovanni.battimelli@uniroma1.it

Fabio Bellini fabio.bellini@roma1.infn.it

Lara Benfatto lara.benfatto@roma1.infn.it

Riccardo Faccini riccardo.faccini@roma1.infn.it

Francesco Piacentini francesco.piacentini@roma1.infn.it

Antonio Polimeni antonio.polimeni@roma1.infn.it

Antonello Polosa antonio.polosa@roma1.infn.it

H ANNO CONTRIBUITO L. Benfatto, A. Bonforti, A. Cimarelli, C. Cosmelli, U. Ferrari, M. Margotti, M. Mitrano, L. Orlando, la Redazione, T. Scopigno.

S I RINGRAZIANO ANCHE Donald E. Knuth, Leslie Lamport, la Comunit`a del TEX Users Group (TUG: www.tug.org) e Gianluca Pignalberi

Con il patrocinio del

accastampato num. 1, Giugno 2010


Indice

num. 1, Giugno 2010

La ricerca scientifica a Roma: informare, orientare, incuriosire

EDITORIALE

La divulgazione della Scienza a partire da chi la fa 3 Un progetto ambizioso e difficile, una rivista realizzata interamente da studenti

accastampato, Creative Commons e Patamu 9 di A. Bonforti Tutti i contenuti di accastampato sono rilasciati sotto licenza Creative Commons BY–NC–SA e la loro paternit`a protetta da marca digitale grazie a patamu.com: vediamo cosa significa. . .

IL RESTO DEL NEUTRINO

I segreti del cinema 3D

RECENSIONI

Storia del laser

6

di M. Mitrano Breve storia di un’invenzione che ha cambiato il mondo

ESPERIMENTI

Un palloncino sul phon

7

di C. Cosmelli Come il getto d’aria del phon tiene il palloncino sospeso sopra di s´e

ONDA LUNGA

h¯ σω τσ. . .

di A. Cimarelli Gli enormi passi avanti fatti dalle tecnologie stereoscopiche aprono finalmente le porte a una forte espansione dell’intrattenimento cinematografico tridimensionale

Il comportamento collettivo animale

16

di A. Cimarelli Cosa hanno in comune gli stormi di uccelli con i banchi di pesci o gli alveari di api? Un comportamento collettivo emergente sorprendentemente simile nonostante le differenze tra le specie

8

di la Redazione Breve descrizione di come e` strutturata accastampato

4

11

accastampato num. 1, Giugno 2010


ONDA LUNGA

La riforma dell’Universita` italiana

22

di L. Benfatto L’idea stessa di creare una vera competizione tra le varie universit`a, allo scopo di attrarre gli studenti migliori, fallisce miseramente a fronte di un’obiettiva immobilit`a sociale del sistema italiano

IL RICERCATORE ROMANO

La transizione vetrosa

26

di T. Scopigno Nonostante un utilizzo molto diffuso dei materiali vetrosi, alcuni aspetti della transizione a questa particolarissima fase della materia non sono ancora pienamente compresi

SCIENZARTE

La pittura silenziosa

30

di M. Margotti Il lavoro di Piero della Francesca e` emblematico del passaggio che nella sua epoca stava avvenendo in Italia a livello intellettuale e sociale: l’incontro tra arte e matematica, riconosciuta come unica risorsa per una descrizione della realt`a

NANOS GIGANTUM

La prima lezione di Ettore Majorana

32

di A. Cimarelli La Prolusione di Ettore Majorana del 13 gennaio 1938 per il suo corso di Fisica Teorica all’Universit`a Federico II di Napoli permette di comprendere le grandi capacit`a didattiche dello scienziato, scomparso misteriosamente nel marzo dello stesso anno

EVENTI

Copenhagen

36

di L. Orlando “Copenhagen” di Michael Frayn, da dieci anni nei teatri di tutto il mondo


RECENSIONI

Storia del laser

C OPERTINA

Breve storia di un’invenzione che ha cambiato il mondo di Matteo Mitrano (studente di Fisica) Per completezza e per la sua chiarezza mi permetto di citare la quarta di copertina, pubblicata anche sul sito della casa editrice. Il termine laser e` ormai conosciuto al grande pubblico e molte delle applicazioni della luce che esso emette sono sotto gli occhi di tutti. Si parla di operazioni chirurgiche e di cure mediche eseguite mediante raggi laser; si sa che le discoteche usano questi raggi per creare particolari effetti di luce e che, per esempio, brevi impulsi di luce, sempre emessi da laser, viaggiando entro fibre di vetro e sostituendosi agli impulsi elettrici, permettono di realizzare collegamenti telefonici. Il laser e` l’elemento essenziale delle stampanti dei quotidiani, di quelle dei computer e di alcuni radar e, inoltre, con i suoi raggi si pu`o tagliare e forare ogni sorta di materiale, leggere CD, registrare, e riprodurre fotografie tridimensionali (ologrammi) e fare innumerevoli altre cose. Ma che cosa in effetti sia un laser e come esso funzioni sono in pochi a saperlo, oltre agli addetti ai lavori. Questo libro cerca di spiegarlo in modo comprensibile, pur senza prescindere da un certo numero di considerazioni strettamente tecniche, raccontando come si sia arrivati a costruirlo, insieme al maser, che e` il suo gemello nel dominio delle microonde. La caratteristica dei laser di emettere fasci collimati e colorati deriva dal diverso modo in cui in essi e` emessa la luce rispetto alle altre sorgenti. Nel libro si approfondisce cos’`e la luce e come viene emessa, e a tale scopo si esamina come si comportano gli atomi, utilizzando alcuni concetti della meccanica quantistica adatti a descriverli... Nel cercare di capire i vari fenomeni seguendo un filo storico l’autore ricostruisce, in un certo senso, parte della storia della luce e i primi passi della meccanica quantistica, sia pure a un livello elementare. Detto questo il libro che sto descrivendo e` un bel libro divulgativo che si muove in un segmento editoriale sempre pi`u trascurato ovvero quello del lettore con preparazione scientifica di base medioalta che desidera approfondire un singolo tema o settore a lui poco noto. Ovviamente e` un libro di lettura con un formalismo matematico veramente ridotto all’osso e presente solo qu`a e l`a nel testo ove necessario. A mio avviso, specialmente all’inizio, l’autore la prende troppo alla larga partendo da Galileo e il metodo scientifico e talvolta si perde in parentesi troppo dettagliate (ad es. il cap. 6 su Einstein). Naturalmente questo e` il parere di uno studente del I anno di specialistica e necessariamente sar`a diverso da quello del lettore non addetto ai lavori. Tuttavia gli ultimi capitoli riscattano tutto il testo fornendo molti retroscena storici e veramente molte informazioni sulla grande variet`a di lasers oggi esistenti. Complessivamente i soldi investiti sono pienamente ripagati da questo saggio veramente completo e molto scorrevole nella lettura. Matteo Mitrano

I NDICE 1. Introduzione 2. Le teorie ondulatoria e corpuscolare della luce 3. La spettroscopia 4. La teoria del corpo nero 5. L’atomo di Rutherford e di Bohr 6. Einstein 7. Einstein e la luce, l’effetto fotoelettrico e l’emissione stimolata 8. Microonde 9. Spettroscopia: atto secondo 10. La risonanza magnetica 11. Il maser 12. La proposta per un maser ottico 13. Le disavventure di Gordon Gould 14. E finalmente fu il laser! 15. A che cosa serve il laser?

I N BREVE Titolo Autore Editore Anno Pagine Prezzo

6

accastampato num. 1, Giugno 2010

Storia del Laser Mario Bertolotti Bollati Boringhieri 1999 390 35.00 e


ESPERIMENTI

Un palloncino sul phon

S CHEMA

Come il getto d’aria del phon tiene il palloncino sospeso sopra di se´ di Carlo Cosmelli (Professore di Fisica alla Sapienza)

A

ccendere il phon a mezza forza e tenerlo fermo con il getto d’aria rivolto verso l’alto. Prendere il palloncino e poggiarlo delicatamente nel mezzo del flusso di aria sopra il phon. Si vedr`a che il palloncino si metter`a in una posizione di equilibrio, pi`u in alto o pi`u in basso del punto in cui l’avevate lasciato, e ci rimarr`a stabilmente.

Suggerimenti e astuzie Se il palloncino fosse troppo leggero, cio`e se vola via, vuol dire che il getto d’aria e` troppo forte. In tal caso ridurre il getto d’aria. Se non fosse possibile, provare ad aumentare la massa del palloncino inserendo un po’ d’acqua (circa mezzo cucchiaino) dentro di esso prima di gonfiarlo. Approfondimento Il palloncino rimane in equilibrio per due ragioni: la prima e` semplicemente la forza generata dal flusso d’aria diretto verso l’alto. Il flusso d’aria e` pi`u forte all’uscita del phon e diminuisce di intensit`a man mano che ci si allontana dalla bocca del phon. Ci sar`a un punto in cui la forza esercitata dal flusso d’aria e` uguale alla forza di gravit`a che si esercita sul palloncino. In questa posizione il palloncino potr`a stare in equilibrio. Tuttavia questo potrebbe essere un punto di equilibrio instabile, per spostamenti laterali. Invece si pu`o vedere che se diamo delle piccole botte al palloncino, questo si sposta dalla posizione di equilibrio, ma tende poi a ritornare verso il centro del getto d’aria, rimanendo sempre in equilibrio. Questo vuol dire che c’`e un secondo effetto che mantiene il palloncino in posizione: si tratta dell’effetto combinato del principio di Bernouilli e dell’effetto Coand˘a. Quello che succede e` che l’aria che esce dal phon crea una specie di guscio intorno al palloncino, dandogli un ulteriore supporto. Possiamo accorgerci di questo effetto anche spostando il getto di aria del phon dalla posizione verticale, inclinandolo lateralmente. Si pu`o vedere come, per angoli non troppo grandi, il palloncino continua a restare sospeso nel mezzo del getto di aria, anche se ora si trova fuori dalla verticale innalzata dalla bocca del phon. Il palloncino pu`o essere anche sostituito da una pallina da ping-pong, dipende dalla potenza del phon. Principio di Bernoulli ed effetto Coand˘a

Esempio dell’effetto Coand˘a, da it. wikipedia.org

M ATERIALE • 1 palloncino gonfiato poco (10 ÷ 15cm) • 1 phon elettrico

A RGOMENTO • Equilibrio di un corpo in un fluido • Fluidi reali

di Isabella Malacari

Un problema con cui ci siamo confrontati tutti? Riuscire a bere da una fontanella senza bagnarsi completamente volto e maglietta! Perch´e l’acqua che ci bagna il viso, anzich´e gocciolare gi`u dal mento, scorre lungo il collo? L’adesione di un fluido (un liquido o un gas) lungo superfici ricurve prende il nome di effetto Coand˘a: lo strato del fluido prossimo alla superficie su cui scorre, rallentando per attrito, vincola il movimento degli strati esterni a causa della reciproca attrazione; l’effetto mette in rotazione gli strati esterni verso l’interno, facendo aderire il fluido alla superficie stessa. Ma questo non e` certo l’unico fenomeno visibile nella dinamica dei fluidi. Prendiamo ad esempio tra le dita gli angoli del lato corto di un foglietto di carta (uno scontrino per esempio) e avviciniamoli alla bocca. Soffiando delicatamente appena sopra il foglio, questo si alzer`a, restando sospeso a mezz’aria; aumentando la forza del soffio, il foglio inizier`a a sbattere freneticamente. Il fluire dell’aria sul lato superiore del foglio causa, infatti, una diminuzione della pressione rispetto al lato inferiore che, pertanto, e` spinto verso l’alto. In questo caso e` il principio di Bernoulli che garantisce infatti che ad ogni aumento della velocit`a di un fluido corrisponde una diminuzione della sua pressione e viceversa. Effetto Coand˘a e principio di Bernoulli non sono indipendenti, ma possono essere descritti come casi particolari di una teoria generale dei fluidi, fondata sui lavori degli scienziati Claude-Louis Navier e George Stokes. accastampato num. 1, Giugno 2010


h¯ σω τσ. . . Breve guida per evitare di perdersi fra queste pagine la Redazione

ara lettrice e caro lettore, queste poche righe sono per spiegarti come e` nata questa rivista e come provare a interpretarla. Accastampato e` nata dall’impegno di un gruppo di studenti di Fisica della Sapienza, certamente non specialisti nella difficile arte della divulgazione scientifica, ma senza dubbio appassionati di ci`o che hanno scelto di studiare. L’intento esplicito e` quello di raccontare non solo la fisica gi`a data per assodata, ma soprattutto gli esperimenti e la ricerca di frontiera, cercando di evidenziare quali siano i problemi ancora aperti delle teorie oggi comunemente accettate o ancora dibattute nella comunit`a scientifica. Non pensiamo di poter riuscire a pieno in questo progetto ambizioso, ma speriamo di poterti almeno incuriosire. Ti invitiamo a non scoraggiarti nel caso in cui alcune cose ti siano poco chiare e ti esortiamo ad approfondire i concetti pi`u difficili. Per aiutarti ogni articolo e` accompagnato da una bibliografia dettagliata e da un indice di difficolt`a (da 1 a 3 atomini) con cui stimiamo l’impegno richiesto per una buona comprensione. Non esitare a mandarci commenti, critiche o richieste di qualunque tipo a redazione@accatagliato.org.

C

Ecco qui si seguito una breve panoramica della rivista, divisa in diverse sezioni e varie rubriche. La sezione Il Ricercatore Romano racconter`a il lavoro dei ricercatori del Dipartimento di Fisica della Sapienza. Abbiamo scelto di non limitare troppo la lunghezza dei singoli articoli, pur sapendo di violare una delle prime regole dell’editoria contemporanea: preferiamo rischiare e dilungarci un po’ pi`u del dovuto che rinunciare a spiegare almeno nei punti essenziali quale sia il senso di una ricerca che spesso richiede anni per essere portata a termine. Per facilitare la lettura abbiamo cercato di illustrare gli aspetti fondamentali nelle prime pagine, lasciando alla seconda parte un

approfondimento successivo. Una sezione speciale, Il Resto del Neutrino, sar`a dedicata alla spiegazione scientifica di tecnologie e fenomeni comuni, troppo spesso sconosciuti e a volte percepiti come apparentemente misteriosi. Con questi articoli vogliamo sottolineare come la Scienza e il metodo scientifico permeino ormai profondamente quasi ogni aspetto della vita, con l’esplicito scopo di combattere il sempre pi`u diffuso utilizzo inconsapevole della tecnologia moderna. La sezione Nanos Gigantum ripercorrer`a alcune delle tappe fondamentali del pensiero scientifico, affinch´e le meraviglie naturali a cui rivolge la sua attenzione possano essere comprese non solo sul corretto piano logico o applicativo, ma anche nel loro inquadramento storico. Sar`a quindi un’opportunit`a preziosa per recuperare il gusto del cammino verso la conoscenza, a fianco allo stupore mai sopito per i contenuti della conoscenza stessa. Completano la rivista le rubriche dedicate agli Eventi rilevanti nel panorama scientifico italiano e internazionale, alle Recensioni di libri e non solo, che possano fungere da spunto per un approfondimento o da guida per esplorare nuovi orizzonti, agli Esperimenti da fare anche in casa per toccare con mano alcuni principi delle leggi naturali, alle problematiche sociali, politiche ed economiche connesse alla pratica scientifica di Onda Lunga e infine ai rapporti pi`u o meno ovvi tra Arte e Scienza in ScienzArte. In conclusione ti ricordiamo che Accastampato e` protetta con licenza Creative Commons, il che significa che sei libero di scaricarla, copiarla, stamparla e diffonderla. Le uniche limitazioni sono l’obbligo di citare la fonte, di coprire con la stessa licenza le eventuali opere derivate e il divieto di usarle in opere commerciali. Buona lettura!

Cos’`e Accatagliato Accatagliato e` un’associazione di studenti di Fisica della Sapienza, esiste di fatto dalla fine del 2005, ma da Dicembre 2009 e` riconosciuta dalla Regione Lazio. Il sito e` raggiungibile all’indirizzo www.accatagliato.org e le varie attivit`a possono essere seguite online mediante la pagina Facebook (www.facebook.com/accatagliato), il canale Twitter (twitter.com/accatagliato) e il canale di Youtube (www.youtube.com/user/ accafilmato). Il nome un po’ bizzarro e difficilmente comprensibile per chiunque non abbia studiato la Meccanica Quantistica deriva da una costante ben nota a tutti coloro che studiano FisiSimbolo di h¯ , costante di Planck. ca: si tratta della costante di Dirac, proporzionale alla pi`u nota costante di Planck h, che definisce la scala a cui e` necessario usare la Meccanica Quantistica al posto della Fisica Classica. 8

accastampato num. 1, Giugno 2010


accastampato, Creative Commons e Patamu Una questione di licenze. . . Adriano Bonforti (Studente di Fisica, Terza Universit`a degli Studi di Roma)

a rivista accastampato ha scelto di liberare sin dal suo primo numero il proprio contenuto con licenze Creative Commons (CC), attraverso la consulenza e la collaborazione del sito patamu.com, che ha contestualmente fornito un servizio di tutela dal plagio. Per una rivista di carattere scientifico divulgativo la scelta non poteva essere migliore, poich´e la Scienza e il Sapere in generale sono o dovrebbero essere per definizione libere da vincoli di diffusione ed elaborazione. D’altra parte la storia della scienza e` un’ottima e convincente dimostrazione di quanto virtuose possano essere la condivisione e la libera fruizione del sapere per il progresso scientifico. In questo articolo proponiamo una breve panoramica sulle licenze CC e sul servizio offerto da Patamu.

L

-------------------------------------------

accastampato ha scelto di liberare sin da questo primo numero il proprio contenuto con licenza Creative Commons ------------------------------------------Per questo ci si riferisce spesso alle licenze di Creative Commons come licenze copyleft. Per favorire il pi`u possibile la libera circolazione di questa rivista e dei suoi contenuti, abbiamo scelto di liberarla attraverso la licenza CC di tipo BY- NC - SA (attribution, non commercial, share alike): significa che tutti i suoi contenuti possono essere riprodotti e diffusi, a condizione che ci`o non avvenga per scopi commerciali e che venga sempre indicato l’autore. Le opere possono inoltre essere modificate a condizione che sussista l’assenza di lucro e che l’autore e l’opera originaria vengano sempre indicati e informati ove possibile; infine, l’opera derivata deve essere a sua volta liberata con le stesse condizioni.

Figura 1 Logo di patamu.com

Creative Commons Public Licenses Le Creative Commons Public Licenses (CCPL) sono delle particolari licenze che permettono di distribuire un’opera d’arte o di ingegno svincolandola parzialmente dalle rigide imposizioni del diritto d’autore tradizionale (copyright). La loro nascita si ispira al principio di natura legislativa in base al quale chi crea un’opera di ingegno, una volta dimostratane la paternit`a, pu`o disporre di essa come meglio crede, riservandosene i diritti in toto o solo in parte. Le licenze CCPL si basano quindi sul principio “alcuni diritti riservati” anzich´e “tutti i diritti riservati”: attraverso di esse l’autore svincola la propria opera secondo determinate modalit`a, concedendone ad esempio la diffusione gratuita e libera in assenza di scopo di lucro. In altre parole, per mezzo delle CCPL l’autore d`a esplicitamente il consenso affinch´e la sua opera possa circolare ed essere diffusa pi`u o meno liberamente, disponendo come vuole dei propri diritti. Ci`o in contrapposizione al caso del copyright tradizionale, nel quale ci`o non e` possibile.

Figura 2 Locandina Creative Commons (da OilProject)

accastampato num. 1, Giugno 2010

9


ONDA LUNGA

Patamu Spendiamo infine qualche parola per presentare il sito Patamu, attualmente in versione beta, che oltre ad offrire consulenza per quanto riguarda le tematiche CC e la cultura libera in generale, permette di integrare le licenze CC apponendo ad ogni opera inviata una sorta di timbro temporale informatico con validit`a legale riconosciuta dallo Stato Italiano. Il servizio al livello base e` gratuito e permette di tutelare dal plagio e di rilasciare contestualmente in Creative Commons qualsiasi opera artistica o di ingegno: opere musicali, foto, ma anche libri, articoli di giornale o di blog, articoli scientifici e quant’altro. Per case editrici, etichette, associazioni, societ`a, o per chiunque volesse accedere a servizi pi`u specifici e mirati, sar`a possibile abbonarsi con una piccola somma a vari servizi avanzati. Pur essendo possibile su Patamu la semplice tutela dell’opera, abbiamo scelto di offrire il servizio gratuitamente per chiunque sia disposto a liberare contestualmente l’opera in CC. Questa scelta e` stata certamente fatta per incoraggiare e favorire la diffusione della cultura cosiddetta open source, ma c’`e anche un altro motivo: capita spesso infatti che le persone rimangano diffidenti di fronte alla dicitura “alcuni diritti riservati” e ritengano che il modo pi`u pratico e sicuro di tutelare la propria opera sia quello di rimanere detentore di tutti i diritti. Paradossalmente, per`o, in questo modo sono essi stessi a frenare la diffusione della propria opera, in quanto il copyright tradizionale ne rende pi`u difficoltosa la diffusione – ad esempio via internet, o via radio – anche in assenza di lucro.

Il copyleft e` quindi, a nostro avviso, anche il modo pi`u pratico e moderno per permettere di promuovere e far conoscere ad un numero pi`u ampio possibile di persone il proprio prodotto artistico. In questo contesto la tutela dal plagio fornita dal sito non diventa pi`u un’azione di tutela dell’autore fine a se stessa, ma si trasforma in un mezzo per diffondere le proprie opere senza il timore di essere plagiati, favorendo la libera circolazione della creativit`a e della cultura sotto qualsiasi forma e contribuendo a innescare un circolo virtuoso da cui possono trarre vantaggio autori e utenti dell’opera allo stesso tempo. Per richiedere qualsiasi informazione sulle tematiche CC o sui servizi del sito, o per partecipare alla fase di test della versione beta, siete i benvenuti su patamu.com.

Bibliografia (1) Creative Commons: www.creativecommons.it (2) Copyleft: www.copyleft-italia.it (3) Patamu.com: www.patamu.com

Sull’autore Adriano Bonforti (adribonf@hotmail.it) e` esperto in licenze di copyleft ed e` amministratore del sito www. patamu.com


I segreti del cinema 3D Teoria e tecniche alla base della nuova era dell’intrattenimento digitale Alessio Cimarelli (Laboratorio Interdisciplinare per le Scienze Naturali e Umanistiche – Sissa)

a visione tridimensionale o, in altre parole, la percezione della distanza a partire da una proiezione bidimensionale della luce in ingresso e` basata sulle leggi della stereometria. Il supporto pu`o essere la retina, una pellicola fotografica o una CCD, non c’`e differenza: la stessa scena fotografata contemporaneamente da due posizioni leggermente diverse, ad esempio meno di una decina di centimetri nel caso degli occhi, produce due immagini in cui gli oggetti pi`u vicini presentano una traslazione laterale relativa all’interno del campo visivo maggiore rispetto agli oggetti piu lontani (vedi Figura 1).

L

Figura 2 Alcuni esempi di videocamere dedicate al cinema 3D (quelle con doppio obiettivo) o adattate per lo scopo in alcuni recenti film 3D.

In fase di riproduzione si vuole far giungere all’occhio destro dello spettatore il film girato dalla macchina destra e viceversa, in modo che il cervello possa combinare naturalmente le due immagini e ricostruire la scena tridimensionale. Ci sono molti modi per ottenere questo effetto: mediante filtri colorati (anaglifia), filtri polarizzati circolarmente o linearmente oppure filtri shutter LCD, la cui trasparenza varia alternativamente in sincronia con le immagini.

Anaglifia

Figura 1 Sovrapposizione di due fotogrammi scattati da due posizioni differenti, in cui il borotalco e` centrato e a fuoco.

Attraverso questo shift relativo e` possibile ricavare con una certa precisione la distanza dell’oggetto in questione: nel caso di macchine fotografiche, conoscendo solo la distanza tra gli obiettivi, le loro inclinazioni relative e applicando semplici equazioni. Il cervello umano riesce a risolvere naturalmente queste equazioni a partire dal secondo, terzo anno di et`a. Nel cinema 3D vero, cio`e n´e d’animazione, n´e adattato in post-produzione, il film viene girato contemporaneamente da due videocamere ad alta risoluzione e velocit`a, montate l’una accanto all’altra con una certa distanza tra gli obiettivi. Macchine di questo tipo molto diffuse sono per esempio la Red One e la Silicon Imaging SI-2K Digital Cinema Camera (vedi Figura 2).

Si tratta del 3D tradizionale e pi`u conosciuto, che ha per`o il grosso limite di non poter rendere scene colorate, in quanto i filtri utilizzati lavorano proprio in frequenza su due soli colori (vedi Figura 3). La luce infatti non e` altro che un’oscillazione del campo elettromagnetico e per questo e` detta onda elettromagnetica: i campi elettrico e magnetico oscillano in direzioni perpendicolari, tra loro e rispetto alla direzione di propagazione dell’onda. La frequenza di quest’ultima e` semplicemente il numero di oscillazioni che compie nell’unit`a di tempo. L’unit`a di misura delle oscillazioni e` l’Hz, un’oscillazione al secondo. In questo ambito si usa molto il terahertz (THz), che corrisponde a 109 Hz e ad una lunghezza d’onda di 3 × 105 nm (nanometri, 10−9 m). Le due grandezze sono legate tra loro dalla semplice relazione λ = νc , con λ lunghezza d’onda, c velocit`a della luce e ν frequenza. L’insieme dei valori della frequenza della luce viene detto spettro e la finestra del visibile (ovvero le frequenze della luce a cui i nostri occhi sono in media sensibili) va dai 400 ai 790 THz o, se si preferisce, dai 750 ai 380 nm. Il cervello percepisce le diverse frequenze sotto forma di colori, dal rosso (basse frequenze, grandi lunghezze d’onda) al violetto (alte frequenze, piccole lunghezze d’onda), come evidenziato nella Figura 4.

accastampato num. 1, Giugno 2010

11


IL RESTO DEL NEUTRINO

Figura 4 Spettro della luce, in cui e` evidenziato l’intervallo a cui l’occhio umano e` in media sensibile. Qui sono riportati i valori della lunghezza d’onda in nm (nanometri, 10−9 m) invece delle frequenze.

Figura 3 Esempio di anaglifo stampato su carta.

zione di raggi luminosi i cui campi sono diretti casualmente l’uno rispetto all’altro. Una luce si dice invece polarizzata se la direzione di oscillazione del campo elettrico e` costante nel tempo (tra le due situazioni ce ne sono infinite intermedie, dette di luce parzialmente polarizzata). Dato che campo magnetico ed elettrico sono perpendicolari, qualsiasi direzione sul piano che individuano pu`o essere scomposta in due contributi lungo due assi perpendicolari a scelta. Mediante speciali filtri e` possibile selezionare una particolare direzione di polarizzazione e scartare l’altra: e` il caso delle ben note lenti Polaroid (vedi Figura 6).

-------------------------------------------

La stereoscopia permette di ricavare la distanza di un oggetto da una coppia di immagini prese da due posizioni diverse ------------------------------------------Le due immagini stereoscopiche prendono il nome di stereogrammi e vengono stampate sulla stessa foto, ma mediante due colori complementari, tipicamente rosso e verde. I filtri sono costituiti da una coppia di lenti colorate montate su di un paio di occhiali (vedi Figura 5). Questi filtri sono costituti da sostanze che assorbono o riflettono tutto lo spettro tranne la piccola porzione relativa al proprio colore, che viene trasmessa e/o in parte riflessa. Essendo verde e rosso complementari, quindi lontani in frequenza, un filtro rosso assorbe tutta la luce verde e viceversa. Cos`ı ad ogni occhio giunge solo la sequenza di immagini che gli spetta e il cervello interpreta la differenza tra i due flussi come distanza degli oggetti. Il sistema e` estremamente economico, ma ormai superato.

Luce polarizzata e la soluzione RealD La resa dei colori e` invece ottima mediante filtri che lavorano in polarizzazione, nome con cui si indica la direzione di oscillazione del campo elettrico. Normalmente la luce a cui siamo abituati non e` polarizzata, nel senso che e` composta da una sovrapposi12

Figura 5 Schema di funzionamento del tradizionale cinema 3D.

Nel caso del cinema 3D, quindi, i due filmati, uno per l’occhio destro e l’altro per quello sinistro, vengono proiettati contemporaneamente sullo schermo da due proiettori sincronizzati: di fronte a ognuno di essi e` posto un polarizzatore, lineare o circolare. Nel primo caso i campi elettrico e magnetico oscillano in fase, cio`e raggiungono il loro valore massimo insieme, mentre nel secondo in controfase: quando uno e` massimo, l’altro e` minimo e viceversa. In questo modo agli occhi dello spettatore la luce dei due filmati giunge con due polarizzazioni indipendenti e le lenti montate op-

accastampato num. 1, Giugno 2010


IL RESTO DEL NEUTRINO

(vedi Figura 8). Sono quindi necessari schermi speciali, detti silverscreen perch´e trattati con particelle d’argento che, essendo un metallo, riflette quasi tutta la luce, lasciandone cos`ı intatta la polarizzazione. Schermi costosi e che soprattutto non sono adatti alle classiche proiezioni 2D, perch´e troppo luminosi: necessitano quindi di sale dedicate alle sole proiezioni 3D.

Figura 6 Schema intuitivo del funzionamento di un filtro Polaroid.

portunamente sugli occhiali selezionano quella corretta per ogni occhio. In altre parole, di fronte ad ogni proiettore c’`e lo stesso filtro Polaroid montato davanti all’occhio a esso associato. La scelta dei due tipi di polarizzazione, lineare o circolare, non e` equivalente: nel primo caso i filtri del proiettore e dell’occhio associato sono uguali, cio`e lasciano passare esattamente le stesse immagini, solo se la testa dello spettatore e` perfettamente verticale e quindi allineata con il filtro del proiettore. In questo caso piegare la testa di lato significa per ogni occhio vedere parte del filmato destinato all’altro perch´e i due filtri inclinati tra loro mescolano le due polarizzazioni, fino a che l’effetto 3D non svanisce completamente. Nel caso della polarizzazione circolare questo problema non esiste, ma in compenso i filtri relativi sono pi`u costosi e un po’ meno efficienti: e` il caso comunque della tecnologia pi`u diffusa al momento, RealD (vedi Figura 7), che tra l’altro utilizza un solo proiettore a doppia velocit`a (48 fps, frames al secondo, con fotogrammi destro e sinistro alternati) e un filtro Polaroid oscillante, che polarizza in maniera opposta i fotogrammi alternati. Ci`o diminuisce sicuramente i costi, ma riduce anche sensibilmente la luminosit`a delle immagini, anche del 50%, a causa del lavoro dei filtri. -------------------------------------------

Figura 7 Occhiali polarizzatori del sistema RealD.

Luce colorata e la soluzione Dolby3D La tecnologia concorrente alla RealD pi`u accreditata al momento e` quella della Dolby, Dolby3D (vedi Figura 9), basata invece su un avanzato sistema di filtri in frequenza e il cui proiettore produce ben 144 fps, 72 per ogni occhio: ogni frame viene ripetuto tre volte consecutivamente.

I filtri Polaroid permettono a ogni occhio di vedere solo il filmato a esso dedicato ------------------------------------------Un elemento importante per i sistemi basati sulla polarizzazione della luce e` lo schermo, in quanto la luce proiettata, prima di giungere agli occhi degli spettatori, deve essere da esso riflessa. Una superficie qualsiasi, per`o, come quella degli schermi classici, fa perdere irrimediabilmente polarizzazione alla luce incidente: la rugosit`a della superficie in un certo senso mescola le carte, in quanto ogni microsuperficie piana riflette la luce polarizzandola in parte lungo la direzione parallela a s´e, che e` diversa dalla direzione di polarizzazione incidente e soprattutto casualmente diretta

Figura 8 Una luce incidente all’angolo di Brewster (specifico per ogni materiale e dipendente anche dalla frequenza) viene riflessa e assorbita in proporzioni diverse a seconda della polarizzazione.

accastampato num. 1, Giugno 2010

13


IL RESTO DEL NEUTRINO

Figura 9 Occhiali con filtri dicroici del sistema Dolby3D.

Come nel caso RealD, il proiettore non e` dedicato, purch´e assicuri velocit`a e risoluzioni richieste. Tra la lampada e l’ottica viene posto un filtro cromatico rotante (un disco diviso in sei settori colorati) che per ogni frame filtra un colore diverso. Tre settori sono rosso, verde e blu, gli altri hanno gli stessi colori, ma di una tonalit`a leggermente pi`u chiara. Su uno schermo bianco normale arrivano in un 24-esimo di secondo le sei immagini, riflesse verso gli spettatori. Le lenti degli occhiali sono filtri dicroici composti da qualche decina o centinaia di strati atomici depositati sotto vuoto su un substrato di vetro. Hanno una finestra di trasmissione in frequenza molto stretta proprio attorno ai colori del filtro rotante, controllata con molta precisione variando lo spessore degli strati depositati. Il resto della luce viene riflesso e ci`o, come nel caso di RealD, causa una diminuzione notevole della luminosit`a. In questo modo, comunque, a ogni occhio giungono solo i rispettivi tre fotogrammi colorati, che il cervello combina in un’immagine tridimensionale a colori reali (vedi Figura 10). I vantaggi di questa soluzione rispetto alle concorrenti sono molti: occhiali passivi, quindi economici quasi quanto quelli della RealD, costi contenuti, ma soprattutto la possibilit`a di adattare in poco tempo qualsiasi sala cinematografica 2D, purch´e dotata di un proiettore digitale moderno, in maniera non permanente grazie all’uso dello schermo standard e alla rimovibilit`a del filtro rotante colorato. Un punto a favore molto importante per la rapida estensione di questa tecnologia.

Schermi LCD Un’ulteriore tecnologia 3D, messa in campo per prima dalla nVidia per il settore videoludico, si basa su particolari occhiali attivi le cui lenti, dette shutters, possono oscurarsi alternativamente, passando da uno stato di trasmissione totale della luce a uno di riflessione in pochi centesimi di secondo. Le lenti sono costituite da uno strato di cristalli liquidi che si orientano opportunamente quando sono sottoposti a una differenza di potenziale, esattamente come i ben conosciuti schermi LCD (Liquid Crystal Display). Nel caso in esame rendono semplicemente la lente trasparente o opaca. Un proiettore a doppia velocit`a (48 fps) alterna i fotogram14

Figura 10 Schema di funzionamento del sistema Dolby3D. 1) Colori primari nei proiettori del cinema 2D standard. 2) Nel Dolby3D ogni colore primario e` separato in due tonalit`a, una per l’occhio sinistro e l’altra per il destro. 3) Dato che per ogni occhio sono usati tutti e tre i colori primari, la resa cromatica finale e` realistica.

mi destinati ai due occhi e gli occhiali sono a esso sincronizzati mediante un sistema wireless, in modo da selezionare il giusto fotogramma per ogni occhio (vedi Figura 11). Le lenti sono basate sulle peculiari propriet`a ottiche dei cristalli liquidi, che rispondono a campi elettrici esterni orientandosi parallelamente a essi. Tale liquido e` intrappolato fra due superfici vetrose provviste di contatti elettrici, ognuno dei quali comanda una piccola porzione del pannello identificabile come un pixel. Sulle facce esterne dei pannelli vetrosi sono poi posti due filtri polarizzatori disposti su assi perpendicolari tra loro. I cristalli liquidi, quando sono orientati casualmente, sono in grado di ruotare di 90◦ la polarizzazione della luce che arriva da uno dei polarizzatori, permettendole di passare attraverso l’altro. Quando il campo elettrico viene attivato, invece, le molecole del liquido si allineano parallelamente a esso, limitando la rotazione della luce in ingresso. A un allineamento completo dei cristalli, corrisponde una luce polarizzata perpendicolarmente al secondo polarizzatore, che quindi la blocca del tutto (pixel opaco). Controllando la torsione dei cristalli liquidi in ogni pixel, proporzionale al campo elettrico applicato, si pu`o dunque regolare quanta luce far passare. Questa tecnologia, che non fa uso di filtri n´e in frequenza n´e in

accastampato num. 1, Giugno 2010


IL RESTO DEL NEUTRINO

Figura 11 Alcuni esempi di occhiali LCD Shutters.

polarizzazione, risolve alla radice alcuni problemi, come la non perfetta resa cromatica del primo caso, ma riduce sensibilmente la luminosit`a e ha il costo pi`u alto in assoluto (ogni occhiale pu`o raggiungere i 100$). E` per`o la pi`u accreditata, come dimostra l’offerta dedicata all’Home Enterteinment di nVidia, per il prossimo futuro dell’Home Cinema 3D, soprattutto alla luce dei moderni schermi LCD o al plasma con frequenze di aggiornamento di 200 Hz o pi`u. A margine segnalo che la Creative offre una soluzione ulteriore e radicale con il suo nuovo sistema MyVu, in cui all’interno degli occhiali sono montati veri e propri schermi LCD opportunamente messi a fuoco da lenti ottiche: semplicemente infilandosi gli occhiali, si pu`o vedere il filmato scelto come in un sistema head-up (schermo virtuale sovrapposto alla realt`a esterna) con una risoluzione di 640x480 a 24 bit di profondit`a di colore e una frequenza di aggiornamento di 60Hz, vale a dire una qualit`a equivalente al dvd, ma non ancora all’alta definizione del blu-ray. Per ora non si parla di funzionalit`a 3D, ma e` evidente che un semplice sistema di input a doppio canale video, uno per ogni schermo, lo permetterebbe. Soluzione sicuramente interessante per l’intrattenimento privato, a differenza evidentemente di quello cinematografico.

Commenti A mio avviso nelle tecnologie appena elencate c’`e un problema di fondo che non e` legato alla particolare implementazione usata, ma proprio alle caratteristiche intrinseche della fotografia e della stereoscopia. Il sistema visivo umano e` tale che la messa a fuoco e` automatica e segue il processo attentivo: il punto della scena su cui poniamo attenzione e` sempre messo a fuoco (nei soggetti sani o portatori di occhiali correttivi, naturalmente), a meno che non cerchiamo consapevolmente di vedere zone sfocate dell’immagine (il classico caso delle gocce su una finestra). Nella fotografia (sia da stampa che cinematografica), invece, l’estensione della zona di messa a fuoco (profondit`a di campo) e` limitata, soprattutto per scene miste con oggetti sia in primo piano che sullo sfondo. Guardando una foto o un film bidimensionale noi vediamo le zone sfocate e non possiamo ovviamente metterle a fuoco ulteriormente. Usiamo per`o quest’informazione per ricostruire idealmente le distanze relative tra i vari oggetti, partendo dal presupposto che gli oggetti pi`u lontani siano pi`u sfocati rispetto al-

l’oggetto in primo piano, a fuoco. Nel caso del cinema 3D, per`o, noi gi`a vediamo una scena tridimensionale e l’informazione data dalle zone fuori fuoco non serve. Porre quindi l’attenzione su queste zone d`a fastidio, soprattutto se ci sono oggetti in movimento, che evidenziano l’omonimo effetto (motion blur, in inglese). Curiosamente questo permette al regista, che decide dove mettere a fuoco la scena, di catturare molto di pi`u l’attenzione dello spettatore sui particolari che gli interessa sottolineare, quasi costringendolo a guardare ci`o che vuole.

Bibliografia (1) Anaglifia: http://en.wikipedia.org/wiki/ Anaglyph_image (2) Semplice tutorial per realizzare stereogrammi: http://dicillo.blogspot.com/2007/07/ tutorial-stereografia-come-realizzare.html (3) Silicon Imaging SI-2K Digital Camera: www.siliconimaging.com/DigitalCinema/SI_2K_ key_features.html (4) 3DStereo.it: www.3Dstereo.it (5) Bob’s trip into Dolby3D Technology: www.moviestripe.com/dolby3D/ (6) The Dolby solution to Digital 3D: http://www.edcf.net/edcf_docs/dolby-3D.pdf (7) Dolby3D: http://www.dolby.com/consumer/ technology/dolby-3D.html (8) Filtri dicroici: http://en.wikipedia.org/wiki/ Dichroic_filter (9) LCD: http://it.wikipedia.org/wiki/LCD (10) Creative MyVu: www.tecnologiecreative.it/ schede/MyVu_Edge_301/index.html

Sull’autore Alessio Cimarelli (jenkin@accatagliato.org) si e` laureato in Fisica nel settembre 2009 alla Sapienza di Roma, con una tesi sul comportamento collettivo degli stormi di uccelli in volo (progetto Starflag). E` tra gli ispiratori e gli amministratori del portale accatagliato.org. Al momento frequenta il Master in Comunicazione Scientifica alla Sissa di Trieste, collaborando attivamente con il portale accatagliato.org e la rivista accastampato.

accastampato num. 1, Giugno 2010

15


Il comportamento collettivo animale Una grande varieta` di specie animali mostrano spesso comportamenti di gruppo simili Alessio Cimarelli (Gruppo S TARFLAG, CNR/INFM)

on il termine comportamento collettivo si intende l’emergenza di propriet`a di un gruppo irriducibili a quelle dei singoli individui che lo compongono, caratteristiche per lo pi`u dipendenti dalle mutue interazioni tra di essi. Condizione fondamentale per un comportamento emergente e` che ogni individuo interagisca con gli altri alla pari, con le stesse modalit`a, che non ci siano cio`e elementi primari (ad es. leader) che dettino il comportamento ad altri elementi secondari, n´e elementi esterni che influiscano globalmente sul sistema, individuo per individuo indipendentemente. Le interazioni hanno normalmente natura locale, vale a dire che ogni individuo interagisce con un numero limitato di altri suoi simili, rimanendo sostanzialmente all’oscuro del comportamento globale del gruppo a cui appartiene, molto pi`u vasto della sua sfera di interazione. Spesso l’interazione con un ambiente esterno dinamico e` centrale, specialmente nei sistemi biologici. Il principale indizio della presenza di un comportamento collettivo e` l’apparire di patterns macroscopici ordinati, di configurazioni particolari e persistenti del sistema su scala maggiore dell’estensione dei singoli individui. Questa e` una condizione necessaria, ma non sufficiente, in quanto ci sono casi in cui e` sufficiente il teorema del Limite Centrale (box a pag. 20) dei processi aleatori per spiegare fenomeni ordinati e apparentemente coordinati (2).

C

I principi base dell’auto-organizzazione, condizione primaria del comportamento collettivo emergente, possono essere individuati in feedback positivi e negativi, in meccanismi di amplificazione di fluttuazioni casuali, di inibizione, catalizzazione, risposta a soglia, ridondanza e sincronizzazione (2). Tutta la ricerca che in questi decenni e` andata sotto il nome di complessit`a ha insegnato che meccanismi di questo genere possono prodursi a partire da elementi legati tra loro da semplici regole, per lo pi`u di natura non lineare. Ha insegnato come normalmente ci sia un parametro critico, interno o esterno al sistema, il cui valore permette la presenza o meno di uno stato ordinato, l’emersione quindi di un comportamento collettivo: la teoria delle transizioni di fase e dei fenomeni critici e` una delle maggiori conquiste della Fisica moderna e sta dimostrando di essere applicabile con successo a tutti i fenomeni che mostrino auto-organizzazione. Nel caso di sistemi biologici, per`o, non si pu`o prescindere dall’evoluzione e dalla selezione naturale dovute all’interazione continua e profonda con l’ambiente, per cui devono essere considerati anche meccanismi di massimizzazione della sopravvivenza e minimizzazione dei rischi, sia per gli individui, sia per l’intero gruppo. In un’ottica evolutiva l’aggregazione nel mondo biolo16

gico porta all’emersione di nuove funzioni che il gruppo riesce a espletare molto meglio del singolo individuo o che sono addirittura fuori dalla portata di quest’ultimo. Esempi sono l’abilit`a di costruire un formicaio, di regolare termicamente un alveare, di procacciarsi il cibo, di difendersi dai predatori, di aumentare l’efficacia delle scelte in un processo decisionale complesso (2).

Figura 1 A sinistra, Lunepithema humile; a destra, code di turisti.

Tutto ci`o pu`o far pensare che la selezione naturale abbia individuato nel comportamento collettivo un efficace mezzo per sopravvivere meglio all’ambiente, ma spesso questa connessione non e` affatto immediata. Ad esempio l’aggregarsi in certi casi aiuta a difendersi dai predatori, ma in altri li attira: si pensi ai banchi di pesci, un incubo per gli squali, ma una benedizione per i pescatori. Inoltre i singoli animali sono molto pi`u complessi di qualsiasi molecola e nel comportamento collettivo le dinamiche sociali devono sempre confrontarsi con quelle individuali: ad esempio la ricerca di cibo all’interno di una mandria e` pi`u efficiente, ma in caso di risorse scarse richiede la suddivisione tra tutti i suoi membri. Questo che potremmo definire dilemma dell’individualit`a si pu`o tradurre nella domanda: su che scala agisce la selezione? Quali variabili determinano il punto oltre il quale il comportamento collettivo si esplica in configurazioni realmente adattative e con quali modalit`a? Queste domande appaiono ancora pi`u importanti alla luce degli studi che hanno mostrato come l’auto-organizzazione sia un ingrediente centrale anche a livello genetico e di sviluppo dell’embrione. Nel seguito, senza alcuna pretesa di essere esaustivo o esauriente, presenter`o e descriver`o una parte degli studi sulla grande variet`a di fenomeni biologici che a buon titolo rientrano nella categoria comportamento collettivo, sia dal punto di vista biologico e spe-

accastampato num. 1, Giugno 2010


IL RESTO DEL NEUTRINO

Figura 2 A sinistra, alveare di api; a destra, traffico a Los Angeles.

rimentale, che da quello matematico e computazionale. Il tutto corredato da suggestive immagini che appartengono alla nostra esperienza quotidiana, ma che celano fenomeni naturali ancora non del tutto compresi. Colonie di formiche Una delle prime evidenze della presenza di meccanismi di autoorganizzazione nel mondo biologico si e` avuta studiando le formiche (famiglia delle Formicidae, a cui appartengono pi`u di 12000 specie, componenti il 10% dell’intera biomassa animale e il 50% di quella degli insetti) e il loro sistema di comunicazione e coordinamento basato su tracce chimiche di feromone. In molte specie le formiche operaie (foragers) rilasciano durante il loro cammino una sostanza volatile rilevabile dalle altre, con cui riescono a tracciare una pista invisibile dal formicaio alle risorse di cibo. Essendo volatile, la persistenza della pista dipende dalla frequenza del suo utilizzo da parte delle formiche, che la rafforzano seguendola. Questo e` un tipico esempio di feedback positivo, unitamente a un meccanismo di inibizione (la volatilit`a del feromone). La possibilit`a che si instauri un procacciamento stabile di cibo basato sulle tracce di feromone dipende fortemente dal numero di operaie impegnate in questo compito, o in altre parole dalla dimensione del formicaio: vari esperimenti hanno dimostrato che il passaggio da una ricerca individuale e casuale a una basata sulle tracce chimiche ha le stesse caratteristiche delle transizioni di fase del primo ordine, confermate anche da simulazioni apposite (vedi box a pagina 29). Storicamente lo studio delle societ`a di insetti e` considerato alla base del paradigma dell’auto-organizzazione, perch´e inizialmente le incredibili capacit`a del formicaio o dell’alveare nel risolvere problemi molto al di l`a delle capacit`a della singola formica o ape apparivano incomprensibili senza appellarsi a improbabili capacit`a percettive e comunicative della regina. Poi, attraverso

osservazioni, modelli e soprattutto un cambio di paradigma interpretativo, e` stata individuata tutta una serie di abilit`a e comportamenti con alla base meccanismi auto-organizzativi. Ad esempio la presenza di fenomeni di biforcazione e di rottura spontanea di una simmetria: in un classico esperimento si costruiscono due vie identiche ma alternative tra il formicaio e una risorsa di cibo e si scopre che, superato un certo numero di operaie, l’utilizzo prima simmetrico di esse viene a mancare in favore di un solo cammino (cfr. Figura 3). In questo caso le leggere differenze iniziali nel numero di formiche che si dirigono da una parte o dall’altra divengono determinanti per la scelta finale del percorso. Da notare che se le due vie sono diverse, per esempio una pi`u lunga dell’altra, la deposizione del feromone fa s`ı che sia pi`u concentrato lungo la via pi`u breve e che quindi a regime sia sempre questa la pi`u usata dalle operaie. E` interessante anche un altro esperimento che dimostra come sia importante nei sistemi biologici un buon bilanciamento tra comportamento sociale e individuale, quest’ultimo modellizzabile in qualche caso come rumore statistico. Tale concetto e` chiarito da un semplice esempio. Introducendo una risorsa di cibo nei pressi di un formicaio, dopo qualche tempo una formica scout la individuer`a e, nel caso ci siano abbastanza operaie, si former`a una traccia persistente e un flusso stabile di cibo. Introducendo ora una nuova risorsa pi`u energetica, la possibilit`a che il formicaio la scopra e la sfrutti dipende dall’accuratezza delle formiche nel seguire la vecchia traccia. Se fossero tutte infallibili, infatti, non abbandonerebbero mai un percorso gi`a fissato. Solo se le caratteristiche comportamentali individuali sono abbastanza forti le operaie sono invece in grado di stabilire una nuova traccia verso la nuova risorsa, abbandonando la vecchia (3). Da quando il meccanismo delle tracce chimiche e` stato scoperto, si e` dimostrato che e` alla base di numerose abilit`a delle formiche: raccolta di cibo, ottimizzazione dei percorsi anche sulla scala dei chilometri (4), strategie di combattimento, costruzione di formi-

Figura 3 Esempi di configurazioni auto-organizzate nelle colonie di formiche (3). A sinistra, selezione spontanea di un percorso verso il cibo attraverso un ponte a diamante da parte di Lasius niger; a destra, gocce di Lunepithema humile cadono non appena raggiungono una taglia critica.

accastampato num. 1, Giugno 2010

17


IL RESTO DEL NEUTRINO

Figura 4 A sinistra, stormo di pipistrelli; a destra, sciame di locuste.

cai sotterranei. Appare ora chiaro del perch´e quello degli insetti sia un esempio paradigmatico: a fronte di interazioni non lineari locali dirette (contatto e sfregamento) e indirette (deposito di feromone), grazie a meccanismi di feedback positivo (rafforzamento della traccia) e negativo (volatilit`a del feromone), si produce un qualche tipo di transizione di fase dipendente dalle dimensioni del formicaio, da cui emergono abilit`a collettive che amplificano enormemente le capacit`a dei singoli insetti.

scale differenti. La fase ordinata e` individuata dal grado di allineamento dei pesci e anche in questo caso sono stati forniti indizi della presenza di una transizione dal disordine all’ordine al variare della densit`a. I primi tentativi di analisi quantitativa risalgono a met`a degli anni ’70, con un lavoro di Graves in cui si presenta un setting sperimentale originale per fotografare banchi di pesci nel loro ambiente naturale e stimarne densit`a e distanza media di primo vicino. Dal 1983 si inizia a utilizzare la tecnica stereoscopica per ricostruire le posizioni individuali dei pesci all’interno del banco, ottenendone una stima della densit`a, delle distanze reciproche, della distanza media di primo vicino, della forma e delle proporzioni. Vengono utilizzate tecniche di videofotografia stereo e un algoritmo di tracking per ricostruire le velocit`a dei pesci e individuare cos`ı l’emergenza di una fase con forte allineamento a partire dalle interazioni di primo vicino in tre dimensioni, ma limitandosi a soli 8 pesci.

Sciami di locuste Le locuste sono insetti molto particolari il cui comportamento collettivo e` purtroppo tristemente famoso: per lunghi periodi della propria vita sono insetti solitari, che tendono a mantenere territori separati l’uno dall’altro, ma in vari momenti attraversano fasi di aggregazione, formando sciami di miliardi di individui capaci di devastare completamente qualsiasi terreno attraversino, inclusi naturalmente quelli coltivati dall’uomo (5). Per avere un’idea dell’imponenza di questi sciami, le loro dimensioni possono raggiungere i 1000km2 con una densit`a media di ben 50 milioni di locuste per km2 , viaggianti a 10–15 km/h per migliaia di km: tenendo conto che ogni insetto mangia l’equivalente del proprio peso al giorno, si sta parlando di un consumo dello sciame pari a 200 milioni di kg al giorno! Le dinamiche interne di questi sciami sembrano simili a quelle dei fluidi e sono trattabili matematicamente in modo analogo, cio`e mediante modelli continui, grazie alle loro dimensioni e densit`a. Il principale problema e` capire come possa mantenersi la coesione dello sciame su dimensioni cos`ı grandi rispetto a quelle del singolo insetto e i meccanismi che sono alla base della transizione alla fase di aggregazione. Banchi di pesci Tra le innumerevoli specie di pesci molte presentano comportamenti di aggregazione, che originano da interazioni diverse da quelle viste per le formiche. Non si tratta ora di utilizzare l’ambiente come deposito del proprio segnale perch´e l’interazione e` diretta, riassumibile nella terna di regole repulsione-allineamento-attrazione, ognuna agente a 18

Figura 5 Qualche esempio suggestivo di banchi di pesci nella loro fase di aggregazione.

Sono poi videoregistrati gruppi di Nile Pilatias (Oreochromis niloticus L.) di un centinaio di elementi, costretti per`o a muoversi in due dimensioni all’interno di una vasca opportunamente progettata. Su tempi di decine di secondi Becco et al. hanno tracciato le traiettorie dei singoli pesci e sono stati in grado di portare a termine analisi sulla struttura e sulla dinamica del banco in funzione della sua densit`a: distribuzione delle distanze di primo vicino e grado di allineamento hanno mostrato indizi di una transizione di fase disordine-ordine a una densit`a critica di circa 500 pesci/m2 . Purtroppo fino a ora conclusioni sperimentali quantitative sono praticamente assenti, a causa di grandi problemi metodologici non ancora del tutto risolti: estrema ristrettezza della base statistica dovuta allo studio di non pi`u di un centinaio di pesci, forti bias introdotti dalle dimensioni e forme delle vasche, limitazioni dovute alle tecniche di tracciamento dei pesci e da una non sempre corretta gestione degli effetti di taglia finita. Da un punto di vista etologico e biologico molto lavoro e` stato fatto per comprendere la funzione adattativa delle varie caratteristiche della fase ordinata, tra cui la forma del banco, i profili interni

accastampato num. 1, Giugno 2010


IL RESTO DEL NEUTRINO

Figura 6 A sinistra, mandria di bufali; a destra, formiche Matabele.

di densit`a, le posizioni dei pesci collegate alla loro grandezza o al grado di familiarit`a, ecc. Le due funzioni primarie sono senz’altro la protezione dai predatori e la ricerca di cibo, mentre i meccanismi di base individuati vanno nel primo caso dalla diluizione del rischio all’effetto di confusione, dalla capacit`a di individuare prima il predatore al coordinamento di manovre di evasione, mentre nel secondo caso consistono in una maggiore velocit`a di trasferimento dell’informazione sulla distribuzione delle risorse di cibo (per un’ampia lista di referenze, cfr. (1)). I banchi di pesci sono anche alla base di moltissimi modelli, poi efficacemente adattati anche ad altre specie animali come gli uccelli: le interazioni dirette a corto raggio descritte prima sono facilmente implementabili in algoritmi bottom-up che hanno dimostrato di poter riprodurre non solo la transizione alla fase ordinata, ma anche parte delle caratteristiche di quest’ultima riscontrate in vari esperimenti. -------------------------------------------

` possibile ricavare il comportamento E collettivo simulando semplici modelli al computer ------------------------------------------Stormi di uccelli Nel caso degli uccelli, l’approccio sperimentale e` ancora pi`u problematico rispetto al caso dei pesci, dato che non e` possibile ricorrere a una situazione controllata in laboratorio ed e` obbligatorio considerare tutte e tre le dimensioni spaziali (6). A parte lavori pionieristici degli anni ’60, nel ’78 vi e` la prima ricostruzione delle posizioni degli uccelli, limitata a 70 individui in volo dalle campagne ai dormitori, seguita da quella delle traiettorie complete di poco pi`u di 16 individui. E` evidente come qualsiasi analisi su una base di dati cos`ı ristretta non possa che portare a risultati solo qualitativi, con il rischio di introdurre bias non controllabili (si pensi al problema del bordo: in tre dimensioni trattare piccoli gruppi significa considerare per lo pi`u individui sul bordo e quindi ottenere risultati pesantemente affetti da problemi di taglia finita). Il problema primario di questa

mancanza di dati sperimentali nello studio degli uccelli sta prevalentemente nelle tecniche di ricostruzione delle posizioni che non possono essere chiaramente invasive e devono essere implementate sul campo. Per questi motivi sono tecniche per lo pi`u di tipo ottico (stereoscopia, metodo ortogonale) che prevedono l’utilizzo di immagini sincrone del gruppo e che richiedono di risolvere esplicitamente il problema del matching, cio`e il riconoscimento dello stesso individuo in ogni immagine (6). Queste difficolt`a hanno reso per decenni impossibile una comparazione adeguata tra modelli teorici, numerici e dati sperimentali, perch´e il comportamento collettivo emerge all’aumentare del numero di individui e limitarsi a piccoli gruppi spesso non permette di studiarne efficacemente le caratteristiche globali.

Figura 7 Esempi degli stormi pi`u suggestivi visibili a Roma nel periodo invernale (foto dell’autore e della squadra STARFLAG).

Dinamiche di folla A volte si dice che l’intelligenza di una folla di persone e` inversamente proporzionale al numero di cervelli che la compongono. Questa massima deriva dall’osservazione che spesso le dinamiche interne di una folla appaiono irrazionali se viste dall’esterno, tanto da produrre veri e propri disastri nelle situazioni di pericolo, vero o presunto, che scatenano il panico. Si pensi a incendi in edifici chiusi, ma anche a concerti di star famose o all’apertura della stagione dei saldi in alcuni grandi magazzini. Questi fenomeni sono in aumento con il crescere delle dimensioni di eventi che attirano grandi masse, ma e` solo da poco pi`u di un decennio che si stanno studiando e sviluppando teorie quantitative e modelli delle dinamiche di folla (7). Simulazioni di questo tipo hanno permesso di migliorare la comprensione di questi fenomeni e individuare tutti quegli elementi, architettonici e psicologici, che contribuiscono a rallentare o a rendere pi`u pericolosa la fuga in situazioni di panico: ad esempio uscite strette o allargamenti prima delle uscite ostacolano il deflusso, che invece e` facilitato dalla presenza di colonne poste asimmetricamente di fronte alla uscite che spezzano gli ingorghi. Inoltre sono risultati utili nello studio anche di altre formazioni, come il traffico automobilistico o le ola negli stadi.

accastampato num. 1, Giugno 2010

19


IL RESTO DEL NEUTRINO

chiaramente dallo studio dei modelli, sia analitici che numerici, che mostrer`o nel dettaglio in un prossimo articolo dedicato al comportamento collettivo animale.

Bibliografia (1) Cimarelli A., Funzioni di struttura e correlazioni di velocit`a in stormi di uccelli in volo: un’analisi empirica nell’ambito del progetto Starflag, Tesi magistrale (Settembre 2009) (2) Sumpter D.J.T., The principles of collective animal behaviour, in Phil. Trans. R. Soc. B, vol. 361:5–22 (2006)

Figura 8 A sinistra, folla a Longchamp, Parigi; a destra, sciame di batteri M. Xanthus.

(3) Detrain C. e Deneubourg J.L., Self-organized structures in a superorganism: do ants behave like molecules?, in Physics of Life Rev., vol. 3:162–187 (2006) (4) H¨olldobler B. e Wilson E.O., The ants, Harvard University Press (1990) (5) FAO Locust watch: www.fao.org/ag/locusts/en/info/info/ (6) Giardina I., Collective behavior in

Conclusioni

animal groups: theoretical models and empirical studies, in HFSP J., vol.

Da questa breve panoramica delle specie animali che mostrano peculiari comportamenti collettivi emerge una delle caratteristiche fondamentali e pi`u interessanti di questi sistemi: dinamiche macroscopiche simili a fronte di elementi microscopici estremamente diversi tra loro. Si tratta di un qualche tipo di universalit`a del comportamento collettivo, che apparir`a ancora pi`u

2(4):205–219 (2008) (7) Helbing D., Farkas I. e Vicsek T., Simulating dynamical features of escape panic, in Nature, vol. 407:487–490 (2000)

Il Teorema del Limite Centrale

di Ulisse Ferrari

Curiosando tra risultati statistici d’ogni sorta, come la distribuzione delle altezze in un paese o quella dei risultati degli esami di maturit`a di un particolare anno, non si pu`o non notare la presenza ricorrente di una particolare curva, detta Gaussiana, dalla forma a campana, con un picco al centro e code laterali sottili. Quella che pu`o apparire come una semplice curiosit`a e` invece la realizzazione di un importante teorema della teoria della probabilit`a, il ramo della matematica che studia e descrive il comportamento delle variabili casuali (dette aleatorie), ossia delle quantit`a che possono assumere diversi valori, ciascuno con una certa probabilit`a. Il Teorema del Limite Centrale (nella versione generalizzata dal fisico-matematico russo Funzione di densit`a della variabile casuale normale (o di Gauss). Aleksandr Lyapunov), sotto alcune ipotesi, asserisce che: µ indica il valor medio (posizione del picco), σ2 la varianza la somma di n variabili casuali indipendenti ha una distribu(legata alla larghezza della campana). Da wikipedia.org zione di probabilit`a che tende a una curva Gaussiana al crescere di n all’infinito. In altre parole, un fenomeno aleatorio, risultato della cooperazione di molti piccoli fattori casuali indipendenti, avr`a una distribuzione di probabilit`a Gaussiana. Il voto che uno studente prender`a alla maturit`a, per esempio, dipender`a da molti fattori, quali la sua preparazione, le abilit`a acquisite, la capacit`a di concentrazione, ecc. . . Nonostante la distribuzione di probabilit`a di questi fattori non sia necessariamente Gaussiana, il voto, che e` la somma di questi fattori, si distribuir`a secondo tale curva. 20

accastampato num. 1, Giugno 2010



La riforma dell’Universita` italiana Dove siamo e dove stiamo andando. . . Lara Benfatto (Dipartimento di Fisica della Sapienza di Roma)

a circa 6 mesi e` stata presentata una bozza del Disegno di Legge Gelmini riguardante la riforma dell’Universit`a (1). Ora tale DDL e` in discussione al Senato a meno di un anno dall’imponente mobilitazione di tutto il settore dell’Istruzione seguito al decreto legge 133 dell’agosto 2009, con il quale si pianificavano pesantissimi tagli a scuola ed universit`a, in termini sia di finanziamento che di reclutamento, riguardanti il periodo 2009–2013. Il successivo decreto legge 180 del dicembre 2009 ha parzialmente corretto il tiro sul fronte del blocco delle assunzioni e dei tagli all’universit`a, lasciando tuttavia in essere un taglio di 946 milioni di euro in 5 anni, pari al 2, 7% del Fondo di Finanziamento Ordinario (FFO) del comparto universit`a (2). A prima vista tale riduzione pu`o sembrare non particolarmente significativa: tuttavia, occorre ricordare che le universit`a utilizzano gi`a circa il 90% del FFO per pagare gli stipendi. Ma per fare didattica e ricerca servono anche (ingenti) fondi per la gestione di strutture didattiche e laboratori, per le collaborazioni scientifiche, partecipazione a convegni, personale a tempo determinato, ecc. Quindi un taglio del 2, 7% del FFO azzera in pratica ogni possibile margine operativo in ricerca e sviluppo del nostro sistema universitario, che non pu`o essere compensato da alcun progetto di riorganizzazione amministrativa del medesimo.

D

Figura 1 Uno striscione degli studenti del Dipartimento di Fisica durante una manifestazione contro il DDL Gelmini e il Decreto Legge 133 dello scorso autunno.

22

Prima di entrare nel merito del DDL Gelmini vale la pena di fare uno sforzo analitico di lettura dei contenuti reali e di quelli virtuali del DDL. E` infatti interessante notare come gran parte degli editoriali apparsi negli ultimi mesi su autorevoli quotidiani nazionali si siano focalizzati sui punti pi`u vaghi della prospettata riforma, quelli cio`e la cui definizione viene affidata a decreti leggi successivi all’approvazione del DDL, e quindi dai contenuti assolutamente incerti e al momento imprevedibili. Tentiamo quindi di riassumere a grandi linee i contenuti del DDL, distinguendo tra i provvedimenti di immediata attuazione e quelli da definirsi. -------------------------------------------

. . . un taglio del 2, 7% del Fondo di Finanziamento Ordinario azzera in pratica ogni possibile margine operativo in ricerca e sviluppo del nostro sistema universitario. . . ------------------------------------------Provvedimenti immediati • Riorganizzazione della struttura amministrativa (Art. 2). Questa si articola in vari punti: in particolare, si prevede che al senato accademico venga affiancato un consiglio di amministrazione in cui il 40% dei membri sono esterni all’ateneo e con competenze gestionali-amministrative. Tale CdA ha anche potere decisionale che spazia dalla definizione delle “funzioni di indirizzo strategico” alla soppressione/istituzione di corsi di studio e sedi. Si prevede inoltre l’accorpamento dei dipartimenti (aventi un numero minimo di docenti di 35 o 45) in massimo 12 facolt`a o ’scuole’. Si parla poi di un codice etico che le universit`a sono tenute ad adottare entro centottanta giorni dall’entrata in vigore della legge, ma non si d`a indicazione alcuna rispetto ai contenuti in questione. • Fondo per il merito degli studenti (Art. 4). Si tratta di borse di studio e prestiti di onore, da attribuirsi con criteri unicamente meritocratici (non di reddito) e previa selezione nazionale. Si occupa della gestione del tutto una societ`a, la Consap S.p.A., che andr`a pagata con i soldi stessi destinati al fondo. Il fondo e` istituito presso il Ministero dell’Economia, a cui il Ministero dell’Istruzione fa comunque riferimento per coordinarne la gestione. Il fondo viene finanziato con “trasferimenti pubblici e con versamenti effettuati a ti-

accastampato num. 1, Giugno 2010


ONDA LUNGA

tolo spontaneo e solidale effettuati da privati, societ`a, enti e fondazioni, anche vincolati, nel rispetto delle finalit`a del fondo, a specifici usi”. • Riordino del reclutamento (Art. 7-10). I punti salienti sono: Art. 8 Si istituisce l’abilitazione nazionale per associato e ordinario, basata sui soli titoli. La valutazione viene fatta da una commissione di durata biennale, con 4 membri sorteggiati da una lista di ordinari (a cui si aggiungono anche gli associati solo se gli ordinari di quel settore sono meno di 50) che fanno richiesta di esserci e il cui curriculum e` pubblico, pi`u un membro straniero. Le selezioni hanno cadenza annuale, ma nel caso in cui il candidato non ne superi una deve aspettare 2 anni per riprovarci, e 3 per riprovare il livello successivo. Da notare che una volta ottenuta l’abilitazione bisogna comunque sostenere il concorso presso le singole sedi universitarie qualora queste bandiscano dei posti. Le universit`a possono anche indire procedure riservate per personale gi`a in servizio nell’ateneo, ma destinandovi non pi`u del 30% dei posti disponibili nei primi 5 anni successivi all’attuazione della riforma. Dopo questo periodo si richiede che siano obbligatoriamente esterni 1/5 dei posti da ordinari e 1/3 di quelli da associati. Art. 10 Gli assegni di ricerca hanno durata da 1 a 3 anni, rinnovabili, ma non devono superare complessivamente i 10 anni. Oltre ai bandi locali di ateneo (che possono basarsi su fondi di ateneo o fondi esterni su progetti specifici) vengono istituiti anche dei bandi per selezioni nazionali, nelle quali il ricercatore presenta un progetto che, in caso di vittoria, verr`a svolto presso una sede universitaria scelta dal candidato. Art. 11 Per i contratti di insegnamento ci sono due casi: contratti a titolo gratuito o oneroso da dare a studiosi esterni per potersi avvalere delle loro prestazioni. Poi i veri contratti di docenza da attribuirsi previo espletamento di procedure disciplinate con propri regolamenti, che assicurino la valutazione comparativa dei candidati e la pubblicit`a degli atti. Lo stipendio viene deciso a livello ministeriale, ma non si sa in che modo. Art. 12 Scompare la figura del ricercatore a tempo indeterminato, per divenire a tempo determinato. Lo stipendio incrementa del 20% rispetto ai livelli attuali (arrivando a circa 2200 euro mensili), ma diventano obbligatorie 350 ore di didattica annuali. Vengono assunti previa selezione nazionale simile a quella prevista per gli assegni (cio`e si presenta un progetto e si richiede una sede in cui svolgerlo). Una quota

del FFO deve essere devoluta solo a queste posizioni, che durano 3 anni e possono essere rinnovate per altri 3. Se nel secondo triennio il titolare prende l’abilitazione ad associato pu`o essere chiamato direttamente dall’ateneo. -------------------------------------------

Quello che colpisce e` tuttavia una sorta di scollamento tra la realta` italiana quale essa e` e gli obiettivi della riforma. . . ------------------------------------------Provvedimenti differiti • Miglioramento dell’efficienza del sistema universitario (Art. 5). Il Governo si impegna a promulgare entro 12 mesi dall’entrata in vigore della presente legge dei decreti che vertano sui seguenti punti: – introdurre dei sistemi di valutazione periodica della ricerca svolta dai docenti, basati sui criteri dell’ANVUR (6); – introdurre degli strumenti di controllo della situazione patrimoniale delle universit`a; – disciplinare l’attivit`a dei docenti, per esempio stabilendo un impegno dovuto di 1500 ore annue di cui 350 di docenza. Vanno individuati i casi di incompatibilit`a tra la posizione di professore e ricercatore universitario e l’esercizio di altre attivit`a o incarichi. Gli scatti diventano triennali (ma complessivamente della stessa entit`a) e previa valutazione dell’attivit`a didattica e di ricerca del docente. Una quota del FFO destinata a una certa universit`a verr`a assegnata in base a criteri di valutazione scientifica dei docenti stessi; – riformare il diritto allo studio: si parla di una generica definizione di requisiti minimi per garantire il diritto allo studio, ma non vi e` alcuna proposta concreta. Nella sua impostazione generale il DDL prevede un mutamento decisamente radicale dell’universit`a italiana. Quello che colpisce e` tuttavia una sorta di scollamento tra la realt`a italiana quale essa e` e gli obiettivi della riforma. Ad esempio, la presenza in un CdA dotato di forti poteri decisionali di personalit`a esterne al mondo accademico e` prassi comune nel sistema americano, nel quale per`o la sinergia tra mondo accademico e privati e` di gran lunga pi`u avanzato che da noi, giustificando la presenza di un forte interscambio tra le due realt`a. Meno chiaro e` come in Italia tale sinergia possa essere imposta per legge: il rischio e` che nel tentativo di destrutturare l’attuale sistema di potere delle baronie universitarie (che finora non e` stato in grado di sanare da solo un

accastampato num. 1, Giugno 2010

23


ONDA LUNGA

Figura 2 Ministri dell’Universit`a e della Pubblica Istruzione dell’ultimo decennio. Dall’alto a sinistra: Luigi Berlinguer, Tullio De Mauro, Letizia Moratti, Giuseppe Fioroni, Fabio Mussi, Mariastella Gelmini

sistema malato) ci si affidi a cure esterne sulle cui competenze ci sono ancora pi`u dubbi e incertezze. Anche l’idea stessa di creare una vera competizione tra le varie universit`a, allo scopo di attrarre gli studenti migliori, fallisce miseramente a fronte di un’obiettiva immobilit`a sociale del sistema italiano: se uno studente non pu`o permettersi di andare all’universit`a migliore perch´e e` lontana da casa, la competizione non esiste. In questa prospettiva gli stanziamenti (pubblici, perch´e quelli privati si concentrerebbero solo su alcuni settori) per il Fondo per il merito dovrebbero essere veramente ingenti, ma non vi e` traccia nella legge di alcun impegno in tal senso. Riguardo ai criteri di riordino del reclutamento si apprezzano segnali positivi: la regolarit`a delle procedure di valutazione, l’idea di bandire assegni di ricerca nazionali in cui il ricercatore ha l’autonomia di proporre il suo progetto, l’obbligatoriet`a (almeno sul medio periodo) di reclutare personale esterno all’ateneo, un tentativo di regolamentazione dei contratti di insegnamento, di cui al momento si abusa largamente. Tuttavia mentre e` chiaro che a regime queste norme possono produrre effetti positivi, non si prevede un periodo di transizione intermedio che tenga conto dell’attuale realt`a italiana. Prendiamo il caso della norma che fa diventare quella del ricercatore una posizione a tempo determinato: un analogo della tenure track che e` largamente diffusa all’estero, in cui il ruolo di docenza viene preceduto da un periodo di prova in cui il ricercatore mostra le sue capacit`a. In principio una buona norma, che all’estero viene usata per avere modo di valutare un ricercatore prima dell’assunzione a tempo indeterminato. Nel nostro caso, tuttavia, passati i 6 anni di tenure, l’assunzione del ricercatore non e` vincolata solo alle sue capacit`a: anche se il ricercatore acquisisce l’abilitazione nazionale a professore 24

associato la sua immissione in ruolo e` automatica solo presso la sede in cui lavora, quindi e` vincolata sia alla situazione finanziaria della stessa sia al gradimento del ricercatore stesso da parte delle baronie locali. Questo e` un baco in generale del perverso meccanismo di abilitazione nazionale e concorso locale: e` inutile fare una programmazione sulle procedure valutative nazionali (fatto comunque positivo) se poi i posti veri vengono comunque banditi localmente, e come tali assoggettati ai noti meccanismi di baronia locale e ai problemi di deficit finanziario delle varie sedi. Un secondo aspetto che la riforma ignora e` che a oggi si diventa ricercatore universitario in media a 36 anni (3): non e` quindi auspicabile che la nuova figura del ricercatore a tempo determinato interessi questa categoria di scienziati, che hanno alle spalle gi`a 10 anni di precariato nella ricerca. Queste figure andrebbero quindi gradualmente inserite in ruoli di docenza (ovviamente, previa selezione dei soli meritevoli), il che e` reso impossibile dai blocchi attualmente in essere e da un sistema che vede accedere ai ruoli di associato ricercatori in media di 44 anni, quindi con ulteriori 10 anni di esperienza. Questo significa anche che in un’abilitazione nazionale gli standard fissati per accedere ai ruoli di associato riguarderanno scienziati con circa 20 anni di esperienza, rendendo impossibile anche per i migliori giovani ricercatori del nostro paese aspirare direttamente alla docenza universitaria di ruolo. Non si vede quindi, a dispetto delle numerose esternazioni in tal senso da parte di molti commentatori ignari della reale situazione universitaria, come queste norme possano risolvere l’enorme problema del precariato universitario. A voler fare una stima al ribasso dell’entit`a del problema, si consideri che lo stesso Ministero dell’Istruzione ci informa che al momento ci sono 18.000 persone tra assegnisti e borsisti impegnati in attivit`a di ricerca nell’universit`a italiana (4): un numero enorme, se si pensa che nei prossimi anni (2009-2012) vi sar`a al massimo un turn-over di 10.000 unit`a (5), che per`o stante le norme sul blocco del turn-over e sui tagli al FFO, produrranno nella migliore delle ipotesi 5000 nuovi posti. A questi ricercatori, spesso impegnati in programmi di ricerca di altissima qualit`a, si propone quindi di prolungare la precariet`a con altri 6 anni di posto da ricercatore a tempo determinato. Inoltre, si rende obbligatorio per il ricercatore a tempo determinato un carico didattico pari a quello del docente di ruolo. Tale novit`a ha connotati estremamente negativi: attualmente i ricercatori non sono tenuti a fare attivit`a didattica (anche se spesso si trovano a farla su base pi`u o meno volontaria). -------------------------------------------

Questo sistema delega l’insegnamento a figure precarie, a discapito della qualita` ------------------------------------------L’idea e` che un giovane debba fare principalmente ricerca, acquisire i titoli per diventare professore universitario, e dedicarsi a quel punto alla didattica con tutto l’impegno che questa richiede. Questo sistema invece delega ufficialmente l’insegnamento a

accastampato num. 1, Giugno 2010


ONDA LUNGA

figure precarie, a discapito della qualit`a stessa dell’insegnamento. Infine si arriva alla parte pi`u interessante della riforma, ossia l’adozione di procedure di valutazione del personale docente, da parte di un agenzia, l’ANVUR (6), la cui utilit`a viene curiosamente riconosciuta dopo un anno e mezzo di stasi completa delle procedure per la sua messa in funzione. Vorrei osservare che in questo stesso periodo la parte sana dell’universit`a italiana ha sempre chiesto a gran voce una riforma del sistema in senso meritocratico, perch´e e` questa l’unica strada percorribile per migliorare veramente la qualit`a del mondo accademico. E` inutile cambiare le procedure dei concorsi, bloccare il turn-over, invocare codici etici, se la gestione rimane nelle mani dei soliti noti (o, ancor peggio, nelle mani di un CdA del tutto disinteressato al mondo della ricerca). Solo un meccanismo che fa pagare a posteriori a ogni singolo dipartimento i costi di scelte scientifiche sbagliate pu`o sconfiggere il malcostume. Questo e` il punto di partenza, non quello di arrivo: ma richiede un coraggio - quello di scardinare veramente poteri consolidati - e una comprensione dei meccanismi reali del mondo universitario che sono al momento assenti nel nostro panorama politico.

Bibliografia

C.U.N. del 18 giugno 2008 (http://www.df.unipi.it/ ˜rossi/documenti.html) mostra chiaramente che l’incremento nominale del 17% del FFO dal 1998 al 2008 e` servito solo a far fronte all’aumento degli stipendi stabiliti in base all’indice di inflazione ISTAT. Questo significa che non vi e` stato alcun aumento netto in termini di investimenti in ricerca e sviluppo. (3) Dati forniti dal CNVSU (Comitato Nazionale di valutazione del Sistema Universitario): http://www.cnvsu.it/ publidoc/datistat/default.asp (4) Dati rilevabili dal sito del Miur: http://statistica. miur.it/Data/uic2007/Le_Risorse.pdf (5) Una stima esatta del numero dei pensionamenti previsti per i prossimi anni e` difficile: tuttavia i dati del CNVSU (www. cnvsu.it) li stimano tra i 5000 ed i 10.000. (6) L’ANVUR (www.anvur.it) e` l’Agenzia Nazionale per la Valutazione del Sistema Universitario: la sua istituzione era stata avviata dal precedente ministro Mussi, ma le procedure sono state bloccate al momento dell’insediamento del presente governo.

Sull’autore Lara Benfatto (lara.benfatto@roma1.infn.it) e` ricercatrice presso il CNR/INFM di Roma.

(1) Il documento e` disponibile su www.accatagliato.org (2) Il rapporto presentato dal professor P. Rossi al Convegno

Analisi a crocette, primi effetti dei tagli?

di Carlo Mancini

Quest’anno gli studenti di Analisi del corso di laurea in Fisica hanno dovuto affrontare un test a crocette invece del solito esercizio da svolgere. Ecco la voce del professor Lamberto Lamberti che quest’anno ha tenuto il corso: e` un esperimento rivolto al futuro: da qui ai prossimi cinque anni molti dei professori di Matematica andranno in pensione, e probabilmente non sar`a pi`u possibile dividere gli studenti del primo anno del corso di laurea in Fisica in quattro canali diversi, com’`e ora, e quindi bisogna provare nuovi tipi di verifica, che consentano di correggere molti pi`u compiti di quelli che ora deve correggere un singolo professore. [. . . ] Fino a pochi anni fa era possibile creare molti canali diversi per i corsi di base; inoltre l’offerta didattica era arricchita con corsi molto specializzati, per esempio il Piazzale della Minerva, Universit`a Sapienza di Roma professor Doplicher - famoso in tutto il mondo - ha sempre tenuto un corso di Meccanica Quantistica e di Algebre di Operatori, magari con pochi studenti iscritti, ma questo e` normale per un corso facoltativo degli ultimi anni, ma comunque una ricchezza per l’offerta didattica fornita agli studenti; ebbene, dall’anno prossimo il professor Doplicher andr`a in pensione e molto probabilmente i due corsi non esisteranno pi`u. Il caso dei corsi di Meccanica Quantistica e di Algebre di Operatori non e` isolato: gi`a oggi l’offerta didattica si e` molto impoverita rispetto al passato e fra cinque anni, non assumendo pi`u nuovi ricercatori in sostituzione dei professori che andranno in pensione, non sar`a neanche possibile dividere in cos`ı tanti canali gli studenti dei primi anni, a Matematica come a Fisica. Confortante. . . accastampato num. 1, Giugno 2010

25


La transizione vetrosa Il vetro e` tra i materiali piu` familiari, ma non smette di affascinare gli scienziati Tullio Scopigno (Gruppo G LAS, Dip. di Fisica della Sapienza di Roma)

Quanto a me, perdonatemi per quello che sto per dire, ma preferisco il vetro, che almeno non manda odore. E se non fosse cos`ı fragile, lo preferirei all’oro. (Petronio, Satyricon, I secolo d.C.)

egli ultimi venti anni enormi progressi sono stati fatti verso la comprensione dei meccanismi di formazione del vetro, la cosiddetta transizione vetrosa, ma nonostante ci`o resta ancora valida l’affermazione di P.W. Anderson, premio Nobel per la fisica nel 1977, che individua in questo problema uno degli aspetti ancora irrisolti nella fisica della materia. Il vetro, nell’accezione comune del termine, e` una sostanza che trova largo impiego nell’uso quotidiano. Dal punto di vista fisico, per`o, pu`o essere inquadrata in un contesto ben pi`u generale, in quanto rappresenta una forma di aggregazione della materia che pu`o acquisire alcune caratteristiche (per esempio la rigidit`a meccanica) del solido e altre (come la struttura microscopica) del liquido. Allo stato solido, in effetti, i materiali possono presentarsi in forma cristallina o amorfa: nel primo caso gli atomi (o le molecole) che lo compongono sono disposte in modo da formare un reticolo ordinato (cristallo), mentre nel secondo caso, proprio come accade in un liquido, vi e` totale assenza di periodicit`a spaziale, e si parla appunto di sostanze vetrose. In base a questa definizione rientrano nella categoria dei vetri le ceramiche, le plastiche, le resine epossidiche e i materiali polimerici, e dunque nelle comuni applicazioni si ha a che fare con sostanze vetrose molto pi`u spesso di quanto non suggerisca il senso comune. A dispetto di questa larga diffusione, il meccanismo di formazione del vetro, la transizione vetrosa appunto, risulta essere il problema pi`u interessante e profondo non ancora risolto nella fisica della materia, per citare le parole di P. W. Anderson, premio Nobel per la fisica nel 1977.

N

La temperatura della transizione La fenomenologia della transizione vetrosa pu`o essere analizzata osservando il comportamento termodinamico di alcuni parametri macroscopici. Supponiamo, ad esempio, di raffreddare un liquido sottraendogli calore (ponendolo in contatto con un ambiente a temperatura pi`u bassa). Se si misura il calore ceduto durante il raffreddamento al variare della temperatura (cfr. Figura 1) possono essere identificate diverse regioni termodinamiche. 26

Figura 1 Calore scambiato da un fuso in fase di raffreddamento. Rosso: fase liquida. Nero: fase cristallina, che si genera alla temperatura di fusione Tm . Arancio: il fluido, in particolari condizioni (per es. raffreddamento veloce) pu`o mantenersi in una fase liquida metastabile, detta di liquido sottoraffreddato. Blu: diverse fasi vetrose, che si generano alle temperature di transizione vetrosa Tg , dipendenti dalla velocit`a di raffreddamento. Si osservi la diversa dipendenza del calore dalla temperatura (capacita termica) nella fase liquida e nelle fasi solide.

Al di sopra della temperatura di fusione il liquido rilascia calore con continuit`a. Alla temperatura di fusione il sistema solitamente cristallizza, ma in particolari condizioni pu`o seguire un diverso comportamento, mantenendosi in uno stato metastabile, detto di liquido sottoraffreddato. Nel primo caso il calore rilasciato subisce una brusca variazione (calore latente) per poi continuare a diminuire, ma con minor rapidit`a rispetto alla fase liquida. Usando il linguaggio della termodinamica si dice che, alla temperatura di fusione, il sistema compie una transizione di fase del primo ordine (vedi Box a fine articolo). Nel secondo caso il rilascio di

accastampato num. 1, Giugno 2010


IL RICERCATORE ROMANO

calore continua come in fase liquida (si parla pertanto di liquido sottoraffreddato) finch´e, alla temperatura di transizione vetrosa, il calore continua a essere rilasciato in modo continuo ma con una rapidit`a minore, simile a quella del cristallo. Mentre la cristallizzazione e` un processo ben definito, nel senso che la temperatura di fusione e` un parametro che caratterizza univocamente ogni liquido, le modalit`a secondo le quali avviene la transizione vetrosa dipendono da diversi fattori, come per esempio la storia termica del materiale, ovvero la velocit`a di raffreddamento. La temperatura di transizione vetrosa, pertanto, viene solitamente definita sulla base della velocit`a di raffreddamento che si riesce a ottenere sperimentalmente, che e` dell’ordine di qualche decina di gradi al secondo.

Figura 2 Struttura e dinamica nelle varie fasi termodinamiche. A) Liquido e liquido sottoraffreddato. Gli atomi compiono un moto di tipo diffusivo, la loro posizione media varia nel tempo. B) Fase vetrosa: gli atomi sono congelati in posizioni di equilibrio disordinate, attorno alle quali compiono un moto vibrazionale. C) Gli atomi sono congelati in posizioni di equilibrio disposte su un reticolo ordinato, attorno alle quali compiono un moto vibrazionale.

In corrispondenza dei diversi stati termodinamici sopra menzionati anche le propriet`a dinamiche degli atomi e/o molecole subiscono importanti variazioni. Allo stato liquido gli atomi e/o le molecole si muovono in maniera disordinata e la loro posizione media cambia continuamente. Quando un liquido viene raffreddato, normalmente la perdita di energia termica degli atomi induce un progressivo ordinamento spaziale. Se la sostanza cristallizza, gli atomi continuano a muoversi, ma in modo diverso da quanto accadeva nel liquido: il moto di diffusione si arresta e gli atomi vibrano intorno a delle posizioni di equilibrio che rispettano ben definite periodicit`a spaziali (strutture cristalline), come farebbe, ad esempio, un sistema di palline (gli atomi) disposte su un reticolo cubico collegate tra loro da molle (i legami chimici). Se la sostanza non cristallizza, superato il punto di fusione, la dinamica rallenta ulteriormente finch´e, una volta raggiunta la temperatura di transizione vetrosa, Tg , il moto diffusivo e` praticamente congelato e sopravvivono solo le vibrazioni, che avvengono ora intorno a posizioni di equilibrio che non hanno alcuna periodicit`a spaziale. In realt`a, la transizione vetrosa marca un confine pi`u labile tra liquido-solido di quanto non avvenga nella cristal-

lizzazione. Come vedremo, infatti, la temperatura di transizione vetrosa identifica uno stato in cui la capacita di fluire del liquido scende al di sotto di un certo valore convenzionalmente scelto. Dunque, anche nel vetro, si ha un moto di tipo diffusivo, seppure estremamente lento, ovvero su scale temporali molto pi`u lunghe dei tipici tempi di osservazione. Se potessimo dunque fotografare la struttura atomica di un vetro otterremmo un’immagine simile a quelle riportata in Figura 2.

Le cattedrali gotiche e la viscosita` A questo proposito, e` significativo ricordare il mito delle cattedrali gotiche, la cui origine viene fatta risalire a una lezione di chimica tenuta nel 1946 nella West Side High School in Newark, New Jersey. Il vetro e` in realt`a un liquido - pare abbia detto il professor Clarence Hoke in questa occasione - Lo si pu`o dire guardando alle vetrate delle antiche cattedrali europee. Il vetro e` pi`u spesso nella parte bassa che in quella alta. Il motivo di questa differenza di spessore sarebbe dovuto al flusso del vetro sotto il proprio peso. Pare che la convinzione del professor Hoke abbia fatto proseliti negli anni successivi, raccogliendo un significativo numero di citazioni. Del resto bisogna ammettere che questo mito presenta un certo appeal: vetro e liquido sono spesso presentati come stati di aggregazione molto simili, caratterizzati dalla mancanza di ordine nella disposizione atomica. Poich´e questo e` certamente vero dal punto di vista qualitativo, si pu`o comprendere una certa tentazione nello spingersi troppo oltre nell’analogia, ignorando gli aspetti quantitativi della similitudine. In realt`a molti scienziati, ma anche semplici appassionati, si sono cimentati nella verifica quantitativa, e dunque sperimentale, dell’affermazione del professor Hoke, con risultati incontrovertibili che indicano come il mito sia totalmente (o quasi) infondato. Pare che effettivamente si riscontrino disomogeneit`a nello spessore di vetrate antecedenti il XIX secolo, ma allo stesso tempo il lato con lo spessore maggiore e` montato in alto, in basso o lateralmente con frequenze statisticamente simili. -------------------------------------------

...il problema piu` interessante e profondo non ancora risolto nella fisica della materia... ------------------------------------------Dunque questa leggenda popolare si spiegherebbe in modo molto semplice: prima del XIX secolo le lastre di vetro venivano prodotte partendo da una sfera e riducendola a disco mediante percussione. In questo processo inevitabilmente si ottenevano disomogeneit`a negli spessori ed e` possibile che gli artigiani del tempo preferissero montare il lato pi`u spesso in basso per sopportare meglio il carico strutturale. Al giorno d’oggi le moderne finestre vengono formate facendo adagiare per galleggiamento il fuso vetroso su un substrato di stagno fuso, processo che rende la lastra

accastampato num. 1, Giugno 2010

27


IL RICERCATORE ROMANO

altamente uniforme. D’altra parte, se e` vero che anche al di sotto della transizione vetrosa il materiale mantiene una certa capacit`a di fluire, questa e` talmente bassa che a temperatura ambiente occorrerebbe l’et`a dell’universo per creare un aumento di spessore di soli 10 Angstrom (l’Angstrom e` la dimensione caratteristica di un atomo, pari a 10−10 metri) in una lastra verticale alta un metro. Per contro, per osservare sensibili aumenti di spessore su tempi ragionevolmente brevi (per esempio la vita di media di un essere umano), occorrerebbe applicare alla lastra sforzi talmente grandi che questa si romperebbe prima di poter fluire. Questo tipo di calcolo ci porta al concetto di viscosit`a, ovvero la quantificazione della capacit`a di fluire di un materiale, che si misura usualmente in unit`a chiamate poise. Per farci un’idea, l’acqua ha una viscosit`a di 0,01 poise, la marmellata di 500 poise. Il formaggio Brie e` molto pi`u viscoso, 500.000 poise, e alla fine di una cena potremmo forse osservare un certo rammollimento di una fetta sotto il proprio peso. Ma un vetro a temperatura ambiente possiede una viscosit`a di 100.000.000.000.000.000.000 poise (s`ı, proprio 1 seguito da 20 zeri!), ovvero mille milioni di volte pi`u del piombo. Ora il piombo viene proprio utilizzato per le rilegature artistiche delle stesse vetrate incriminate e nessuno ha mai osservato tali rilegature fluire neanche sotto i grandi carichi strutturali ai quali queste sono soggette. E ancora, se a temperatura ambiente le vetrate gotiche potessero davvero essersi deformate sotto il proprio peso, perch´e non dovrebbe aver fatto altrettanto anche il vasellame ritrovato qualche migliaio di anni prima nelle tombe egizie o negli scavi greci e romani?

Figura 3 Andamento della viscosit`a al variare della temperatura. La fragilit`a di un liquido e` data dalla pendenza in prossimit`a della temperatura di transizione vetrosa (Tg /T = 1). Questo importante parametro e` dunque legato alla variazione di temperatura nell’intervallo di viscosit`a in cui il vetro pu`o essere lavorato. Intervalli di temperatura pi`u o meno ampi, a loro volta, determinano i tempi di lavorazione, pi`u o meno lunghi, per esempio durante la soffiatura. La silice e` il prototipo di vetro duro (adatto per applicazioni con tempi di lavorazione lunghi), il glicerolo e` un liquido intermedio, mentre i materiali polimerici sono solitamente molto fragili (necessitano di tempi di lavorazione relativamente brevi).

La viscosita` e la fragilita` Al livello macroscopico dunque, il parametro fisico che controlla la vetrificazione, ovvero il rallentamento delle variabili dinamiche microscopiche, e` la viscosit`a. In particolare, il comportamento della viscosit`a al diminuire della temperatura in prossimit`a della Tg permette di classificare i materiali vetrosi secondo uno schema universale, reso celebre dallo scienziato americano C. A. Angell. Secondo questo schema, i vetri (o meglio i liquidi in grado di vetrificare) si dividono in duri e fragili (strong e fragile), a seconda della rapidit`a con la quale la viscosit`a cambia al variare della temperatura in prossimit`a di Tg . In generale, nel processo di vetrificazione, la viscosit`a aumenta di molti ordini di grandezza, passando da circa 10−4 poise, valore caratteristico dello stato liquido alle alte temperature, a circa 1013 poise nel vetro, valore convenzionalmente scelto come caratteristico dello stato vetroso (un aumento di 1017 volte, dunque). Per rappresentare graficamente questo enorme aumento si usa riportare il logaritmo della viscosit`a in funzione dell’inverso della temperatura, scalato per la Tg . In questo modo, con riferimento alla Figura 3, seguendo il verso dei valori crescenti lungo l’asse delle ascisse, si pu`o quantificare l’aumento della viscosit`a al diminuire della temperatura, fino all’approssimarsi del valore 1013 alla transizione vetrosa, ovvero 28

quando ogni sistema raggiunge la sua temperatura di transizione vetrosa (T = Tg , valore unitario dell’ascissa). Osservando gli andamenti schematicamente riportati in Figura 3, e` possibile evidenziare alcuni aspetti generali: 1) alcuni liquidi, detti forti, mostrano un andamento lineare della viscosit`a, altri, detti fragili, mostrano un andamento concavo: la rapidit`a con cui aumenta la viscosit`a al diminuire della temperatura verso Tg aumenta con la diminuzione stessa della temperatura; 2) Le curve caratteristiche di ciascun materiale non si incrociano mai. Dunque, intorno a Tg , nelle sostanze forti la viscosit`a cresce pi`u lentamente, mentre in quelle fragili pi`u rapidamente. Volendo andare oltre questa distinzione qualitativa, e` possibile quantificare il concetto di fragilit`a, m, misurando la pendenza delle curve in prossimit`a della transizione vetrosa (valore unitario dell’ascissa). In questo modo si va dal valore di m = 20, che caratterizza il prototipo di vetro duro - la silice pura - verso valori via via crescenti che, per le sostanze polimeriche possono arrivare a m > 200. Mentre esiste un limite inferiore di fragilit`a (nessun materiale mostra un andamento convesso, ovvero con pendenza minore di 17 in vicinanza di Tg ), non esiste a priori nessun limite superiore. Ecco dunque perch´e, essendo la fragilit`a una caratteristica definita nel-

accastampato num. 1, Giugno 2010


IL RICERCATORE ROMANO

lo stato liquido (sottoraffreddato) e non vetroso, sarebbe pi`u corretto parlare di fragilit`a dei liquidi piuttosto che dei vetri. Lungi dall’essere un mero esercizio matematico, il concetto e la quantificazione della fragilit`a racchiude in s´e alcuni aspetti essenziali della transizione vetrosa, primo fra tutti quello dell’universalit`a: sistemi diversi si comportano qualitativamente in maniera simile, differendo solo nell’aspetto quantitativo. Il concetto di fragilit`a, inoltre, ha implicazioni fondamentali anche negli aspetti pratici legati alla lavorazione del vetro. Tali implicazioni erano probabilmente note, in forma qualitativa, dai tempi dei pionieri della lavorazione del vetro (Fenici ed Egiziani), e certamente sono ben note ai soffiatori che da lungo tempo identificano i vetri duri in lunghi e quelli fragili in corti. La ragione di questa diversa nomenclatura e` proprio legata alle implicazioni pratiche del concetto di fragilit`a. Solitamente, infatti, l’intervallo di lavorazione del vetro per la soffiatura e` compreso tra 104 e 108 poise. In tale intervallo di viscosit`a un liquido molto fragile tender`a a raffreddarsi in un intervallo di temperatura relativamente piccolo, al contrario di un vetro duro, che si raffredder`a in un intervallo di temperatura relativamente pi`u ampio. In modo corrispondente, i liquidi fragili vetrificano in tempi relativamente corti, mentre quelli duri in tempi pi`u lunghi. I vetri corti si preferiscono solitamente nelle applicazioni di tipo industriale, in cui il fattore decisivo e` la velocit`a di produzione, mentre nelle applicazioni artistiche, quali la soffiatura, sono

i vetri lunghi (duri) a essere preferiti, poich´e permettono, appunto, tempi di lavorazione pi`u lunghi. La fragilit`a di un composto pu`o essere modulata a partire dalla silice pura mediante l’aggiunta di elementi alcalini o terre rare quali sodio, potassio di calcio o lantanio. Concludendo, sebbene negli ultimi venti anni enormi progressi siano stati fatti verso la comprensione dei meccanismi che regolano la transizione vetrosa, l’affermazione di Anderson che individua in questo problema uno degli aspetti ancora irrisolti nella fisica della materia sembra essere ancora decisamente attuale.

Sull’autore Tullio Scopigno (tullio.scopigno@roma1. infn.it) e` ricercatore presso il Dipartimento di Fisica della Sapienza di Roma. Ha recentemente vinto il premio europeo Idea con il quale ha fondato Femtoscopy, una nuova linea di ricerca di spettroscopia Raman ultra-veloce.

Transizioni di fase del primo ordine

di Ulisse Ferrari

Le transizioni di fase di prima specie (o del primo ordine) sono il pi`u comune tra i cambiamenti di stato in cui incorrono i sistemi fisici. Esempi, infatti, ne sono il congelamento dell’acqua o la sua evaporazione, quando la temperatura del liquido attraversa un valore specifico. Sebbene l’essere di prima specie sia formalmente identificato dalla presenza di calore latente, ossia dalla necessit`a di cedere o assorbire calore (senza variare la temperatura) perch´e possa avvenire il passaggio di stato, l’effetto tipico che contraddistingue queste transizioni e` la coesistenza delle due fasi all’interno di un intervallo di temperature: riscaldando l’acqua in una pentola con il coperchio, parte del liquido evaporer`a creando un sistema in cui l’acqua e il suo vapore convivono alla stessa temperatura. In altre parole c’`e un intervallo di temperature in cui e` possibile trovare l’acqua sia nella fase liquida che in quella gassosa. Un’ulteriore caratteristica delle transizioni di prima specie e` la presenza di un salto, durante il passaggio di stato, di quantit`a misurabili come il volume: mentre una sostanza sta evaporando, per esempio, il suo volume aumenta sensibilmente anche per infinitesime variazioni della temperatura.

Diagramma di fase dell’acqua. In ascissa la temperatura T, in ordinata la pressione P. Ogni punto del piano rappresenta una fase della sostanza, eccetto che per quelli che si trovano sulle linee che vengono dette linee di transizione. Su di esse avviene il passaggio da una fase all’altra della sostanza. Da it.wikipedia.org

accastampato num. 1, Giugno 2010

29


La pittura silenziosa Piero della Francesca (1416 – 1492) Massimo Margotti (Studente di Fisica, Universit`a Sapienza di Roma)

Figura 1 Piero della Francesca: Madonna di Senigallia, 1474 circa, olio su tavola, 67cm × 53, 5cm (Urbino, Galleria Nazionale delle Marche)

orrei trattare in questo primo scritto di un artista che si situa nel primo Rinascimento. Non e` un caso che nel capolavoro dell’Alberti, il Tempio Malatestiano di Rimini, sia presente un affresco di Piero della Francesca. Il ruolo artistico di Piero venne rivalutato solo nel ’900, quando finalmente fu possibile riassumere le rivoluzioni pittoriche come fossero un percorso lineare; linearit`a che fa parte solo della visione dei posteri. Bench´e mantenga una totale autonomia stilistica, il lavoro di Piero della Francesca e` emblematico del passaggio che a quell’epoca stava avvenendo in Italia a livello intellettuale e sociale e individua un momento in cui l’arte assorbiva gli estremi dell’intelletto umano. Tra questi l’incontro tra arte e matematica, riconosciuta come unica risorsa per una descrizione della realt`a. Cos`ı come in una mitologia greca, da tale incontro nasce la prospettiva capace, attraverso l’inganno della mente, di donare una nuova visione del mondo. Dipingere secon-

V

30

do le regole prospettiche non era solo una moda, ma la necessit`a di rappresentare ci`o che il nuovo pretendeva come centrale. E` il momento in cui una classe commerciale annaspa di desiderio per la regalit`a dei titoli nobiliari, ma in questo desiderare e` evidente la volont`a di superamento. Ecco che nella Madonna di Senigallia (Figura 1) l’abito borghese, privato e quotidiano, diviene degno dei Santi che camminano su una terra arata e mansueta o in citt`a gi`a razionali. Fu con Piero che l’arte italiana rispose alle titubanze fiamminghe (risolte con allegorie ovine) sulla rappresentabilit`a di Dio; sulle orme del primo libro del Pentateuco il problema della rappresentazione di Dio poteva essere ricondotto alla mera rappresentazione dell’uomo e di ci`o che lo circondava. Da questa affermazione ne seguiva, come in una impostazione teorematica non distante dalla forma mentis degli artisti dell’epoca, che la terra e le architetture fossero un attributo indispensabile di questa rappresentazione. E` a questo scopo che la pittura si trasforma in uno specchio che riflette una Natura domata e disponibile a essere percorsa nella sua profondit`a, non come nei Coniugi Arnolfini di Jan van Eyck dove la realt`a e` distorta, o successivamente ne Las Meninas di Velasquez dove lo specchio mostra la realt`a trascendente dei rapporti di forza mostrando possibili sentieri dell’inconscio. E` in fondali di campi squadrati, coltivati e produttivi, in citt`a dalle architetture geometricamente definite, che Piero colloca i suoi personaggi scultorei che, immutabili come la scultura, danno Ragione dell’affermarsi dell’Uomo. Nella pittura di Piero e` escluso qualsiasi principio dinamico, non ci sono movimenti, il dipinto non e` una fotografia poich´e ogni forma umana presentata diviene forma divina; prevale dunque una statica di sapore masaccesco quale metafora del motore immobile platonico. Figure geometriche e solidi platonici sono il recupero della forma del pensiero classico e s’innestano nei racconti pittorici come teoremi la cui verit`a dimostrabile ha la durezza e la trasparenza del cristallo. E` su questi solidi cristallini che s’infrange la luce di un sole a mezzogiorno, le ombre soggiacciono completamente alle strutture che le determinano (dato non secondario in un maestro della prospettiva), quasi come se le figure divenissero meridiana di un tempo di passaggio, la fine dell’et`a di mezzo e la piena coscienza di appartenere ai pittori della trasformazione. -------------------------------------------

. . . l’incontro tra arte e matematica, riconosciuta come unica risorsa per una descrizione della realta` . . . -------------------------------------------

accastampato num. 1, Giugno 2010


SCIENZARTE

Bibliografia

Figura 2 A sinistra, Piero della Francesca: La leggenda della Vera Croce. A destra, Pablo Picasso: Il serbatoio Horta.

Siamo lontani dagli ori di Beato Angelico di sapore bizantino; in Piero le immagini bruciano come riscoperte alla luce delle nuove architetture e i volti, concepiti nell’oscurit`a, prendono fuoco al chiarore della nuova arte, diventando pi`u veri e credibili come se in tale chiarezza ogni inganno pittorico fosse dissimulato e annichilito, anzich´e magnificato. In Piero anche la polvere acquista spessore, dona densit`a all’aria suggerendo profondit`a e misura (Madonna di Senigallia). Nulla e` lasciato al caso e, se gioca col colore per ingannare l’occhio sulle reali distanze delle architetture (come nella pala di Brera o nel ciclo della vera Croce), lo fa alla ricerca di un osservatore attento che, scorgendo l’inganno, si avvicini e si immerga in una pittura istruita a misura d’uomo e che con l’uomo e la sua realt`a vuole misurarsi. La costruzione pittorica richiede dunque un movimento all’osservatore, quello di vivere lo spazio architettonico che comprende l’opera stessa, richiede di muoversi nello spazio. La statica suggerisce la dinamica. Questa esigenza fu forse maturata da due necessit`a umane: la prima quella di confrontarsi con i pittori di Firenze che dipingevano nell’architettura rinascimentale, la seconda di introdurre l’osservatore a quelle perfette simmetrie matematiche che tanto bene conosceva e che fanno dei suoi dipinti un’universalizzazione della tranquillit`a borghigiana dei biturgensi. L’opera matematica di Piero (Il Piero matematico dei De Pictura Pingendi, De quinque corporibus regularibus e Trattato D’Abaco sar`a riconosciuto dall’allievo Luca Pacioli) non s’identifica nella pittura, ma si risolve in essa.

(1) Bernard Berenson, Piero della Francesca o dell’arte non eloquente, a cura di Luisa Vertova, Milano, Abscondita (2) Roberto Longhi, Piero della Francesca, Firenze, Sansoni (3) Carlo Ginzburg, Indagini su Piero, Einaudi (4) John Pope-Hennessy, Sulle tracce di Piero della Francesca, Umberto Allemandi & Co. (5) E. H. Gombrich, La storia dell’arte raccontata da E.H.Gombrich, Einaudi (6) Henri Focillon, Piero della Francesca, Abscondita (7) Ernst H. Gombrich, Riflessioni sulla storia dell’arte, Einaudi (8) Ernst H. Gombrich, Sentieri verso l’arte, Leonardo Arte (9) Carlo Bertelli, Giuliano Briganti, Antonio Giuliano, Storia dell’arte italiana, Electa, Bruno Mondadori (10) Carlo Bertelli, Piero della Francesca, Silvana Editoriale (11) Alessandro Parronchi, Ricostruzioni: Piero della Francesca – L’altare di Gand, Medusa (12) Anna Maria Maetzke e Carlo Bertelli, Piero della Francesca: La Leggenda della Vera Croce in San Francesco ad Arezzo, Skira (13) Oreste Del Bono, Pierluigi De Vecchi, L’opera completa di Piero della Francesca, Milano, Rizzoli (14) Charles Bouleau, La geometria segreta dei pittori, Electa, Bruno Mondadori (15) H.Damisch et al., Piero Teorico dell’Arte, a cura di Omar Calabresi, Gangemi Editore (16) Una scuola per Piero, a cura di Luciano Bellosi, Marsilio

Sull’autore

Figura 3 A sinistra, Piero della Francesca: particolare del Battesimo. A destra, Vincent van Gogh: particolare di Ladies of Arles.

Massimo Margotti (massimomargotti@gmail. com), laureato in Biotecnologie Industriali, accanto all’attivit`a di studio e di ricerca ha lavorato come operatore didattico presso il Museo del Patrimonio industriale di Bologna e partecipato a varie iniziative di Arte e Scienza, tra le quali Fist fucking drain del dipartimento di Ingegneria di Bologna e Radical Relations di Robert Vincent.

accastampato num. 1, Giugno 2010

31


La prima lezione di Ettore Majorana 13 gennaio 1938: una lezione speciale che mostra le capacita` didattiche dello scienziato Alessio Cimarelli (su materiali di Bruno Prezioni, Erasmo Recami, Salvatore Esposito) (Laboratorio Interdisciplinare per le Scienze Naturali e Umanistiche – Sissa) Al mondo ci sono varie categorie di scienziati; gente di secondo e terzo rango, che fanno del loro meglio ma non vanno lontano. C’`e anche gente di primo rango, che arriva a scoperte di grande importanza, fondamentale per lo sviluppo della scienza. Ma poi ci sono i geni come Galileo e Newton. Ebbene Ettore era uno di quelli. Majorana aveva quel che nessun altro al mondo ha. Sfortunatamente gli mancava quel che e` invece comune trovare negli altri uomini: il semplice buon senso. (Enrico Fermi) ttore Majorana nacque a Catania il 6 agosto 1906 e scomparve misteriosamente nel marzo 1938 mentre era di ritorno da Palermo. Il 13 gennaio 1938 aveva tenuto la lezione inaugurale del suo corso di Fisica Teorica presso l’universit`a Federico II di Napoli, ove era stato nominato professore ordinario per meriti eccezionali. Questi appunti che di seguito pubblichiamo mostrano l’interesse dello scienziato non solo per le questioni generali e di fondo che animano la ricerca scientifica, ma anche per il migliore metodo didattico da seguire per trasmettere il sapere agli allievi, per i quali ha sempre nutrito un profondo interesse.

E

ne ha traccia indiretta nell’assenza di una tale notizia sui giornali cittadini (come, ad esempio, Il Mattino), contrariamente a quanto avveniva per altri corsi, certamente pi`u affollati. Secondo la testimonianza di Gilda Senatore, alla lezione inaugurale non parteciparono gli studenti del corso medesimo. Questo per`o non deve stupire. L’ipotesi, infatti, secondo la quale la non partecipazione degli studenti fosse espressamente voluta (da Carrelli o da altri) troverebbe una valida spiegazione in un’antica consuetudine dell’Universit`a di Napoli, dove ogni nuovo docente doveva dimostrare agli altri professori di essere meritevole del posto che sarebbe andato a occupare.

Il concorso per la cattedra di Fisica Teorica di Napoli Nel 1937 l’Universit`a di Palermo, per interessamento di Emilio Segr´e, richiese un nuovo concorso per la cattedra di Fisica Teorica. I concorrenti, oltre Majorana (invitato insistentemente a partecipare al concorso da Fermi e dagli amici), erano Leo Pincherle, Giulio Racah, Gleb Wataghin, Gian Carlo Wick e Giovanni Gentile (figlio dell’omonimo filosofo, gi`a ministro). La commissione giudicatrice, riunitasi a Roma, era presieduta da Fermi ed era costituita da Antonio Carrelli (segretario), Orazio Lazzarino, Enrico Persico e Giovanni Polvani. I documenti ufficiali testimoniano che la commissione prospett`o al Ministro Bottai (il quale accoglier`a la proposta) l’opportunit`a di nominare il Majorana professore di Fisica teorica per alta e meritata fama in una Universit`a del Regno, indipendentemente dal concorso. La cattedra fu attribuita fuori concorso a Majorana e la nomina a professore ordinario, partecipata dal Ministro Bottai il 2 novembre 1937, decorse dal 16 novembre dello stesso anno. Majorana annuncia l’inizio del suo corso per il gioved`ı 13 gennaio 1938 alle 9:00, ma concorda con il preside della Facolt`a di evitare ogni carattere ufficiale all’apertura del corso. Di ci`o se 32

Figura 1 Ettore Majorana

Lo stile del docente Majorana, vestito di blu, aveva sempre un aspetto triste e perplesso e ci`o, unito alla non facile comprensione degli argomenti avanzati che egli trattava a lezione, certamente infondeva una certa soggezione nei giovani uditori del corso di Fisica Teorica. D’altro canto, il soprannome di Grande Inquisitore gli era stato attribuito gi`a molti anni prima dagli amici di sempre del gruppo di Fermi a Roma. E anche al di fuori del contesto ufficiale delle lezioni, Majorana confermava questo comportamento: salutava e rispondeva gentilmente al saluto e, magari, timidamente sorrideva; si intuiva che doveva essere profondamente buono e sensibilissimo, ma non fu mai estroverso o invitante, anzi fu sempre estremamente schivo. E ancora: in quel lungo corridoio buio al piano terra... camminava sempre rasente al muro, silenziosamente e solo, muovendosi come un’ombra. Quando arriv`o a Napoli, certamente il direttore Carrelli dovette parlare degli studenti e delle loro ricerche a Majo-

accastampato num. 1, Giugno 2010


NANOS GIGANTUM

rana, il quale si dovette rendere subito conto del singolare compito che si era apprestato ad accettare con un cos`ı esiguo numero di studenti. Tuttavia egli era fermamente deciso a portare a termine in maniera responsabile il compito assunto. A lezione era chiarissimo nella trattazione dell’argomento che proponeva di volta in volta all’inizio della lezione e che svolgeva con dovizia di particolari, dando sempre la prevalenza alla parte fisica pi`u che a quella matematica; ma quando si volgeva alla lavagna e cominciava a scrivere, faceva calcoli che sul momento non sempre si riusciva a seguire. Il carattere di Majorana, poi, certamente non invitava i timidi studenti a interromperlo per chiedergli spiegazioni. Talvolta a lezione, quando Majorana si accorgeva (interrompendosi e voltandosi indietro) che gli studenti stentavano a capire ci`o che lui stava esponendo, si fermava e rispiegava lo stesso argomento. Proprio durante qualcuna di quelle lezioni pi`u aride e pi`u pesanti in quanto l’argomento trattato era afferente essenzialmente a metodi matematici da applicarsi allo studio di fenomeni fisici, Majorana dimenticava forse di essere quel grandissimo scienziato che era, perch´e mentre era alla lavagna e scriveva, improvvisamente si fermava, poi si volgeva, ci guardava un attimo, sorrideva e riproponeva la spiegazione facendo aderire il concetto gi`a esposto alle formule che riempivano la lavagna.

Figura 2 La famiglia di Ettore Majorana (a destra) a passeggio.

Appunti per la Lezione Inaugurale Universita` di Napoli, 13 gennaio 1938 In questa prima lezione di carattere introduttivo illustreremo brevemente gli scopi della fisica moderna e il significato dei suoi metodi, soprattutto in quanto essi hanno di pi`u inaspettato e originale rispetto alla fisica classica. La fisica atomica, di cui dovremo principalmente occuparci, nonostante le sue numerose e importanti applicazioni pratiche - e quelle di portata pi`u vasta e forse rivoluzionaria che l’avvenire potr`a riservarci -, rimane anzitutto una scienza di enorme interesse speculativo, per la profondit`a della sua indagine che va veramente fino all’ultima radice dei fatti naturali. Mi sia perci`o consentito di accennare in primo luogo,

Figura 3 Logo dell’universit`a Federico II di Napoli.

senza alcun riferimento a speciali categorie di fatti sperimentali e senza l’aiuto del formalismo matematico, ai caratteri generali della concezione della natura che e` accettata nella nuova fisica. La fisica classica di Galileo e Newton all’inizio del nostro secolo e` interamente legata, come si sa, a quella concezione meccanicistica della natura che dalla fisica e` dilagata non solo nelle scienze affini, ma anche nella biologia e perfino nelle scienze sociali, informando di s´e quasi tutto il pensiero scientifico e buona parte di quello filosofico in tempi a noi abbastanza vicini; bench´e, a dire il vero, l’utilit`a del metodo matematico che ne costituiva la sola valida giustificazione sia rimasta sempre circoscritta esclusivamente alla fisica. Questa concezione della natura poggiava sostanzialmente su due pilastri: l’esistenza oggettiva e indipendente della materia, e il determinismo fisico. In entrambi i casi si tratta, come vedremo, di nozioni derivate dall’esperienza comune e poi generalizzate e rese universali e infallibili soprattutto per il fascino irresistibile che anche sugli spiriti pi`u profondi hanno in ogni tempo esercitato le leggi esatte della fisica, considerate veramente come il segno di un assoluto e la rivelazione dell’essenza dell’universo: i cui segreti, come gi`a affermava Galileo, sono scritti in caratteri matematici. L’oggettivit`a della materia e` , come dicevo, una nozione dell’esperienza comune, poich´e questa insegna che gli oggetti materiali hanno un’esistenza a s´e, indipendente dal fatto che essi cadano o meno sotto la nostra osservazione. La fisica matematica classica ha aggiunto a questa constatazione elementare la precisazione o la pretesa che di questo mondo oggettivo e` possibile una rappresentazione mentale completamente adeguata alla sua realt`a, e che questa rappresentazione mentale pu`o consistere nella conoscenza di una serie di grandezze numeriche sufficienti a determinare in ogni punto dello spazio e in ogni istante lo stato dell’universo fisico. Il determinismo e` invece solo in parte una nozione dell’esperienza comune. Questa d`a infatti al riguardo delle indicazioni contraddittorie. Accanto a fatti che si succedono fatalmente, come la caduta di una pietra abbandonata nel vuoto, ve ne sono altri - e non solo nel mondo biologico - in cui la successione fatale e` per lo meno poco evidente. II determinismo in

accastampato num. 1, Giugno 2010

33


NANOS GIGANTUM

quanto principio universale della scienza ha potuto perci`o essere formulato solo come generalizzazione delle leggi che reggono la meccanica celeste. E` ben noto che un sistema di punti - quali, in rapporto alle loro enormi distanze, si possono considerare i corpi del nostro sistema planetario - si muove e si modifica obbedendo alla legge di Newton. Questa afferma che l’accelerazione di uno di questi punti si ottiene come somma di tanti vettori quanti sono gli altri punti: ~P¨r ∝ ∑ ms ~ers , 2 s Rrs essendo ms la massa di un punto generico e ~ers il vettore unitario diretto da ~Pr a ~Ps . Se in tutto sono presenti n punti, occorreranno 3n coordinate per fissarne la posizione e la legge di Newton stabilisce fra queste grandezze altrettante equazioni differenziali del secondo ordine il cui integrale generale contiene 6n costanti arbitrarie. Queste si possono fissare assegnando la posizione e le componenti della velocit`a di ciascuno dei punti all’istante iniziale. Ne segue che la configurazione futura del sistema pu`o essere prevista con il calcolo purch´e se ne conosca lo stato iniziale, cio`e l’insieme delle posizioni e velocit`a dei punti che lo compongono. Tutti sanno con quale estremo rigore le osservazioni astronomiche abbiano confermato l’esattezza della legge di Newton; e come gli astronomi siano effettivamente in grado di prevedere con il suo solo aiuto, e anche a grandi distanze di tempo, il minuto preciso in cui avr`a luogo un’eclisse, o una congiunzione di pianeti o altri avvenimenti celesti. Per esporre la meccanica quantistica nel suo stato attuale esistono due metodi pressoch´e opposti. L’uno e` il cosiddetto metodo storico: ed esso spiega in qual modo, per indicazioni precise e quasi immediate dell’esperienza, sia sorta la prima idea del nuovo formalismo; e come questo si sia successivamente sviluppato in una maniera obbligata assai pi`u dalla necessit`a interna che non dal tenere conto di nuovi decisivi fatti sperimentali. L’altro metodo e` quello matematico, secondo il quale il formalismo quantistico viene presentato fin dall’inizio nella sua pi`u generale e perci`o pi`u chiara impostazione, e solo successivamente se ne illustrano i criteri applicativi. Ciascuno di questi due metodi, se usato in maniera esclusiva, presenta inconvenienti molto gravi. E` un fatto che, quando sorse la meccanica quantistica, essa incontr`o per qualche tempo presso molti fisici sorpresa, scetticismo e perfino incomprensione assoluta, e ci`o soprattutto perch´e la sua consistenza logica, coerenza e sufficienza appariva, pi`u che dubbia, inafferrabile. Ci`o venne anche, bench´e del tutto erroneamente, attribuito a una particolare oscurit`a di esposizione dei primi creatori della nuova meccanica, ma la verit`a e` che essi erano dei fisici, e non dei matematici, e che per essi l’evidenza e giustificazione della teoria consisteva soprattutto nell’immediata applicabilit`a ai fatti sperimentali che l’avevano suggerita. La formulazione generale, chiara e rigorosa, e` venuta dopo, e in parte per opera di cervelli matematici. Se dunque noi rifacessimo semplicemente 34

l’esposizione della teoria secondo il modo della sua apparizione storica, creeremmo dapprima inutilmente uno stato di disagio o di diffidenza, che ha avuto la sua ragione d’essere ma che oggi non e` pi`u giustificato e pu`o essere risparmiato. Non solo, ma i fisici - che sono giunti, non senza qualche pena, alla chiarificazione dei metodi quantistici attraverso le esperienze mentali imposte dal loro sviluppo storico - hanno quasi sempre sentito a un certo momento il bisogno di una maggiore coordinazione logica, di una pi`u perfetta formulazione dei principi e non hanno disdegnato per questo compito l’aiuto dei matematici. Il secondo metodo, quello puramente matematico, presenta inconvenienti ancora maggiori. Esso non lascia in alcun modo intendere la genesi del formalismo e in conseguenza il posto che la meccanica quantistica ha nella storia della scienza. Ma soprattutto esso delude nella maniera pi`u completa il desiderio di intuirne in qualche modo il significato fisico, spesso cos`ı facilmente soddisfatto dalle teorie classiche. Le applicazioni, poi, bench´e innumerevoli, appaiono rare, staccate, perfino modeste di fronte alla sua soverchia e incomprensibile generalit`a. Il solo mezzo di rendere meno disagevole il cammino a chi intraprende oggi lo studio della fisica atomica, senza nulla sacrificare della genesi storica delle idee e dello stesso linguaggio che dominano attualmente, e` quello di premettere un’esposizione il pi`u possibile ampia e chiara degli strumenti matematici essenziali della meccanica quantistica, in modo che essi siano gi`a pienamente familiari quando verr`a il momento di usarli e non spaventino allora o sorprendano per la loro novit`a: e si possa cos`ı procedere speditamente nella derivazione della teoria dai dati dell’esperienza. Questi strumenti matematici in gran parte preesistevano al sorgere della nuova meccanica (come opera disinteressata di matematici che non prevedevano un cos`ı eccezionale campo di applicazione), ma la meccanica quantistica li ha sforzati e ampliati per soddisfare alle necessit`a pratiche; cos`ı essi non verranno da noi esposti con criteri da matematici, ma da fisici. Cio`e senza preoccupazioni di un eccessivo rigore formale, che non e` sempre facile a raggiungersi e spesso del tutto impossibile. La nostra sola ambizione sar`a di esporre con tutta la chiarezza possibile l’uso effettivo che di tali strumenti fanno i fisici da oltre un decennio, nel quale uso che non ha mai condotto a difficolt`a o ambiguit`a - sta la fonte sostanziale della loro certezza.

Bibliografia (1) B. Preziosi, E. Recami, La Lezione Inaugurale di Ettore Majorana al suo corso di Fisica Teorica, 6 settembre 2007 (2) S. Esposito, Il corso di fisica teorica di Ettore Majorana: il ritrovamento del documento Moreno, 22 novembre 2004

accastampato num. 1, Giugno 2010



Copenhagen Il dialogo perduto tra Bohr e Heisenberg Lucia Orlando (Gruppo di Storia della Fisica, Dip. di Fisica)

Margrethe - E` veramente ridicolo. Voi due avete penetrato con stupefacente raffinatezza e precisione il mondo infinitamente piccolo dell’atomo. Adesso viene fuori che tutto dipende dai pesi infinitamente grandi che ci portiamo sulle spalle. E quello che succede l`ı dentro e` . . . Heisenberg - Elsinore. Margrethe - Elsinore, s`ı. (Michael Frayn, Copenhagen, 1998)

Figura 1 Scena da Copenhagen di Michael Frayn. Foto di Marco Caselli da www.loschiaffio.org

el 1941, mentre i nazisti occupano Copenhagen, Werner Heisenberg va a trovare Niels Bohr nella citt`a danese. Per quale motivo due dei principali artefici della meccanica quantistica si incontrano nell’Europa messa a ferro e fuoco da Hitler? L’incontro e` tuttora immerso nelle nebbie del dubbio, di sicuro i due parlarono di fissione e della possibilit`a di costruire una bomba nucleare, ma non c’`e alcuna certezza su come andarono le cose. Senz’altro c’`e la fine di un’amicizia nata negli anni Venti, quando Bohr e Heisenberg gettavano le fondamenta della teoria quantistica. Su quell’incontro tra due giganti del pensiero, avvenuto in un momento critico per stabilire se la fissione nucleare potesse essere davvero

N

36

utilizzata per costruire ordigni bellici (solo l’anno dopo Fermi a Chicago mostr`o la fondatezza dell’ipotesi), un grande commediografo come Michael Frayn costruisce una pi`ece replicata con successo dal 1998. Cosa si dicono in quell’incontro Bohr e Heisenberg? Quest’ultimo, in quel momento, lavora per il Reich, mentre il primo sta per riparare in Gran Bretagna, per poi recarsi oltreoceano e partecipare al Progetto Manhattan. La Germania nazista ha gi`a avviato due programmi per studiare le effettive possibilit`a di applicare la fissione a fini bellici. Uno dei programmi e` proprio guidato da Heisenberg. E anche negli Stati Uniti si procede con ricerche preliminari. Heisenberg vuole davvero convincere il vecchio e autorevolissimo amico e maestro a sostenere un accordo internazionale fra scienziati per il controllo preventivo dello sfruttamento della fissione nucleare? Oppure vuole sapere a che punto e` arrivata l’altra parte e, nella migliore delle ipotesi, vuole convincere Bohr a collaborare coi nazisti? E` proprio su questa ambiguit`a irrisolta che Frayn costruisce uno dei pi`u bei testi mai scritti sul rapporto tra scienza ed etica. Per l’autore, Heisenberg diventa incarnazione stessa del principio di complementarit`a: Sono il tuo nemico e il tuo amico. Un pericolo per l’umanit`a e un tuo ospite. Sono una particella e un’onda. E chiama in causa il principio di indeterminazione (vedi Box a pag. 37), per stabilire l’impossibilit`a di determinare in modo certo se Heisenberg volesse davvero realizzare l’atomica tedesca o, come egli stesso si e` sempre difeso, abbia ostacolato il raggiungimento dell’obiettivo.

Gerard Holton’s What Michael Frayn’s Copenhagen Tries to Tell Us Nel dramma di Frayn ci sono solo tre attori in scena: Bohr, sua moglie Margrethe e Heisenberg. I tre sono divenuti fantasmi che raccontano le straordinarie scoperte in meccanica quantistica di cui sono stati testimoni e protagonisti, spesso sono ignari della presenza l’uno dell’altro aggiungendo un che di sinistro alle loro interazioni. Lo spettacolo mischia tre differenti mondi: la scienza, la storia e il teatro, ma non bisogna confondere i personaggi in scena con i personaggi storici realmente esistiti. Lo spettacolo, infatti, si fonda su ci`o che su queste persone e` stato detto e scritto. Heisenberg La versione di Heisenberg nell’interpretazione di Frayn e` stata formulata a partire fondamentalmente dagli scritti di due storici della fisica: Jungk e Powers. Jungk nel suo Brighter than a

accastampato num. 1, Giugno 2010


EVENTI

thousand sun (Gli apprendisti stregoni nell’introvabile versione italiana) presenta un Heisenberg molto ingenuo, basandosi sulle dichiarazioni del fisico stesso: sapevamo che fondamentalmente era possibile produrre una bomba atomica, ma avevamo sovrastimato gli sforzi che effettivamente si sono rivelati necessari per svilupparla. Heisenberg dichiar`o di non aver mai inteso convincere Bohr di unirsi allo sviluppo del progetto atomico nazista, ma che la sua fosse una domanda sull’opportunit`a degli scienziati di dedicarsi a un simile progetto, domanda che Bohr avrebbe frainteso interpretandola come un’esortazione a unirsi a lui. Jungk conclude quindi che Heisenberg avrebbe imposto un impedimento morale allo sviluppo della bomba, impedimento che si sarebbe manifestato come una sorta di ostruzionismo passivo che il club degli scienziati nucleari tedeschi avrebbe opposto agli ordini dei militari, come una sorta di loggia massonica di scienziati pacifisti. E` da segnalare che Heisenberg non dichiar`o una simile cosa nei suoi carteggi con Jungk, ma che questi ebbe quest’intuizione intervistando molti degli interessati. Sembra, inoltre, che quest’idea trovi conferma nelle dichiarazioni di Von Weizsacker a Heisenberg e agli altri scienziati tedeschi detenuti in Inghilterra nella tenuta di Farm Hall quando questi vennero a sapere della distruzione di Hiroshima. La storia registrer`a che lo sviluppo pacifico dei motori a uranio e` stata fatta dai tedeschi sotto il regime di Hitler, mentre gli americani e gli inglesi sviluppavano questa agghiacciante arma di guerra. Va per`o detto che in seguito nelle proprie memorie Von Weizsacker lasci`o scritto che in effetti anche gli scienziati tedeschi speravano di costruire la bomba. In qualche modo, per`o, stando alle dichiarazioni di Von Laue, fisico tedesco che non collabor`o mai alle ricerche sullo sviluppo di armi per il regime, gli scienziati tedeschi furono affetti da una strana

mancanza di zelo che li port`o a mal interpretare i risultati di molte fondamentali misure. Il che, indirettamente, confermerebbe le tesi di Jungk. Powers port`o alle estreme conseguenze quest’idea, arrivando a sostenere che quello di Heisenberg sarebbe stato un atto di consapevole sabotaggio. Questa versione e` quella che fondamentalmente lo spettatore vede in scena assistendo all’opera di Frayn: lo svolgersi degli eventi abilmente prepara il pubblico al climax prima della fine, in cui Heisenberg accusa Bohr di essere andato a Los Alamos come lo stesso Bohr ammette: per giocare la mia piccola ma utile parte nella morte di centinaia di migliaia di persone, mentre Heisenberg esulta: ci dovrebbe essere un posto in paradiso per me.

Bohr La versione dell’incontro del 1941 fornita da Heisenberg e Jungk non presenta che una parte della storia. Frayn, infatti, si schiera evidentemente dalla parte di Heisenberg, come le battute finali sottolineano. Il testo teatrale, per`o, scritto nel 1998, non pot`e basarsi su una lettera di risposta a Heisenberg che Bohr scrisse e mai sped`ı, pubblicata nel 2002. In questa lettera Bohr, in contrapposizione ai toni fumosi di quella di Heisenberg a Jungk, afferma di ricordare perfettamente ogni sillaba del dialogo tra loro due. Mentre il fisico tedesco lo descriveva come un vecchio arrabbiato, egli risponde che fu lo shock dovuto alla paura a fargli interrompere bruscamente il dialogo, decidendo poi di scappare. Heisenberg infatti gli avrebbe confidato di aver lavorato per i due anni precedenti al progetto della bomba e di avere buone probabilit`a di ultimarla con il suo aiuto.

L’interpretazione di Copenhagen della meccanica quantistica

di Leonardo Barcaroli

Quando i fisici, verso l’inizio del secolo scorso, si trovarono a dover riscrivere una parte delle leggi fisiche fondamentali per spiegare molti fenomeni che avvenivano alle scale di grandezza atomiche e subatomiche non capirono subito quale interpretazione dare alla nuova fisica. Ad esempio corpi che erano ritenuti fino ad allora particelle, ovvero individuate nello spazio da una posizione ben precisa, in meccanica quantistica si comportavano come onde, ovvero esistevano in ogni tempo e in ogni luogo, come se fossero spalmate sullo spazio-tempo. Inizialmente c’era molta confusione, ma negli anni ’30 Bohr e Heisenberg, che lavoravano insieme a Copenhagen, formalizzarono un’idea originaria di Born: l’onda che descrive una particella in ogni punto dello spazio a ogni tempo e` associata alla probabilit`a di trovarla in quel punto a quell’istante, una volta Werner Karl Heiche si effettua una misura su di essa. Tale interpretazione, di carattere probabilistico, e` quella comunemente senberg. Dal The accettata attualmente, bench´e non sia l’unica. Il principio di indeterminazione, invece, fu frutto del lavoro del MacTutor History of Mathematics solo W. Heisenberg, mente geniale e misteriosa esattamente come il suo cosiddetto principio, erroneamente archive chiamato cos`ı dato che in realt`a e` un teorema dimostrabile. Esso stabilisce che non e` possibile misurare con precisione arbitraria la posizione e la velocit`a di una particella nello stesso istante. Questo non significa che semplicemente la misura di una di queste due grandezze disturba l’altra, ma che proprio e` impossibile definirne contemporaneamente posizione e velocit`a. Il concetto sembra vago, ma in realt`a descrive una caratteristica profonda della fisica su scale microscopiche: c’`e un velo di impossibilit`a nel cogliere quello che e` il moto di un corpo su scale molto piccole. Questo principio vale anche per altre coppie di grandezze come, ad esempio, il tempo e l’energia. E` su questa indeterminatezza sfuggente della realt`a che giocano i protagonisti dello spettacolo di Frayn, personaggi e particelle elementari allo stesso tempo. accastampato num. 1, Giugno 2010

37


Bohr sottolinea, inoltre, che Heisenberg e Von Weizsacker si intrattennero molto sia con lui che con altri scienziati della sua e´ quipe, sostenendo che sarebbe stato deleterio per la Danimarca e per gli scienziati danesi non collaborare con il Reich. Nella sua lettera, mai spedita probabilmente per via dei suoi toni forti, Bohr risponde punto per punto a tutte le affermazioni di Heisenberg, dipingendo un quadro molto pi`u fosco dello scienziato a capo del progetto nazista. Il pubblico, quindi, dovrebbe tenere ben a mente che Frayn si e` basato su documenti parziali, quelli di Jungk e di Powers, e non sugli altri che avrebbero potuto fornire ben altri scenari, come le intercettazioni di Farm Hall o l’appena citata lettera di Bohr. Nel momento in cui lo spettatore, quindi, si trover`a ad ascoltare frasi dell’Heisenberg attore quali: Avevo capito molto chiaramente, semplicemente non l’ho detto agli altri o Non stavo tentando di costruire una bomba, dovr`a tenere ben a mente che quella che sta ammirando e` l’interpretazione di un autore di teatro e non la pedissequa riproduzione di una cronaca storica, prendendo con il beneficio del dubbio qualunque giudizio morale venga propugnato dagli attori in scena. (da (6), traduzione di Niccol`o Loret)

Bibliografia (1) Michael Frayn, Copenhagen, Sironi Editore (2003) (2) Cassidy David, Un’estrema solitudine. La vita e l’opera di Werner Heisenberg, Bollati Boringhieri (1996) (3) Jeremy Bernstein, Il club dell’uranio di Hitler. I fisici tedeschi nelle registrazioni segrete di Farm Hall, Sironi Editore (2005) (4) Pais Abraham, Il danese tranquillo. Niels Bohr: un fisico e il suo tempo (1885-1962), Bollati Boringhieri (1993) (5) Samuel Abraham Goudsmit, Alsos, American Institute of Physics (1996) (6) Gerard J. Holton, What Michael Frayn’s Copenhagen Tries to Tell Us, in Victory and vexation in science: Einstein, Bohr, Heisenberg, and others, Harvard University Press (2005)

Sull’autore Storica della Fisica, Lucia Orlando (Lucia. Orlando@romascuola.net) collabora con il gruppo di Storia della fisica presso il Dipartimento di Fisica dell’Universit`a di Roma La Sapienza, per il quale ha riordinato l’Archivio Amaldi. I suoi pi`u recenti ambiti di interesse riguardano la storia della Fisica italiana negli anni Trenta e dei programmi spaziali italiani. Si occupa anche di comunicazione scientifica collaborando con la RAI e vari periodici nazionali.

38


L’immagine di copertina e` di Silvian25g (la si pu`o trovare all’indirizzo http://silvian25g.deviantart.com/ art/fractal-231-82135968) e rappresenta un frattale. Un frattale e` una forma geometrica che pu`o essere divisa in pi`u parti, ognuna delle quali e` una copia ridotta della forma di partenza. Queste sorprendenti immagini si rifanno a equazioni matematiche, pi`u o meno complicate, che determinano il grado di complessit`a del frattale stesso. Tra i pi`u famosi ricordiamo la curva di Von Koch e il frattale di Mandelbrot. Date un’occhiata: il mondo dei frattali e` pieno di sorprese, ne scoprirete tanti anche intorno a voi!



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.