La rivista e` disponibile on-line e come app per iPad e iPhone, e` navigabile sia da computer che da cellulare ed e` scaricabile nei formati PDF ed ePUB.
http://www.accastampato.it
I lettori possono esprimere commenti o fare domande agli autori on-line sulle pagine dedicate ai singoli articoli. I QR Code che corredano alcuni articoli codificano gli URL di pubblicazione on-line e sono generati mediante invx.com
Accastampato e` realizzato con il patrocinio del Dipartimento di Fisica dell’Universit`a Sapienza di Roma, del CNR Istituto dei Sistemi Complessi (ISC), Unit`a Sapienza di Roma, dell’Istituto Nazionale di Fisica Nucleare, del Dipartimento di Fisica dell’Universit`a Roma Tre, dell’Associazione Romana per le Astro-particelle (ARAP) e la collaborazione della EPS Rome Young Minds Section. i s t i t ut o de i s i s t e mi c ompl e s s i
ROMA
TRE
UNIVERSITÀ DEGLI STUDI
Indice
num. 12, Febbraio 2014
EDITORIALE
L’ozono e il riscaldamento globale
Una vita spesa per la ricerca
di A.G. di Sarra Le caratteristiche uniche dell’ambiente e dell’atmosfera artica possono fornire preziose informazioni sul cambiamento climatico e il riscaldamento globale in atto sul pianeta.
5 I cambiamenti climatici e i sempre pi`u frequenti eventi meteorologici estremi sottolineano l’importanza degli studi nel campo della fisica dell’atmosfera: il filo conduttore di questo numero di Accastampato e` proprio la ricerca nella Fisica Atmosferica e del Telerilevamento, letta anche attraverso il ricordo del Professor Giorgio Fiocco, scomparso un anno e mezzo fa.
IL RICERCATORE ROMANO
Giorgio Fiocco: un ingegnere dedicato alla fisica applicata 6 di D. Fu`a, M. Cacciani La passione per il proprio lavoro ha portato il Prof. Giorgio Fiocco a studiare i cieli di mezzo mondo e a lasciare un contributo indelebile alla scienza dell’atmosfera.
Il telerilevamento attivo
16
Uno sguardo dall’alto alle tematiche ambientali 20 di D. Gasbarra Nella base himalayana Ev-K2-CNR, a oltre 5000 metri di quota, si misurano livelli di inquinamento da far invidia alle metropoli occidentali.
ONDA LUNGA
La laurea in Geofisica a Roma
23
di A.M. Iannarelli Dal riordinamento dell’offerta formativa post-riforma 3+2 alla fine del corso di laurea in geofisica alla Sapienza.
10
di G. Pace La ricerca di fisica dell’atmosfera e di climatologia sarebbe impossibile senza sistemi di telerilevamento attivo e passivo che misurino con precisione le principali variabili in gioco.
Un fascio acustico per i processi atmosferici 12
IL RESTO DEL NEUTRINO
Strabilianti effetti della risonanza
25
di M. Pugliese Gli effetti di risonanza caratterizzano tutti i sistemi vibratori: permettono agli strumenti di suonare, ma in alcuni casi possono fare cadere i ponti.
di G. Mastrantonio Il sodar: un fascio acustico illumina i processi dinamici nei bassi strati atmosferici
accastampato num. 12, Febbraio 2014
3
accastampato Rivista degli Studenti di Fisica di Roma www.accatagliato.org EDITORIALE R EDAZIONE redazione@accatagliato.org
Una vita spesa per la ricerca
Alessio Cimarelli
Giorgio Fiocco e la scuola romana di geofisica
Carlo Mancini
jenkin@accatagliato.org carlo@accatagliato.org
I cambiamenti climatici e i sempre pi`u frequenti eventi meteorologici estremi sottolineano l’importanza degli studi nel campo della fisica dell’atmosfera. Durante l’ultima sessione plenaria del primo gruppo di lavoro dell’IPCC (Intergovernmental Panel on Climate Change), tenutasi a Stoccolma alla fine del settembre scorso, sono state raggiunte conclusioni che mettono in luce gli effetti antropogenici sul sistema climatico e le loro conseguenze. Oltre 850 scienziati di tutto il mondo hanno analizzato migliaia di pubblicazioni scientifiche dal 2006 ad oggi, per un totale di oltre 9200 lavori su indicatori climatici, modelli e proiezioni: da questi lavori emerge che si e` verificato un cospicuo aumento della temperatura media del pianeta e di quella superficiale dell’oceano, nonch´e del livello del mare, dei gas serra e degli aerosol atmosferici, associato a una generale diminuzione delle calotte polari, evidente sia in Artide che in Antartide. Secondo le ultime previsioni, se le emissioni di gas serra continueranno a crescere al ritmo attuale provocheranno un ulteriore aumento del riscaldamento del sistema climatico e, in un pianeta pi`u caldo, gli eventi meteorologi estremi diventeranno pi`u intensi e pi`u frequenti. Il filo conduttore di questo numero di Accastampato e` proprio la ricerca nella Fisica Atmosferica e del Telerilevamento, letta anche attraverso il ricordo, a distanza di un anno e mezzo dalla scomparsa, del Professor Giorgio Fiocco, che ha speso gran parte della vita a studiare l’atmosfera ideando, progettando e costruendo alcuni degli strumenti tuttora usati nel telerilevamento ambientale. ”Salute¡‘ era il buongiorno che Giorgio Fiocco rivolgeva a tutti entrando al 5 piano dell’edificio di Fisica “Enrico Fermi”. Nonostante l’et`a, e nonostante fosse in pensione da anni, non riusciva a stare lontano dal suo laboratorio, che in tanti anni di lavoro appassionato aveva contribuito a riempire di strumenti e attrezzatura di ogni genere. Se lo accompagnavi nel suo girovagare tra le stanze ti ritrovavi con lui nei ricordi di una vita spesa a far ricerca, nel bel mezzo della storia dello sviluppo della fisica dell’atmosfera degli ultimi 40 anni. Il Prof. Fiocco era un fisico sperimentale dall’entusiasmo ancora vivacissimo, ben visibile nei suoi occhi insieme alla curiosit`a di scoprire cosa succedeva se si univano gli strumenti moderni con le vecchie idee. La carriera del Prof. Fiocco ci e` raccontata nell’articolo del Prof. Fu`a, che va dai primi periodi della laurea in Ingegneria Elettronica e delle esperienze estere, fino al rientro in Italia, lavorando all’universit`a di Firenze, nel laboratorio ESRO del centro ESRIN a Frascati e poi alla Sapienza, dove alla carriera di ricercatore ha affiancato quella di docente. Durante gli anni di lavoro la sua curiosit`a lo ha spinto ad affrontare sfide sempre nuove e a cogliere ogni occasione che gli veniva offerta per fare ricerche nel campo del telerilevamento, settore in cui ci introduce il dott. Pace nel suo articolo. Tra gli strumenti utilizzati dal gruppo G24 del Laboratorio di Fisica Terrestre figurano SODAR e LIDAR, due delle tipologie di strumenti scientifici che il Prof. Fiocco ha contribuito a sviluppare. Il primo utilizza le onde acustiche per sondare i bassi strati atmosferici, e ci viene descritto nell’articolo del dott. Mastrantonio, mentre del funzionamento del Lidar, e dell’avventura cominciata a Thule alla fine degli anni ’80, si parla nell’articolo del dott. di Sarra e del dott. Cacciani. Daniele Gasbarra ci porta invece ai piedi dell’Everest, nella base Ev-K2-CNR, una delle stazioni della rete SHARE, progetto di monitoraggio ambientale mirato alla comprensione dei processi di cambiamento climatico. Tutti gli autori che hanno scritto gli articoli di questo numero provengo dal gruppo di geofisica della Sapienza. Alcuni di loro, pur lavorando per altri enti di ricerca, continuano a collaborare attivamente con il G24. Grazie ai tagli sempre pi`u irragionevoli che lo Stato opera sui fondi destinati a universit`a e ricerca, il curriculum di geofisica della laurea magistrale del nostro Dipartimento ha chiuso i battenti. Proprio ora che, di figure specializzate in questo settore, se ne sente sempre pi`u il bisogno. Buona lettura! Anna Maria Iannarelli e Giampietro Casasanta accastampato num. 12, Febbraio 2014
Leonardo Barcaroli leov@accatagliato.org
Manuela Cirilli manuela.cirilli@cern.ch
Roberto Garra roberto@accatagliato.org
Kristian A. Gervasi Vidal krisgerv@accatagliato.org
Niccol`o Loret niccolo@accatagliato.org
Isabella Malacari isabella@accatagliato.org
Massimo Margotti massimo@accatagliato.org
Silvia Mariani shyka@accatagliato.org
Angela Mecca lela@accatagliato.org
Martina Pugliese m.letitbe@gmail.com
C OMMISSIONE SCIENTIFICA Giorgio Parisi Giovanni Battimelli Fabio Bellini Lara Benfatto Stefano Bianchi Giulia De Bonis Riccardo Faccini Francesco Piacentini Luciano Pietronero Antonio Polimeni Antonello Polosa Maria Antonietta Ricci H ANNO CONTRIBUITO D. Fu`a, M. Cacciani, D. Gasbarra, A.M. Iannarelli, G. Mastrantonio, G. Pace, M. Pugliese, A.G. di Sarra.
C ON LA COLLABORAZIONE DI Commissione Europea CERN C ON IL PATROCINIO DI Dipartimento di Fisica dell’Universit`a Sapienza di Roma Istituto dei Sistemi Complessi CNRISC, Sezione Sapienza di Roma Istituto Nazionale di Fisica Nucleare Dipartimento di Fisica dell’Universit`a Roma Tre Associazione Romana per le Astroparticelle S I RINGRAZIANO ANCHE Donald E. Knuth, Leslie Lamport, il TEX Users Group (www.tug.org) e Gianluca Pignalberi
Giorgio Fiocco: un ingegnere dedicato alla fisica applicata Dagli studi romani in ingeneria alla Groenlandia e oltre Daniele Fu`a, Marco Cacciani (Dipartimento di Fisica, Universit`a Sapienza di Roma) alla sua tesi del 1965 presso la Facolt`a di Ingegneria dell’Universit`a degli Studi di Roma in poi, Giorgio Fiocco e` stato estremamente attivo in diversi settori sia di Ingegneria che di Fisica e il suo prestigio e` ben riconosciuto per la sua affiliazione in accademie e per le sue posizioni come capo di importanti istituti di ricerca. Affermare che la maggior parte delle persone coinvolte nella fisica dell’atmosfera di tutto il mondo sa chi era Giorgio Fiocco non e` un un’esagerazione. Coerentemente con la concezione di base di Fiocco che “la qualit`a e` pi`u importante della quantit`a”, la sua produzione cartacea non e` cos`ı pesante (in senso letterale) come quella di altri colleghi nelle scienze fisiche, anche se supera il non trascurabile numero di 300 o gi`u di l`ı. In particolare si nota che alcuni dei suoi lavori sono la prima testimonianza pubblicata di alcune idee originali che hanno innescato un tale flusso di nuovi sviluppi e di produzione di articoli da quasi cancellare (colpevolmente) la memoria della sorgente originale.
D
Regno Unito Appena laureato in Ingegneria Elettronica, Fiocco viene chiamato come ricercatore in una delle pi`u note industrie di elettronica in quel momento, la Marconi Co. nel Regno Unito. Qui viene coinvolto in ricerche avanzate nei sistemi radar di assistenza alla navigazione e contribuisce a una serie di brevetti. Essendo nel settore privato, i suoi contributi di quel tempo sono pubblicati come rapporti interni, spesso segreti per questioni militari e della sua scienza l`ı a Marconi Co., non si hanno molte informazioni. Quello che e` certo e` che la Marconi Co., cos`ı come l’Inghilterra stessa, sono il trampolino di lancio con il quale Fiocco entra per la prima volta in contatto con il mondo reale e le affascinanti scienze applicate dopo i suoi anni universitari di preparazione sui libri. Da allora l’attrazione verso dispositivi come il radar, in grado di percepire oggetti lontani, non lo abbandona mai, anzi spinge continuamente il suo talento alla ricerca di soluzioni pratiche e brillanti di problemi sempre nuovi e stimolanti.
Stati Uniti d’America E` quasi ovvio affermare che per avere successo nella ricerca scientifica spesso non e` sufficiente essere di talento, c’`e bisogno anche di una certa dose di fortuna: in particolare occorre essere nel posto giusto al momento giusto. Questo e` stato, per esempio, molto vero nel caso di Fiocco rispetto alla scoperta dell’effetto 6
laser. Il primo laser viene costruito nel 1960 negli Stati Uniti e nel corso dei successivi 2-3 anni vengono inventati o scoperti vari tipi di laser, effetti laser e nuove applicazioni, ciascuna delle quali diventa il fondamento di campi di ricerca completamente nuovi. Due di queste applicazioni sono associate proprio al nome di Giorgio Fiocco. All’inizo degli anni ’60 uno dei professori pi`u noti del Dipartimento di Ingegneria Elettrica del MIT, Louis Smullin, gi`a membro del Radiation Laboratory dove era stato sviluppato il primo Radar a Microonde, sceglie il giovane Fiocco per costruire uno strumento ottico attivo in grado di misurare la distanza dalla Luna: si tratta di uno dei primi radar ottici altrimenti chiamato LIDAR (acronimo di LIght Detection And Ranging, evidente derivazione dell’acronimo RADAR, RAdio Detection And Ranging). Se si tiene conto di quanto sarebbe stato difficile rilevare e identificare un esiguo numero di fotoni del fascio laser diffuso indietro dalla superficie lunare senza il beneficio del catadiottro posto molto pi`u tardi sulla Luna dagli astronauti, tutti possono apprezzare il senso dell’umorismo nella scelta del nome utilizzato per il “Project Luna See” (Progetto “Vedi la Luna”) che in inglese si pronuncia in maniera da suonare come “Progetto Follia”. Nonostante le premesse, dopo aver lottato con un’elettronica che al giorno d’oggi si pu`o ammirare solamente nei musei della scienza e della tecnica, Fiocco e Smullin misurano per la prima volta la distanza Terra-Luna dall’eco di impulsi di luce laser e la notizia viene subito evidenziata nei giornali di tutto il mondo. Poco dopo arriva anche la scoperta del possibile utilizzo di impulsi laser per la diagnostica di un plasma utilizzando la diffusione Thomson. Da quella volta il laser diventa lo strumento diagnostico standard nei laboratori di ricerca per la fusione di tutto il mondo, ma quello di Fiocco e` certamente il primo articolo pubblicato sull’argomento. Nel 1963 il vulcano Agung esplode e inietta una tale quantit`a di polvere e gas nell’atmosfera da formare nella bassa stratosfera i bersagli liquidi e solidi in grado di essere rilevati dal lidar di Giorgio Fiocco. Un suo articolo del 1964 descrive per la prima volta come il lidar sia lo strumento ideale per lo studio dello strato di aerosol stratosferico. I profili verticali della concentrazione di aerosol vengono ottenuti dividendo il coefficiente di retrodiffusione (backscattering coefficient) misurato dal lidar per il ritorno aspettato da un’atmosfera puramente molecolare. Il cosiddetto lidar backscattering ratio introdotto da Fiocco e` ormai comunemente utilizzato da chiunque lavori con i lidar. Il lavoro alla Marconi Co. con i Radar Doppler ha probabilmente
accastampato num. 12, Febbraio 2014
IL RICERCATORE ROMANO
frequenza del segnale da analizzare su un gamma molto inferiore dove la risoluzione richiesta e` pi`u facilmente raggiunta. Applicare la stessa tecnica alle frequenze ottiche e` possibile (e in effetti viene fatto), ma ha diversi limiti. Giorgio Fiocco in quel momento prende la decisione fatidica che lo pone definitivamente in uno dei due opposti partiti della comunit`a lidar: da un lato i ragazzi del lidar Doppler coerente che usano la tecnica della miscelazione e dall’altro lato quelli del lidar Doppler incoerente che effettuano l’analisi spettrale del segnale grezzo senza miscelazione. Lo sforzo del secondo partito di scoraggiare l’utilizzo dell’appellativo incoerente che sembra nascondere vaghi significati denigratori e` fino ad oggi totalmente inascoltato. Qui, per motivi di imparzialit`a, la tecnica definita incoerente viene definita tecnica di rilevamento diretto.
Figura 1 – Il prof. Fiocco (a destra) con un gruppo di studenti presso i laboratori dell’ESRIN a Frascati.
innescato anche l’idea che tale tecnica applicata al lidar avrebbe reso possibile rilevare la velocit`a dei piccoli retrodiffusori di luce presenti nell’atmosfera. Nel caso in cui tali diffusori sono di dimensione tale da essere trascinati dall’aria, la loro velocit`a media e` uguale alla velocit`a del vento; d’altra parte se i diffusori sono molecole d’aria, la loro distribuzione di velocit`a pu`o essere direttamente collegata alla temperatura del gas. La trattazione teorica di tale fenomeno e` ampiamente sviluppata in un suo articolo spesso citato del 1968, ma proprio in questi anni Fiocco inizia a lavorare sul modo di mettere in pratica tale idea. La prima strumentazione viene costruita negli Stati Uniti, ma quando torna in Italia nel laboratorio dell’ESRIN a Frascati gli viene concesso di portare con s´e una gran parte dei dispositivi gi`a costruiti.
Di nuovo in Italia: Frascati Nel 1969 Fiocco viene chiamato in Italia per creare un gruppo di fisica dell’atmosfera presso l’ESRIN, un laboratorio di ESRO, nato sotto grandi auspici presto sbiaditi sotto il peso di questioni diplomatico-politiche che rendono la sua vita piuttosto breve. Uno dei suoi pochi meriti, in ogni caso, e` che con la sua ricchezza di fondi, spazi e strutture, riesce riportare Giorgio Fiocco in Italia. Se non fosse stato per quel laboratorio di eccellenza Fiocco, come altri illustri predecessori, sarebbe probabilmente rimasto per sempre negli Stati Uniti. Il primo problema affrontato da Fiocco riguarda il fatto che l’effetto Doppler associato alle velocit`a tipiche degli oggetti trattati dalla fisica dell’atmosfera richiede una risoluzione strumentale altissima. Negli apparati come il radar che utilizzano frequenze radio e che hanno il vantaggio di mantenere la coerenza, il problema si risolve miscelando il segnale ricevuto con un oscillatore di riferimento (tecnica omo- o etero-dina). Tale tecnica sposta la
L’applicazione della tecnica di rilevamento diretto per misurare la temperatura atmosferica e il vento viene proposta e pubblicata per la prima volta da Fiocco che propone anche l’uso di un interferometro ben noto nella comunit`a della spettroscopia iperfine: l’interferometro di Fabry-Perot. Dato il sempre presente problema dell’esiguit`a del segnale atmosferico, Fiocco disegna dei Fabry-Perot di grande apertura ma, in particolare, riscopre nella vecchia letteratura scientifica sulla spettroscopia un dispositivo poco noto: il Fabry-Perot sferico. Alle risoluzioni necessarie per la tecnica Doppler si pu`o dimostrare che le cavit`a a specchi confocali hanno un grande vantaggio rispetto alle cavit`a a specchi piani. Lui e il suo gruppo costruiscono una serie di Fabry-Perot sferici con risoluzioni impressionanti che permettono la misurazione della velocit`a del vento con una precisione tale da poter valutare il coefficiente di diffusione turbolenta nello strato limite atmosferico. Come per il Fabry-Perot sferico, Fiocco prende un altro spunto da vecchi articoli e lo mette in uso. Un astronomo dell’Osservatorio di Bologna, G. Horn-D’Arturo, aveva pensato nel 1935 che invece di utilizzare un telescopio di grande apertura e molto costoso, era possibile utilizzare un insieme di piccoli telescopi costruiti opportunamente. L’idea nasce dalla constatazione che il costo di molti piccoli specchi e` di gran lunga inferiore al costo di un grande specchio con stessa area totale e stessa definizione. Nel 1973 il telescopio a mosaico di tre metri di apertura, composto da 36 specchi esagonali posti nella torre adiacente al laboratorio dell’ESRIN, inizia a raccogliere i primi echi lidar dalla stratosfera e funziona fino al 1999, quando i laboratori vengono trasferiti in una nuova sede e lo spostamento della torre non viene considerato economicamente conveniente. Nel 1980 il vulcano St. Helens esplode e nel 1984 lo segue il vulcano El Chich`on. Nel periodo successivo alle eruzioni la maggior parte dei lidar nel mondo effettuano misurazioni e seguono l’evoluzione della distribuzione dell’aerosol in stratosfera; tra di essi anche il lidar di Frascati. Non e` un caso che i maggiori lidaristi del pianeta aspettino trepidanti che qualche vulcano esploda
accastampato num. 12, Febbraio 2014
7
IL RICERCATORE ROMANO
riportando i loro lavoro al centro dell’attenzione delle agenzie che distribuiscono fondi per la ricerca.
Nel 1984 Fiocco, diventato nel frattempo professore universitario, allestisce un nuovo laboratorio presso il Dipartimento di Fisica dell’Universit`a degli Studi di Roma. Il primo esperimento in laboratorio e` dedicato alla misura delle sezioni d’urto di assorbimento dell’ozono nell’ultravioletto e in seguito nel visibile. L’apparecchio sviluppato presso l’Universit`a di Roma utilizza un lungo cammino ottico e alte concentrazioni di ozono per misurare sezioni d’urto molto piccole. In questi anni Fiocco introduce per primo in Italia l’utilizzo del radar acustico (SODAR) per lo studio dello strato limite planetario, ma la sua attivit`a principale rimane la progettazione e costruzione di sistemi lidar che vengono spediti in diverse parti del mondo formando quello che tra il serio e il faceto viene definito come “la piccola, ma globale rete di lidar”. Nella sua continua ricerca di misurazioni impegnative, avventurose e pionieristiche nel vero senso della parola, organizza e segue personalmente una campagna di misura con il Sodar su una nave mercantile nel Mar Rosso e, pi`u tardi, in uno dei siti accessibili pi`u alti in Europa: la Capanna Margherita sulla cima del Monte Rosa (4400 m a.s.l.).
(PSC) durante l’inverno australe. Il fenomeno del buco dell’ozono antartico era stato appena confermato da misurazioni satellitari e gi`a venivano proposte teorie che implicavano il ruolo di tali nubi nella modifica delle reazioni chimiche nella stratosfera. Il progetto non era banale perch´e implicava la progettazione e costruzione di un sistema lidar molto affidabile, adatto a funzionare senza problemi e con il minimo di interventi umani per diversi mesi. Il progetto parte all’inizio del 1987 con l’obiettivo di rendere operativo il lidar dal successivo dicembre; inutile dire che si tratt`o di un tour de force e che non tutti i test desiderabili poterono essere condotti entro le scadenze. Fiocco stesso, insieme a suoi collaboratori, nell’ambito di una collaborazione con l’US National Oceanographic and Atmospheric Administration (NOAA) e il National Research Council (NRC), si reca con 400 kg di materiale al Polo Sud poco prima del Natale del 1987, e trascorre una vacanza indimenticabile nel luogo pi`u meridionale della Terra per istallare il lidar pronto per misure durante l’inverno australe del 1988. Negli anni successivi lo strumento viene puntualmente ricontrollato e aggiornato durante l’estate australe tanto che funziona fino al 1995 quando il progetto viene dichiarato concluso e il lidar viene riportato a Roma. L’eruzione del Monte Pinatubo (1991), osservata dal lidar al Polo Sud permette di studiare come la presenza di una grande quantit`a di aerosol stratosferici di origine vulcanica possa influire anche sui meccanismi di formazione e sulle propriet`a delle PSC.
Polo Sud
Groenlandia
Quando il governo italiano invita la comunit`a scientifica a presentare proposte per ricerche da fare in Antartide, Giorgio Fiocco non si fa attendere e presenta un’altra idea originale e stimolante: l’installazione di un lidar nella stazione del Polo Sud AmundsenScott, per monitorare la presenza di nubi stratosferiche polari
Nel 1990, nell’ambito di una collaborazione con il Danish Meteorological Istituire, un altro lidar viene installato a Thule, in Groenlandia. Il lidar e` progettato per osservare la troposfera e la stratosfera. Le osservazioni a Thule, condotte in maniera sistematica, permettono di studiare l’intero ciclo di vita dello strato di aerosol stratosferico prodotto dall’eruzione del vulcano Pinatubo.
Italia scena seconda: Roma
Lampedusa Nel 1999, in collaborazione con l’Ente Nazionale per le Nuove Tecnologie, l’Energia e l’Ambiente (ENEA), il gruppo guidato da Giorgio Fiocco installa un lidar per studi di aerosol troposferico alla Stazione di Osservazioni Climatiche dell’ENEA, sulla piccola e piacevole isola di Lampedusa, posta tra il sud Italia e l’Africa. L’obiettivo principale delle misure e` lo studio del trasporto di polvere desertica attraverso il Mediterraneo.
Il lidar aviotrasportato Figura 2 – Una base di telerilevamento al Polo Sud, in cui e` ben visibile un sodar a tre assi monostatici.
8
Quando il progetto al Polo Sud si avvicina al suo completamento, Giorgio Fiocco, nella sua continua ricerca di esperienze nuove e stimolanti, inizia a studiare e approntare un lidar in grado di essere
accastampato num. 12, Febbraio 2014
installato a bordo della versione scientifica del velivolo stratosferico Myasishchev M-55, detto Geophysica. Il lidar viene chiamato ABLE (AirBorne Lidar Experiment) ed e` completamente automatizzato, equipaggiato con un laser di media potenza e in grado di operare in ambiente non pressurizzato e freddo come quello di Geophysica, che vola ad una altezza di 20 km osservando nelle direzioni del nadir e dello zenit. Nell’inverno 1996-97, ABLE viene portato a Rovaniemi, Finlandia, scelta come base per la prima campagna di misure di Geophysica. La campagna viene denominata APE-POLECAT (Airborne Polar Experiment-Polar Ozone, LEe waves, Chemistry And Transport, ma letteralmente SCIMMIA-PUZZOLA). Nei successivi anni seguono altre campagne: APE-THESEO (Airborne Platform Experiment - THird European Stratospheric Experiment on Ozone), con base presso l’aeroporto di Victoria-Mah´e, Seychelles; APE-GAIA (Geophysica Aircraft In Antartica) con base all’aeroporto di Ushuaia nella Terra del Fuoco, Argentina; EUPLEX (EUropean Polar stratospheric cloud and LEe wave Experiment), con base a Kiruna (Svezia) e la campagna di validazione di ENVISAT (ENVironment SATellite) con base a Forl`ı e a Kiruna (Svezia). E` interessante notare che durante la campagna delle Seychelles, per acquisire indipendentemente dati lidar sulle alte nubi equatoriali da terra viene affiancato un lidar gemello alloggiato in un container: CABLE, di per s´e un acronimo contraddittorio che proviene dalle parole “Container” pi`u ` “ABLE’. La seconda generazione del ricevitore di ABLE che viene completamente ri-progettato per ridurre il suo peso e renderlo ancora pi`u adatto alle basse pressioni inizia a somigliare molto a un robot sottomarino. Tutti i colleghi sono convinti che l’obiettivo finale di questo piccolo ma complesso lidar fosse quello di entrare in un payload spaziale ma nessuno lo ha mai affermato ufficialmente perch´e la sostituzione della “A” di “Air-borne” nell’acronimo ABLE con un’altra lettera che definisse la nuova applicazione e fosse allo stesso tempo pronunciabile era troppo complicata! Anche quando i fondi si sono assottigliati il progetto di migliorare ABLE ha continuato ad assorbire molto del tempo di Giorgio Fiocco, diventando infine un lontano miraggio scomparso improvvisamente insieme a lui nell’estate del 2012. Commenti on-line: http://www.accastampato.it/ 2014/02/giorgio-fiocco_it/
Sull’autore Daniele Fu`a (fua@g24ux.phys.uniroma1.it) e` stato professore associato di Fisica dell’Atmosfera presso il Dipartimento di Fisica dell’Universit`a Sapienza di Roma ed e` attualmente in pensione. Marco Cacciani (marco. cacciani@uniroma1.it) e` ricercatore presso il gruppo G24 dello stesso Dipartimento.
Il telerilevamento attivo Emettere onde acustiche ed elettromagnetiche verso l’atmosfera per studiarne le caratteristiche Giandomenico Pace (Laboratorio di studi sperimentali su clima ed ambiente, ENEA)
o studio dell’atmosfera pone il problema di misurare grandezze non direttamente accessibili, a meno che non si disponga di mezzi, come aerei o palloni, che consentano di ottenere misure in situ. Queste misure vengono spesso prese a riferimento, ma hanno la grossa limitazione di essere costose e limitate nel tempo e nello spazio.
L
Il metodo pi`u diffuso per ricavare informazioni sulla struttura e sulla composizione dell’atmosfera si basa sull’osservazione della radiazione che giunge al suolo o su quella uscente dall’atmosfera nel caso di misure satellitari. Radiometri, spettrometri e interferometri sono strumenti che misurano l’intensit`a della radiazione elettromagnetica in uno o pi`u intervalli spettrali e il loro utilizzo nella fisica dell’atmosfera permette l’osservazione di luce dall’ultravioletto fino alle onde radio. L’informazione che deriva da queste misure e` legata all’interazione tra i componenti atmosferici, gas o particelle che siano, e la radiazione che giunge allo strumento attraversando l’atmosfera. Queste strumentazioni sono indicate come sistemi di telerilevamento passivo, in quanto misurano la radiazione che viene emessa da altre sorgenti. Da questi sistemi si ricavano stime di grandezze colonnari, ossia comprese tra la superficie e la sommit`a dell’atmosfera, o profili verticali di queste grandezze, spesso caratterizzati da una bassa risoluzione verticale. Infatti, nonostante l’informazione contenuta in queste misure sia enorme, presenta anche un’evidente limitazione: la ra-
diazione viene influenzata da una moltitudine di fattori durante tutto il suo percorso in atmosfera e se ne ricava quindi una misura che tiene conto della somma di tutte le interazioni che la radiazione ha avuto con i componenti atmosferici, con poca o nessuna risoluzione spaziale. Ad esempio, con strumenti passivi si pu`o stimare con grande precisione il contenuto di vapor d’acqua colonnare e anche la sua distribuzione in quota, ma solo con risoluzioni verticali dell’ordine di alcune centinaia di metri: si avr`a quindi una misura per i primi 300 m di altezza, una dai 300 ai 600 m e cos`ı via. Spesso le grandezze atmosferiche variano molto velocemente con la quota, cos`ı che una bassa risoluzione verticale non pu`o che fornire un quadro approssimato della realt`a. Esistono per`o altri strumenti, detti di telerilevamento attivo, che emettono un segnale per poi registrarne l’eco generato dall’interazione tra la radiazione emessa e l’atmosfera. Il principale vantaggio di questi strumenti consiste nel poter determinare esattamente la quota da cui proviene l’eco del segnale emesso, essendo noti il momento dell’emissione del segnale, la sua velocit`a e il ritardo della misura dell’eco rispetto all’emissione del segnale. Inoltre e` possibile generare un segnale con caratteristiche tali (in termini di intensit`a, frequenza o polarizzazione) da poter osservare l’effetto specifico dell’interazione tra la radiazione e il componente atmosferico che si vuole studiare. Generalmente lo svantaggio degli strumenti attivi rispetto a quelli passivi e` il costo maggiore, sia in termini di acquisto che di manutenzione, e la maggiore usura, perch´e composti sia da una emettitore che da un ricevitore. Tra questi strumenti ricordiamo il RADAR, il LIDAR, il SODAR, acronimi rispettivamente di RAdio, LIght, SOnic Detecting And Ranging, ed il RASS (Radio Acoustic Sounding System), che forniscono informazioni fondamentali sulla distribuzione verticale dell’aerosol (LIDAR), delle nubi (LIDAR, RADAR), di alcuni gas (LIDAR), delle precipitazioni (RADAR), del vento (LIDAR, RADAR e SODAR) e della temperatura (LIDAR, RASS). Per esattezza si fa notare che SODAR e RASS utilizzano solo o in parte onde acustiche e non elettromagnetiche.
L’evoluzione dei fenomeni atmosferici
Figura 1 – Schema dei principali componenti del sistema climatico globale (in grassetto), dei loro processi e delle loro interazioni (frecce sottili) e di altri aspetti variabili (frecce spesse). Credit: www.ipcc.ch/ ipccreports/tar/wg1/fig1-1.htm.
10
Al giorno d’oggi sono pochi gli strumenti che da soli siano in grado di fornire risultati che si possano considerare innovativi. C’`e quindi la tendenza a misurare pi`u grandezze contemporaneamente e a interpretarle anche mediante l’uso di modelli che ne riproducano gli effetti dinamici e/o radiativi. In maniera molto schematica, si e` interessati alla comprensione di un fenomeno specifico oppu-
accastampato num. 12, Febbraio 2014
IL RICERCATORE ROMANO
re allo studio di come esso si verifichi nel tempo. Ad esempio si pu`o immaginare di voler studiare una nube che si sta formando in un dato momento e luogo. In questo caso vorremmo avere pi`u informazioni possibili su quella nube: a che quota si trovano la base e la sommit`a? E` fatta di acqua o ghiaccio? Come altera la radiazione che giunge al suolo o che viene dispersa nello spazio? Come e` legata a variabili come il vento, la temperatura e l’umidit`a? Da quante particelle e` composta e di quali dimensioni? Per questo tipo di studi vengono solitamente organizzate delle campagne di misura che includono molte competenze diverse, spesso a livello internazionale. D’altronde si pu`o anche essere interessati a sapere quante volte si formi una nuvola in quel determinato posto, in quali momenti, e con quali caratteristiche. Anche in questo caso vorremmo avere pi`u informazioni possibili, ma lo scopo principale sar`a quello di averle su un lungo periodo di tempo1 , cos`ı da poter apprezzarne la variabilit`a e le tendenze. Purtroppo non e` immaginabile avere su un lungo periodo tutte le informazioni che si possono acquisire in un esperimento sul breve periodo, per cui si scelgono solo alcune osservabili che, relativamente al nostro esempio, potrebbero essere la quota della base della nube e la capacit`a di modificare la radiazione che giunge al suolo. Questo approccio e` di grande interesse per capire come il clima vari e soprattutto come le attivit`a antropiche possano influenzarne i cambiamenti. Ovviamente sistemi di telerilevamento attivo partecipano sia a studi specifici limitati nel tempo, sia a progetti di lunghe osservazioni temporali, spesso in consorzi di reti sovranazionali. Questo secondo tipo di progetti comporta maggiori difficolt`a organizzative, perch´e richiede stanziamenti certi per lunghi periodi di tempo, il che, specialmente nel nostro paese, si scontra con problemi di finanziamento e organizzazione della ricerca. Un discorso a parte riguarda i radar meteorologici che sono di solito gestiti da agenzie meteorologiche nazionali e costituiscono da tempo una rete affidabile e di grande utilit`a per le previsioni del tempo. Lo studio del clima implica la comprensione delle mutue interazioni tra oceani-atmosfera-criosfera-biosfera che avvengono su scale temporali molto diverse (cfr. Figura 1). Non e` questo lo scopo dell’articolo, ma il punto della questione e` che l’atmosfera e` la componente pi`u variabile su brevi scale temporali ed e` quindi la prima a mostrare cambiamenti che possono influenzare il sistema climatico nel suo complesso. E` bene ricordare che le serie storiche pi`u lunghe di misure dirette sono quelle di temperatura che risalgono a meno di 300 anni fa e sono disponibili solo in un numero molto limitato di osservatori, rappresentativi di una porzione molto limitata del pianeta. Solo in tempi molto recenti si e` cominciato ad avere una visione globale dell’atmosfera terrestre, grazie alle osservazioni satellitari. Oggi diamo per scontata la possibilit`a di osservare in tempo reale l’evoluzione dei sistemi 1
L’ordine di grandezza del lungo periodo varia a seconda dei fenomeni cui si e` interessati, ma generalmente si pu`o passare da una scala annuale a una millenaria per studi climatologici.
meteorologici grazie alla rete mondiale di satelliti meteorologici, ma la loro storia e` breve, specialmente se riferita allo studio della climatologia. Basti pensare che il sistema di satelliti meteorologici con copertura globale risale alla fine degli anni ’70: ci sono meno di 40 anni di osservazioni! Agli stessi anni risale il primo radar ad apertura sintetica (SAR) installato su un satellite, che venne lanciato nel 1978 a bordo del satellite SEASAT. Si deve attendere il 1994 per avere le prime misure lidar dallo spazio, quando, a bordo della navetta Discovery, fu installato un lidar che funzion`o con successo per circa 50 ore. Sebbene la missione ICESAT prevedesse l’utilizzo di un altimetro laser molto simile a un lidar, denominato GLASS, il primo satellite con a bordo un vero e proprio lidar venne lanciato solo nel 2006. Nel 2015 e` previsto il lancio di una nuova missione satellitare dell’Agenzia Spaziale Europea, EarthCARE, che prevede l’utilizzo del nuovo lidar ATLID. L’impatto di radar o lidar installati su satellite e` stato enorme: hanno infatti fornito una visione planetaria dei fenomeni atmosferici, sia di giorno che di notte, specialmente di ci`o che avviene sugli oceani che occupano il 70% del pianeta, dove, per ovvie ragioni, non si hanno misure continuative. Alcune applicazioni meno complesse di sistemi lidar o radar sono oggi anche disponibili a costi relativamente contenuti, permettendo lo sviluppo di reti osservative dedicate allo studio di aerosol e nubi [1] o alla stima delle precipitazioni e dei fenomeni connessi. I sistemi di telerivamento attivo sono oggi diffusi e utilizzati per ogni tipo di studio nella fisica dell’atmosfera essendo gli unici in grado di fornire profili a elevata risoluzione verticale delle grandezze misurate, sia che vengano utilizzati al suolo, che installati su aereo o satellite.
Bibliografia [1] Flentje H., Heese B., Reichardt J. e Thomas W. Aerosol profiling using the ceilometer network of the German Meteorological Service. In Atmospheric Measurement Techniques Discussions, vol. 3:3643–3673 (2010) Commenti on-line: http://www.accastampato.it/ 2014/02/telerilevamento-attivo/
Sull’autore Giandomenico Pace (giandomenico.pace@enea.it) si e` laureato in Fisica e ha conseguito il dottorato in Telerilevamento presso l’Universit`a Sapienza di Roma, sotto la supervisione del Prof. G. Fiocco. Nel 2005 e` diventato ricercatore presso l’ENEA di Bologna dove si e` occupato di modelli di inquinamento. Dal 2010 lavora presso il centro ENEA della Casaccia su tematiche inerenti aerosol e nubi.
accastampato num. 12, Febbraio 2014
11
Un fascio acustico per i processi atmosferici Il sodar: un fascio acustico illumina i processi dinamici nei bassi strati atmosferici Giangiuseppe Mastrantonio (Istituto di Scienze dell’Atmosfera e del Clima (CNR-ISAC))
l sodar (acronimo di SOund Detection And Ranging) e` uno strumento di telemisura di parametri atmosferici che utilizza le onde acustiche per sondare i bassi strati atmosferici. Nella configurazione pi`u semplice, detta monostatica, una stessa antenna viene utilizzata sia per emettere determinati toni acustici che per ricevere gli echi di ritorno, prodotti dall’interazione delle onde acustiche che si propagano verso l’alto con le masse d’aria attraversate alle varie quote. La frequenza dei toni e` compresa tipicamente nell’intervallo 1, 5 ÷ 5 kHz e viene scelta sulla base di un compromesso tra quota massima che si vuole raggiungere, rumore ambiente e risoluzione in altezza della misura. Nella configurazione monostatica ad asse singolo (sempre una sola antenna), un tono acustico di breve durata (0.01 ÷ 0.1 s) viene periodicamente emesso nell’atmosfera e gli echi prodotti vengono rilevati dalla stessa antenna. La sorgente principale di questi echi, nel caso in cui la stessa antenna venga utilizzata per l’emissione dei toni e la ricezione degli echi, e` la turbolenza termica presente nell’aria sulla scala della mezza lunghezza d’onda acustica utilizzata. Su questa scala, infatti, l’eco retrodiffuso dai diversi punti diffondenti si combina statisticamente in modo costruttivo.
I
simit`a di complessi industriali, possono risultare particolarmente negative. La conoscenza della struttura e dei processi nello SLA e` fondamentale per migliorare la modellistica numerica della circolazione e per comprendere quando e come l’atmosfera riesce a disperdere gli inquinanti che vi sono immessi. Le informazioni principali che il sodar in configurazione monostatica fornisce sono due: l’intensit`a dell’eco alle diverse quote e la velocit`a radiale delle masse di aria diffondenti. L’intensit`a degli echi viene comunemente registrata in formato facsimile (o ecogramma), in maniera simile a quanto viene fatto negli ecoscandagli marini. In questo tipo di rappresentazione l’eco ricevuta dopo l’emissione del tono acustico viene registrata come una traccia verticale in cui la gradazione di nero e` proporzionale all’intensit`a dell’eco ricevuto in ogni istante, mentre l’altezza del punto sulla traccia indica il ritardo con cui questo viene ricevuto e quindi la quota da cui l’eco proviene. Se le tracce vengono poste in maniera sequenziale una adiacente all’altra, la registrazione visualizza la struttura termica dello SLA e la sua evoluzione temporale in maniera simile a come un ecoscandaglio marino visualizza il fondo del mare e i banchi di pesci che attraversano il fascio acustico.
Storia del SO.D.A.R. La prima realizzazione di un sodar risale al 1968 ad opera di Mc Allister (Australian Defence Scientific Service) il quale era interessato a correlare le caratteristiche della bassa atmosfera ad alcuni problemi di propagazione delle onde radio. A valle di questa prima realizzazione altre sono seguite negli Stati Uniti (Gordon Little, Wave Propagation Laboratory, 1969), in Italia (Giorgio Fiocco, IFSI/CNR, 1974), in Francia (A. Spizzichino, CNET/CNRS, 1974) e in altre nazioni. La rapida diffusione di questa tecnica di telemisura e` dovuta all’interesse per i processi dinamici che hanno luogo nei primi 500 ÷ 1500 m dell’atmosfera e al modo particolarmente semplice con cui alcuni di essi vengono visualizzati e caratterizzati con il sodar. Questo strato dell’atmosfera, cui ci si riferisce usualmente con il termine Strato Limite Atmosferico (SLA), e` importante per varie ragioni. E` quello attraverso cui l’energia e` trasferita dalla superficie all’atmosfera (e viceversa) sotto forma di energia termica, meccanica e vapore d’acqua, e viene resa quindi disponibile per la circolazione atmosferica. Questo e` , inoltre, lo strato in cui si svolge la gran parte delle attivit`a umane e biologiche, con conseguenze sull’ambiente che, specie nelle grandi citt`a o in pros12
Figura 1 – Arena di Milano, 18 febbraio 1993. Nei primi due ecogrammi (a) e (b) e` visualizzata l’evoluzione dello strato limite atmosferico nella parte centrale del giorno. Il terzo ecogramma (c) riproduce quello centrale (ma in colore) con sovrapposto il campo dei moti verticali. Il pallone frenato viene visualizzato nell’ecogramma durante la fase di ascesa e discesa quando questo attraversa il fascio acustico.
accastampato num. 12, Febbraio 2014
IL RICERCATORE ROMANO
re turbolenza termica esistente al loro interno produce un’eco pi`u intensa rispetto alle masse di aria discendenti (pi`u fredde). Pu`o accadere, come nei pannelli (a) e (b) di Figura 1, che la convezione sia limitata in quota dalla presenza di inversione termica che blocca lo sviluppo verticale (si osservi, in particolare, il periodo che va dalle ore 12 alle 15). In questo caso il sodar produce un’informazione di grande importanza per lo studio del trasporto e diffusione degli inquinanti in atmosfera: l’altezza dello strato rimescolato. In Figura 1c, invece, l’ecogramma di Figura 1b viene riproposto in colore, sovrapponendovi le velocit`a verticali ottenute dall’analisi Doppler dell’eco (in nero). In questo modo e` possibile quantificare l’entit`a dei moti ascendenti e discendenti, associati all’attivit`a convettiva. In Figura 1c la distanza tra una quota di misura e la successiva corrisponde a un vento di 2 m/s. Figura 2 – Antenne di un sodar a tre assi monostatici in funzione nella base francese di Dumond d’Urville, in Antartide, nel periodo 19921993. Le antenne sono indirizzate in tre direzioni diverse per misurare tre componenti del vento e quindi il profilo del vento orizzontale.
Il sodar a singola antenna Nella Figura 1 sono rappresentate le informazioni principali che fornisce un sodar a singola antenna puntata verticalmente. Le immagini (a) e (b) sono esempi di ecogrammi sodar. Le bande verticali scure sono dovute a rumore acustico prodotto in vicinanza dell’antenna. La larghezza della banda e` proporzionale alla durata del rumore. Le righe oblique sono dovute ad echi da un pallone frenato operante in prossimit`a dell’antenna.
Misurare il vento L’uso contemporaneo di tre antenne i cui assi sono indirizzati in maniera opportuna permette di misurare il profilo del vento: la Figura 2 mostra la foto di tre antenne sodar che sono state in funzione nella base francese di Dumond d’Urville (Antartide) per circa due anni (1992-1993). Un sistema simile ha funzionato anche in prossimit`a della base italiana di Terra Nova Bay, alla confluenza di due ghiacciai (Reeves e Priestley) che collegano
Questi ecogrammi, ottenuti il 18 febbraio 1993 nell’arena di Milano, contengono esempi delle strutture che spesso sono presenti in questo tipo di registrazioni. In particolare dalle ore 6 alle ore 10 sono prevalenti le strutture a sviluppo orizzontale. Queste strutture rappresentano strati di aria in cui vi e` inversione termica, cio`e in cui la temperatura cresce con la quota. In queste condizioni i moti verticali vengono inibiti: vi e` una forza di richiamo che tende a riportare i volumi di aria nella loro posizione iniziale. Eventuali perturbazioni che spostano verticalmente i volumi di aria dalla loro posizione di riposo possono indurre oscillazioni negli strati. Nell’ecogramma alle ore 10:30 si distingue molto bene l’oscillazione di uno strato a circa 400 m di quota. L’eco pi`u intensa che caratterizza questi strati e` dovuta alla turbolenza termica che si produce all’interfaccia tra correnti di aria con caratteristiche termiche e dinamiche diverse. Tornando alla descrizione degli ecogrammi, si osserva che alle ore 10:30 iniziano a svilupparsi strutture verticali. Queste strutture sono associate alle masse di aria che, a contatto del terreno riscaldato dai raggi solari, si sollevano verso l’alto. Esse costituiscono la parte ascendente della convezione termica che ridistribuisce l’energia termica nello strato limite atmosferico. Queste masse di aria ascendenti vengono comunemente chiamate termiche o piume convettive. La maggio-
Figura 3 – Nansen Ice Sheet, Baia di Terra Nova (Antartide): sito in cui ha operato un sodar a tre assi monostatici durante la campagna di misure estiva 1998-99. Il sito, che si trova alla confluenza di due ghiacciai (Reeves e Priestley), e` in prossimit`a della base italiana Mario Zucchelli.
accastampato num. 12, Febbraio 2014
13
IL RICERCATORE ROMANO
una brezza di terra proveniente dall’entroterra. Nella parte superiore dello strato di origine marina il vapore d’acqua condensa (tra 600 e 700 m). La formazione di questo strato di nebbia con cielo sereno trasferisce il raffreddamento radiativo al top della nebbia e tale raffreddamento aumenta la densit`a dell’aria che precipita verso il suolo: si formano cos`ı colonne discendenti, in maniera simile a quanto accade nel mare per i salt fingers. Il secondo invece mostra i risultati di un nuovo strumento che costituisce un importante complemento per le misure tradizionali e i campionamenti fatti nelle prime decine di metri dell’atmosfera. Possiamo, per`o, riassumere in tre i settori in cui questa tecnica trova applicazione: dinamica dei bassi strati atmosferici, trasporto e diffusione di inquinanti, individuazione dei siti adatti alla produzione di energia eolica. Figura 4 – Misure sodar del 17 gennaio 1997 nell’aeroporto militare di Pratica di Mare. In alto l’ecogramma con sovrapposti i profili che sono, nell’ordine, della temperatura potenziale, del rapporto di mescolanza vapore-aria secca, dell’umidit`a relativa e dell’intensit`a e direzione del vento. Mentre il profilo del vento e` misurato dal sodar, per le altre grandezze sono stati utilizzati i dati di un radiosondaggio.
Commenti on-line: http://www.accastampato.it/ 2014/02/sodar_it/
la baia con l’altopiano antartico attraverso due percorsi diversi (cfr. Figura 3). Attraverso tali ghiacciai le masse di aria fredda provenienti dall’altopiano raggiungono la baia con velocit`a che possono superare, nel periodo invernale, i 40 m/s. Molti sono i casi in cui il telesondaggio acustico risulta fondamentale per visualizzare e comprendere fenomeni che hanno luogo nello SLA. Due ulteriori esempi sono illustrati nelle Figura 4 e 5. Nel primo il profilo del vento mostra la sovrapposizione di masse di aria di provenienza marina (200 ÷ 700 m) sovrapposte a
Sull’autore
Figura 5 – Ecogrammi ad alta risoluzione ottenuti nel campo sperimentale dell’ISAC (Istituto di Scienze dell’Atmosfera e del Clima) con un sistema sodar ad alta frequenza realizzato recentemente nell’Istituto. Il primo ecogramma (in alto) visualizza onde, mentre il secondo e il terzo (al centro e in basso) documentano la fase iniziale dello sviluppo di uno SLA convettivo.
14
Giangiuseppe Mastrantonio (g. mastrantonio@isac.cnr.it) ha partecipato alla realizzazione del primo sodar italiano. La sua attivit`a di ricerca ha riguardato la meteorologia dello strato limite atmosferico, la circolazione locale e alla mesoscala, la meteorologia aeroportuale e gli effetti del wind shear sulla sicurezza del volo, lo sviluppo di telesensori della dinamica atmosferica, i processi dei bassi strati atmosferici nelle regioni polari. Ha svolto la sua attivit`a presso l’Istituto di Scienze dell’Atmosfera e del Clima (ISAC) del CNR come dirigente di ricerca ed e` stato responsabile della sezione di Lecce dell’ISAC. Attualmente in pensione, continua la sua attivit`a collaborando con l’ISAC come associato.
accastampato num. 12, Febbraio 2014
Ozono artico e riscaldamento globale Estrema variabilita` dell’atmosfera artica e comprensione del cambiamento climatico Alcide Giorgio di Sarra, Marco Cacciani (ENEA e Dipartimento di Fisica, Universit`a Sapienza di Roma) Artide e` la regione del pianeta pi`u sensibile ai cambiamenti del clima, sia dovuti a variabilit`a naturale che all’influenza antropica. Negli ultimi decenni la temperatura superficiale in Artide e` cresciuta circa il doppio rispetto alla scala globale, tanto che si parla di un effetto di amplificazione artica del riscaldamento globale [2]. Le osservazioni mostrano che all’incremento di temperatura a bassa quota e` associata una diminuzione delle temperature in bassa stratosfera (cfr. Figura 1, in Artide e` la regione tra 8 e 20 km di quota) dove, in particolare alle alte latitudini, hanno luogo vari fenomeni importanti per gli equilibri del clima. Tra questi, la diminuzione di ozono e` legata strettamente all’evoluzione stagionale della temperatura stratosferica, alla sua variabilit`a, e alle modificazioni di composizione chimica dell’atmosfera indotte dall’uomo. Ci si aspetta che le modifiche della temperatura associate al riscaldamento globale vadano a interferire con i processi di distruzione primaverile dell’ozono. La comprensione dell’evoluzione futura del sistema richiede misure di lungo periodo nelle difficili condizioni Artiche. Gi`a alla fine degli anni ’80 il gruppo di ricerca diretto da Giorgio Fiocco inizi`o un programma dedicato a studiare i fenomeni di
L’
Figura 1 – Profilo verticale medio della temperatura. La tropopausa si trova tra 15 e 18 km ai tropici, e tra 8 e 10 km nelle regioni polari.
16
distruzione di ozono nella stratosfera Artica. Presso l’Universit`a Sapienza di Roma venne sviluppato un sistema LiDAR (acronimo da Light Detection And Ranging, cfr. articolo a pag. 12), che venne installato a Thule, sulla costa Nord Occidentale della Groenlandia, a 76.5◦ N, nel Novembre 1990. Le misure avviate nel 1990 sono state progressivamente estese e sono ancora attive nell’ambito di una rete globale per lo studio del clima. I dati sono di grande interesse perch´e mostrano come potrebbe svilupparsi il fenomeno di distruzione dell’ozono negli anni a venire.
La stazione di misura di Thule Nel 1985 alcuni studiosi inglesi mostrarono le prime evidenze della forte diminuzione primaverile di ozono nella stratosfera Antartica, che prese il nome di buco dell’ozono [3]. Negli anni successivi, a seguito di varie campagne di misura dedicate, si scopr`ı che gli ingredienti essenziali per provocare la distruzione di ozono sono l’incremento di composti del cloro introdotti dalle attivit`a antropiche; la presenza di nubi stratosferiche polari (NSP), che si formano grazie alle bassissime temperature raggiunte nella bassa stratosfera polare in inverno e inizio primavera; l’arrivo della radiazione solare, che innesca una serie di reazioni fotochimiche che portano a una velocissima e molto efficace distruzione di ozono alla fine della notte polare. Fu subito evidente che, mentre in Antartide si verificava una notevolissima riduzione (oltre il 90% dell’ozono presente tra 12 e 25 km, nella regione del massimo di concentrazione) ogni anno, la situazione in Artide mostrava minori riduzioni e una fortissima variabilit`a interannuale. L’Artide, rispetto all’Antartide, presenta una maggiore complessit`a, che si riflette in temperature pi`u elevate e una variabilit`a molto pi`u ampia, sia in troposfera che in stratosfera. Per studiare questi processi alla fine degli anni ’80, Giorgio Fiocco attiv`o una collaborazione con Torben Jørgensen del Danish Meterological Institute (DMI) e insieme effettuarono un primo sopralluogo alla base di Thule (76.5◦ N, 68.8◦ O), sulla costa nord occidentale della Groenlandia, dove il DMI stava iniziando a sviluppare un programma di ricerca. Presso l’Universit`a Sapienza di Roma ebbe subito inizio la fase di progettazione e realizzazione di un sistema lidar, che venne spedito e installato a Thule a Novembre 1990. Altri strumenti sono stati installati in seguito, anche nell’ambito di collaborazioni nazionali (ENEA, INGV e, pi`u recentemente, Universit`a di Firenze) e internazionali (oltre al DMI, Stony Brook University a New York e NCAR, USA). Le attivit`a di ricerca avviate nel 1990 sono state progressivamente incrementa-
accastampato num. 12, Febbraio 2014
IL RICERCATORE ROMANO
te e contribuiscono a una rete globale internazionale per lo studio del clima, la Network for Detection of Atmospheric Composition Changes (NDACC). Negli anni le attivit`a sono state supportate da Unione Europea, Programma Nazionale di Ricerche in Antartide e Ministero dell’Istruzione, dell’Universit`a e della Ricerca. Le misure a Thule erano dedicate principalmente allo studio dei processi che avvengono nella bassa stratosfera polare, e in particolare quelli che portano alla distruzione dell’ozono. Il LiDAR installato a Thule, mostrato in Figura 2, comprende un laser Nd:YAG che emette impulsi di radiazione a 532 nm, nel verde. Questi impulsi sono inviati verticalmente in atmosfera; una parte di questo segnale viene retrodiffuso da molecole e particelle sospese in atmosfera, raccolto da un telescopio da 80 cm di diametro, e inviato su due rivelatori. Poich´e l’impulso attraversa vari strati dell’atmosfera e il segnale retrodiffuso viene campionato a tempi diversi dallo sparo del laser, si ottengono profili verticali dell’atmosfera, e in particolare la distribuzione del particolato sospeso e delle nubi. La capacit`a di rilevare la presenza di particelle anche a quote elevate e` particolarmente importante per lo
studio delle nubi stratosferiche polari. Il sistema lidar e` stato poi progressivamente aggiornato, anche con l’aggiunta di alcuni telescopi, per ottenere misure del profilo di temperatura tra 25 e 75 km di quota, e profili di particolato e nubi in troposfera.
L’evoluzione della stratosfera Artica L’inverno Artico in stratosfera e` caratterizzato dalla formazione di un intenso sistema di bassa pressione (vortice polare), con una circolazione che rimane molto stabile e isolata per periodi estesi di tempo in cui, principalmente a causa dell’assenza della radiazione solare, si raggiungono temperature molto basse. Grazie a queste condizioni all’interno del vortice possono verificarsi modificazioni significative della composizione chimica [4]. All’inizio della primavera l’arrivo della radiazione solare porta, da una parte, a una progressiva distruzione di ozono e dall’altra all’aumento della temperatura e conseguentemente al termine della circolazione invernale, alla rottura del vortice polare, e al rimescolamento delle masse d’aria interne ed esterne al vortice. L’assenza di NSP e la modificazione della composizione chimica portano anche a interrompere la catena di reazioni chimiche che distruggono l’ozono. L’intensit`a della distruzione di ozono e` quindi legata all’intensit`a del vortice, alla temperatura e alla formazione di NSP, soprattutto nel periodo in cui comincia ad arrivare la radiazione solare. Vari studi, inoltre, mettono in evidenza le forti interconnessioni tra la circolazione stratosferica e troposferica e una possibile influenza dei processi stratosferici sui sistemi meteorologici alle medie latitudini. Durante l’inverno Artico, diversamente dall’Antartide, la struttura del vortice pu`o venire perturbata dalle onde planetarie (strutture dinamiche con lunghezza d’onda orizzontale dell’ordine delle migliaia di chilometri); in particolari situazioni queste ultime possono produrre riscaldamenti improvvisi e la rottura, temporanea o, nei casi pi`u intensi, definitiva del vortice polare.
Grandi sorprese Questo e` ad esempio quello che e` successo nel Febbraio 2009, quando si e` verificato il riscaldamento stratosferico improvviso pi`u intenso mai registrato, con temperature che hanno raggiunto i 290 K nella media e alta stratosfera [5], come mostrato in Figura 3. Questo evento e` stato studiato in dettaglio attraverso le misure del lidar e degli altri strumenti presenti a Thule, mostrando che al riscaldamento stratosferico sono associate modificazioni significative nella circolazione dinamica e composizione chimica. Figura 2 – Foto del lidar di Thule. La struttura nera contiene il telescopio. La presenza di un’apertura sul tetto permette di far passare gli impulsi del laser e di raccogliere i segnali retrodiffusi dall’atmosfera.
In Artide si osserva una forte variabilit`a interannuale nell’evoluzione del vortice e nella frequenza dei riscaldamenti stratosferici improvvisi, che sembra essere anche collegata a vari fenomeni a scala globale. Nonostante vari aspetti di questi fenomeni siano
accastampato num. 12, Febbraio 2014
17
IL RICERCATORE ROMANO
ancora non ben compresi, ci si aspetta che la riduzione di composti del cloro, le cui emissioni sono bandite dai protocolli internazionali a partire dagli anni ’90, possa progressivamente riportare l’ozono primaverile polare ai livelli degli anni ’70. D’altra parte, ci si aspetta anche un progressivo raffreddamento della bassa stratosfera legato all’effetto serra. Questo raffreddamento dovrebbe produrre un incremento di NSP e a una amplificazione dei fenomeni di distruzione di ozono, che dovrebbe a sua volta ritardare il ritorno dell’ozono ai livelli degli anni ’70. Questi effetti dovrebbero essere pi`u rilevanti in Artide, dove la formazione di NSP e` pi`u variabile e gioca un ruolo maggiormente critico. In questo contesto, l’inverno 2010-2011 si e` rivelato estremamente interessante. La presenza del vortice si e` protratta fino alla primavera inoltrata, con condizioni (bassa temperatura, formazione
Figura 3 – Profilo di temperatura misurato a Thule con il lidar il 22 Gennaio 2009 (curve nere). Curva e punti rossi sono relativi alle misure del radiosondaggio effettuato dalla stazione di Eureka (80.0◦ N, 86.4◦ O, Canada). La curva blu mostra il profilo climatologico di temperatura del mese di Gennaio. La temperatura osservata raggiunge circa 290 K attorno a 35 km a causa di un riscaldamento stratosferico estremamente intenso, che si e` propagato successivamente anche alla bassa stratosfera e ha provocato la rottura anticipata del vortice polare e la interruzione dei processi di distruzione di ozono.
18
di NSP, presenza di radiazione solare e attivazione delle reazioni fotochimiche) che hanno prodotto una massiccia distruzione di ozono: fino al 40% sui valori integrati su tutta la colonna d’aria e fino all’80% dell’ozono presente tra 18 e 20 km [6]. La Figura 4 mostra il profilo di temperatura misurato a Thule il 7 Marzo; nello stesso periodo sono state osservate anche delle NSP, la cui presenza non era mai stata osservata verificarsi con regolarit`a in questo periodo dell’anno [7]. Il verificarsi di una stagione con queste caratteristiche e` estremamente inusuale in Artide, e fornisce indicazione della possibile evoluzione del sistema con il progredire del riscaldamento globale. Lo studio di questi fenomeni richiede la realizzazione di misure, integrando tecniche diverse, per periodi di tempo estesi, e in condizioni ambientali spesso molto difficili.
Figura 4 – Profilo di temperatura misurato a Thule con il lidar il 7 Marzo 2010 (curve nere). Curva e punti rossi sono relativi alle misure del radiosondaggio effettuato dalla stazione di Eureka (80.0◦ N, 86.4◦ O, Canada). La curva blu mostra il profilo climatologico di temperatura del mese di Marzo. La temperatura osservata nella bassa stratosfera e` di quasi 30 K pi`u bassa rispetto ai valori della climatologia. Il verificarsi di temperature cos`ı basse ha permesso il prolungamento dell’esistenza del vortice e la formazione di nubi stratosferiche anche nella fase finale dell’inverno, favorendo una massiccia distruzione di ozono.
accastampato num. 12, Febbraio 2014
IL RICERCATORE ROMANO
Bibliografia NDACC: www.ndsc.ncep.noaa.gov [2] Serreze M.C. e Francis J.A. The Arctic amplification debate. In Climatic Change, vol. 76(3-4):241–264 (2006) [3] Farman J., Gardiner B. e Shanklin J. Large losses of total ozone in Antarctica reveal seasonal ClOx/NOx interaction (1985) [4] Muscari G., di Sarra A.G., de Zafra R.L., Lucci F., Baordo F., Angelini F. e Fiocco G. Middle atmospheric O3, CO, N2O, HNO3, and temperature profiles during the warm Arctic winter 2001–2002. In Journal of Geophysical Research: Atmospheres (1984–2012), vol. 112(D14) (2007) [5] Di Biagio C., Muscari G., di Sarra A., de Zafra R.L., Eriksen P., Fiocco G., Fiorucci I. e Fu`a D. Evolution of temperature, O3, CO, and N2O profiles during the exceptional 2009 Arctic major stratospheric warming as observed by lidar and millimeter-wave spectroscopy at Thule (76.5◦ N, 68.8◦ W), Greenland. In Journal of Geophysical Research: Atmospheres (1984–2012), vol. 115(D24) (2010) [6] Manney G.L., Santee M.L., Rex M., Livesey N.J., Pitts M.C., Veefkind P., Nash E.R., Wohltmann I., Lehmann R., Froidevaux L. et al. Unprecedented Arctic ozone loss in 2011. In Nature, vol.
478(7370):469–475 (2011) [7] Di Sarra A., Cacciani M., Fiocco G., Fu`a D. e Jørgensen T. Lidar observations of polar stratospheric clouds over northern Greenland in the period 1990–1997. In Journal of geophysical research, vol. 107(D12):4152 (2002) Commenti on-line: http://www.accastampato.it/ 2014/02/ozono_it/
Sull’autore Alcide Giorgio di Sarra (alcide.disarra@ enea.it) e` Direttore di Ricerca e responsabile del Laboratorio di Analisi e Osservazioni del Sistema Terra all’ENEA. Le sue attivit`a di ricerca si focalizzano sui processi che regolano il clima e gli effetti prodotti dai cambiamenti nella composizione dell’atmosfera sul bilancio della radiazione solare e infrarossa. Insegna Fisica del Clima presso l’Universit`a di Roma Tre.
Uno sguardo dall’alto alle tematiche ambientali Particolati e aerosol asiatici nell’aria tersa dell’Himalaya Daniele Gasbarra (CNR-ISAFOM di Ercolano)
a base Ev-K2-CNR (27.95◦ N, 86.82◦ E) e` situata a una quota di 5050 metri nella valle del Khumbu (Sagamartha National Park), ai piedi del versante nepalese dell’Everest. La sua remota locazione all’interno del parco naturale pi`u alto della Terra fornisce una condizione unica per lo studio dell’atmosfera e in particolare dei processi di trasporto degli inquinanti. Questa base, assieme ad altre dodici stazioni (quattro operative in Italia, cinque in Nepal, due in Pakistan e una in Uganda), completa la rete SHARE (Stations at High Altitude for Research on the Envinroment), un progetto di monitoraggio ambientale e glaciologico di fondamentale importanza per la comprensione dei processi di cambiamento climatico oggi in atto su scala globale.
L
Industrializzazione asiatica La struttura e` molto lontana da qualsiasi fonte antropica di inquinamento, nei suoi pressi sono presenti esclusivamente dei piccoli villaggi che non superano i mille abitanti; l’area urbana pi`u vicina e` quella di Kathmandu (distante circa 200 km) che conta pi`u di un milione di abitanti ed e` caratterizzata da un forte inquinamento atmosferico. Durante il periodo pre-monsonico, le innumerevoli valli presenti nel versante sud dell’Himalaya diventano dei canali diretti attraverso i quali masse d’aria caratterizzate dalla forte presenza di inquinanti possono raggiungere quote superiori ai 5000 metri, arrivando a perturbare strati atmosferici molto elevati che solitamente hanno una composizione non contaminata da queste sostanze [8]. Oltre a provenire dalle aree urbane pi`u vicine come quella di Kathmandu, intrusioni di queste masse d’aria avvengono anche nelle zone altamente industrializzate della pianura indiana e dei paesi confinanti come India, Cina e Bangladesh, nei quali la produzione di energia avviene quasi esclusivamente utilizzando combustibili fossili. Il forte sviluppo economico che negli ultimi decenni ha visto protagonisti alcuni dei paesi asiatici ha portato come inevitabile conseguenza il proliferare della presenza di carbone e di altri inquinanti negli strati atmosferici. Le osservazioni eseguite sul campo tramite satelliti hanno dimostrato che, al giorno d’oggi, le zone che contribuiscono maggiormente alle emissioni di carbone sono quelle dell’Asia meridionale, e in particolare India e Cina. Proprio in questi paesi, soprattutto nei mesi contraddistinti da scarse precipitazioni, e` diventata sempre pi`u frequente la formazione di Atmospheric Brown Clouds (ABCs), ovvero estesi strati troposferici caratterizzati dalla forte presenza di aerosol (particelle di 20
dimensioni micrometriche che galleggiano in atmosfera) e di sostanze inquinanti come il black carbon (BC), che in queste nubi arriva ad avere concentrazione tra 1000 ÷ 10000 ng/m3 , da confrontarsi con una concentrazione media di 100 ÷ 300 ng/m3 [9]; tale elemento e` anche responsabile della caratteristica colorazione molto scura di questo tipo di nubi.
Nuvole oscure Le ABCs sono caratterizzate anche dalla presenza di ossidi di azoto (NOx ), monossido di carbonio (CO), biossido di zolfo (SO2 ) e ammoniaca (NH3 ). La produzione di queste sostanze e` essenzialmente di natura antropica: gas come NOx e CO sono precursori della produzione di ozono e, oltre ad essere inquinanti, sono dei potenti gas serra. Altre sostanze, come SO2 e NH3 , sono invece fondamentali per la produzione di aerosol secondari, che avviene tramite processi di ossidazione. Data la presenza di carbone e altri inquinanti, queste nubi hanno un forte impatto sulla qualit`a dell’aria, la visibilit`a e il budget energetico della troposfera. Le ABCs infatti hanno spiccate propriet`a di assorbimento della radiazione solare e quindi provocano un riscaldamento negli strati atmosferici in cui sono presenti. Al contrario la loro presenza scherma la superficie terrestre dalla radiazione solare producendo una diminuzione a terra di quest’ultima stimata intorno al 10%.
Figura 1 – Immagine della base Ev-K2-CNR.
accastampato num. 12, Febbraio 2014
IL RICERCATORE ROMANO
Quando queste nubi, attraverso le innumerevoli valli che dalla pianura indiana risalgono fino al massiccio himalayano, arrivano nei pressi della base Ev-K2-CNR, vengono osservate e studiate tramite radiometri (utilizzati per effettuare misure della radiazione solare diretta e diffusa, dello spessore ottico degli aerosol, dell’albedo terrestre e del contenuto colonnare di vapor d’acqua) e fotometri spettrali in grado di determinarne la composizione. Tali eventi si verificano esclusivamente durante la stagione premonsonica, a cavallo fra i mesi di marzo e maggio, con intensit`a e frequenza ancora non ben definita. La presenza di queste nubi produce effetti energetici e radiativi lungo l’altopiano himalayano caratterizzati da una intensit`a che viene difficilmente raggiunta in altre parti della Terra. Figura 2 – Immagine dal satellite MODIS di una Atmospheric Brown Cloud osservata presso la base Ev-K2-CNR (indicata dal cerchio blu) il 29 aprile 2009.
In generale si pu`o affermare che, in condizioni di cielo sereno, l’irradianza solare (ovvero il flusso radiante incidente su una superficie) che raggiunge la superficie terrestre dipende da quattro parametri: l’angolo zenitale θ che descrive la posizione del sole rispetto alla verticale del punto di osservazione, l’albedo superficiale A che indica il rapporto fra la radiazione riflessa dalla superficie e quella incidente sulla superficie stessa, il contenuto colonnare di vapor d’acqua wv, ovvero la quantit`a di acqua presente nella colonna di atmosfera al di sopra del punto di osservazione, e lo spessore ottico degli aerosol τ mediante il quale e` possibile stimare quanta radiazione solare sia stata assorbita o diffusa da questo tipo di particelle. In generale si ha che
Particelle in sospensione Nella Figura 3 vengono mostrati i valori dello spessore ottico degli aerosol e gli effetti radiativi da questi prodotti presso la base
SW (θ, A, wv, τ) = SW0 (θ) + ∆SWA (θ) + ∆SWwv (θ) + ∆SWτ (θ) dove ∆SWA (θ), ∆SWwv (θ) e ∆SWτ (θ) sono rispettivamente le perturbazioni a SW0 (θ) (ovvero all’irradianza diretta verso il basso nel caso in cui A = 0, wv = 0 e τ = 0) generate dalla variazione dell’albedo superficiale, del contenuto di vapor d’acqua e dello spessore ottico degli aerosol [10]. Quest’ultimo pu`o essere definito come l’effetto totale dell’assorbimento della radiazione da parte di ogni particella e che possiamo esprimere sinteticamente con la formula: Z l
τ= 0
ka ρ(s)ds
in cui integriamo la densit`a ρ(s) del mezzo attraversato per una certa lunghezza l, pesata con il suo coefficiente di assorbimento ka . Lo spessore ottico e` di fondamentale importanza per determinare l’interazione fra l’irradianza solare e gli aerosol atmosferici, serve infatti a indicare la trasparenza dell’atmosfera, da cui dipende la quantit`a di radiazione estinta durante il passaggio attraverso di essa.
Figura 3 – Valori dello spessore ottico degli aerosol misurati presso la base Ev-K2-CNR e corrispondenti perturbazioni radiative prodotte dagli aerosol relative all’anno 2009.
accastampato num. 12, Febbraio 2014
21
IL RICERCATORE ROMANO
re che nella citt`a di Roma concentrazioni di PM10 superiori a 50 µg/m3 sono considerate fuori legge e quando vengono raggiunte portano al blocco della circolazione delle automobili! In questo quadro risulta evidente come lo studio dell’atmosfera nei siti di alta montagna risulti indispensabile per determinare le possibili interazioni fra le attivit`a antropiche e i cambiamenti climatici su scale regionale e globale. Tali ambienti infatti sono caratterizzati da ecosistemi molto particolari ed estremamente delicati, di conseguenza rappresentano dei laboratori ideali nei quali gli effetti prodotti dalle emissioni di natura antropica vengono amplificati e possono quindi essere studiati pi`u facilmente. Inoltre, per quanto riguarda la base Ev-K2-CNR, la presenza di elevate concentrazioni di aerosol in atmosfera, oltre a modificare il bilancio radiativo netto come gi`a visto, pu`o avere importanti implicazioni negli altri processi che vedono coinvolto l’altopiano tibetano come lo scioglimento dei ghiacciai o la circolazione delle correnti monsoniche che caratterizza il clima dell’Asia.
Bibliografia
Figura 4 – Concentrazioni di PM10 e black carbon misurati presso la base Ev-K2-CNR nei giorni 29-30 Aprile e 1 Maggio 2009, in cui si osserva l’arrivo di una ABC nei pressi della stazione.
Ev-K2-CNR durante l’anno 2009. Come e` possibile osservare dal grafico, per gran parte dell’anno gli aerosol sono caratterizzati da uno spessore ottico molto basso, inferiore a 0, 05 e caratteristico dei siti posti ad alta quota. Di conseguenza, considerando l’incertezza con la quale sono state determinate le perturbazioni radiative prodotte dagli aerosol, si pu`o osservare come in media anche le perturbazioni all’irradianza solare prodotte da questo tipo di particolato possano essere considerate nulle. Sono per`o chiaramente evidenti due eventi distinti, risalenti a i mesi di marzo e aprile, dove lo spessore ottico degli aerosol (τ) assume valori elevati, prossimi a 0, 25. In corrispondenza di questi eventi, ovvero quando la concentrazione di aerosol in troposfera risulta essere significativa, la perturbazione all’irradianza solare prodotta dagli aerosol (∆SWτ ) assume valori rilevanti, con un massimo che e` stato stimato intorno a −90 ± 18 W m−2 , e che corrisponde a una variazione del 12, 5% rispetto all’irradianza incontaminata SW0 .
Particolati nell’aria A ulteriore conferma dell’intensit`a del fenomeno, in Figura 4 e` possibile osservare le concentrazioni di PM10 (particolato con diametro inferiore a 10 µm) e black carbon (BC) misurate presso la base nei giorni di picco di un evento (29-30 Aprile 2009), quando il PM10 tocca i 60 µg/m3 mentre il BC supera i 3000 ng/m3 . Per rendersi conto della veemenza di questi eventi basta pensa22
Base Ev-K2-CNR: www.evk2cnr.org [8] Bonasoni P., Laj P., Marinoni A., Sprenger M., Angelini F., Arduini J., Bonafe U., Calzolari F., Colombo T., Decesari S. et al. Atmospheric Brown Clouds in the Himalayas: first two years of continuous observations at the Nepal-Climate Observatory at Pyramid (5079 m). In [9] Ramanathan V., Rodhe H., Agrawal M., Akimoto H., Auffhammer M., Chopra U., Emberson L., Hasnain S.I., Iyngararasan M., Jayaraman A., Lawrence M., Nakajima T., Ruchirawat M., Singh A., Vincent J.R. e Zhang Y. Atmospheric Brown Clouds : Regional Assessment Report with Focus on Asia. Rap. tecn., Stockholm University, Department of Meteorology (2008) [10] Di Biagio C., Di Sarra A.G., Eriksen P. et al. Effect of albedo, water vapor, and atmospheric aerosols on the cloud-free shortwave radiative budget in the Artic. In Climate Dynamics (2012) Commenti on-line: http://www.accastampato.it/ 2014/02/ev-k2-cnr_it/
Sull’autore Daniele Gasbarra (danielegasbarra@yahoo.it) e` uno degli ultimi laureati in Geofisica all’Universit`a Sapienza di Roma, prima che i tagli della riforma Gelmini portassero all’estinzione dell’intero corso di laurea. Ha lavorato durante la sua tesi di laurea sull’analisi dei dati provenienti dal laboratorio himalayano Ev-K2-CNR. Attualmente si occupa del monitoraggio e della previsione della qualit`a dell’aria nella zona di Napoli e provincia presso il CNR-ISAFOM di Ercolano.
accastampato num. 12, Febbraio 2014
La laurea in Geofisica a Roma Vecchia e nuova offerta formativa in geofisica a Roma Anna Maria Iannarelli (Gruppo G24, Dipartimento di Fisica, Universit`a Sapienza di Roma)
p artire dal 1999 ha preso il via in Italia la riorganizzazione accademica per rispondere agli obiettivi stabiliti nel Processo di Bologna, una riforma internazionale del sistema di istruzione superiore dei paesi membri della Comunit`a Europea. L’Italia e` tra i primi quattro promotori della convenzione “Spazio Europeo dell’Istruzione Superiore”, che garantisce la validit`a dei titoli di istruzione di livello superiore in tutti i paesi sottoscrittori. Tra gli obiettivi principali di questa iniziativa c’`e quello di creare l’offerta di un’ampia base di conoscenze di alta qualit`a per assicurare lo sviluppo economico e sociale dell’Europa, cos`ı da rendere la Comunit`a Europea pi`u competitiva a livello internazionale e attrarre studenti dai paesi non comunitari. La convenzione permette inoltre la mobilit`a degli studenti e del mondo accademico in generale, che in questo modo hanno la possibilit`a di muoversi senza ostacoli con il loro titolo di studi. Pur lasciando una certa autonomia nell’organizzazione universitaria, ai paesi aderenti e` stato richiesto di seguire alcuni punti guida, come l’adozione di un sistema con tre cicli di studi, il consolidamento del sistema dei crediti per la mobilit`a degli studenti, la valutazione della qualit`a.
A
L’Italia, a partire dal 1999, ha quindi iniziato il proprio processo di ristrutturazione del sistema universitario istituendo 3 cicli di studi: la Laurea, titolo accademico di 1◦ ciclo; la Laurea Specialistica/Magistrale, titolo principale del 2◦ ciclo; i corsi di 3◦ ciclo, che rilasciano il Dottorato di Ricerca. I corsi di laurea di primo livello hanno lo scopo di fornire allo studente metodi e contenuti scientifici, nonch´e conoscenze professionali specifiche. I corsi della laurea magistrale hanno invece l’obiettivo di dare una formazione pi`u avanzata, per creare personale qualificato in ambiti specifici. Questo tipo di organizzazione ha permesso agli atenei, e quindi ai dipartimenti, la possibilit`a di istituire dei percorsi di laurea specialistici per alcuni settori, inserendo all’interno dei vari curricula di studi un numero maggiore di esami caratterizzanti. Nel dipartimento di Fisica dell’Universit`a Sapienza di Roma questo si e` tradotto nell’istituzione di corsi di laurea magistrale anche a carattere applicativo. Nell’A.A. 2005/2006, i curricula previsti dal manifesto di studi della laurea in fisica erano Biosistemi, Elettronico, Fisica della materia, Fisica nucleare e subnucleare, Geofisico, Teorico generale, Storico epistemologico didattico. Negli anni successivi, la riduzione dei fondi destinati all’universit`a ha avuto come conseguenza il non poter assumere nuovi professori all’interno dei dipartimenti, bloccando di fatto il rinnovamento del corpo docente e provocando una cospicua riduzione del numero degli insegnamenti attivati. All’interno del dipartimento di
fisica il numero dei docenti presenti (professori ordinari, professori associati e ricercatori) si e` ridotto dal 2007 ad oggi da 137 a 112: in certi casi, questa diminuzione si e` tradotta nella scomparsa di alcuni curricula, e quindi nella mancata possibilit`a di specializzarsi in un determinato settore. Nell’A.A. 2012/2013, i curricula sopravvissuti sono solo Biosistemi, Fisica della materia, Fisica nucleare e subnucleare, Teorico generale. Tra quelli scomparsi vi e` quindi quello di Geofisica, che prevedeva, dal momento della sua istituzione, i corsi di sismologia, oceanografia, fisica dell’atmosfera e climatologia, ma che negli ultimi anni aveva gi`a perso insegnamenti per carenza di personale docente. Tutto questo a fronte di un crescente interesse a livello nazionale e internazionale sia verso la meteorologia e la climatologia, a seguito degli eventi meteorologici estremi degli ultimi anni, sia verso le problematiche che riguardano la qualit`a dell’aria ed il trasporto di inquinanti, di fondamentale interesse per la salute pubblica. I cambiamenti climatici, oggi al centro dell’attenzione e del dibattito scientifico e politico mondiale, sono oggetto di ricerca da parte di istituzioni internazionali come il World Meteorological Organization (www.wmo.int) e l’Intergovernamental Panel on Climate Change (www.ipcc.ch), e l’argomento e` considerato di cos`ı grande rilievo che nella grande maggioranza dei paesi sviluppati esistono percorsi didattici specificamente dedicati al settore della meteorologia: ne sono un esempio il “Bachelor in Meteorology and Climate” presso l’Universit`a di Reading nel Regno Unito, la “School of Meteorology” dell’Universit`a dell’Oklahoma, la Colorado State University e la University of Washington. Un’offerta formativa in cui il nostro paese, invece, manifesta un’endemica carenza, nonostante l’esistenza di molteplici sbocchi professionali che vanno dalle societ`a private di previsione meteorologica alle istituzioni pubbliche nazionali (Servizio Meteorologico dell’Aeronautica Militare, le ARPA regionali, ISPRA) e internazionali (WMO, ECMWF, NCEP), ma anche enti pubblici di ricerca (ENEA, CNR, INGV). Spinti da questa mancanza e dalla necessit`a di avere invece delle figure professionali in grado di coprire questi campi, alcuni professori della Sapienza e dell’Universit`a degli Studi de l’Aquila hanno avanzato la proposta di istituire una laurea magistrale in Fisica consorziata tra i due atenei, la “Laurea in Fisica dell’Atmosfera, Meteorologia e Telerilevamento“ (FISAMT), con sede amministrativa nell’ateneo aquilano. In questo nuovo percorso, che metterebbe da subito in evidenza il suo aspetto multidisciplinare, l’Universit`a di Roma coinvolgerebbe sia il Dipartimento di Fisica che la facolt`a di Ingegneria, Elettronica e Telecomuni-
accastampato num. 12, Febbraio 2014
23
cazioni (DIET). Il dipartimento di Fisica conta su due gruppi di ricerca che si occupano di telerilevamento atmosferico (Laboratorio di Fisica Terrestre, G24) e meteorologia (The Meteorology Group, G-MET), a cui appartenevano i docenti dei corsi specialistici del vecchio curriculum di geofisica della laurea magistrale. Nel dipartimento di ingegneria (DIET) e` invece attivo un gruppo che si occupa di osservazioni di nubi e precipitazioni tramite radar e misure da satellite, ed esiste uno specifico dottorato di ricerca in “Telerilevamento”. Il Dipartimento dell’Universit`a de L’Aquila interessato e` invece quello di Scienze Fisiche e Chimiche (DSFC), che possiede ampie e riconosciute competenze in questo settore, valorizzate anche attraverso il CETEMPS (“Centro di eccellenza in Telerilevamento e Modellistica numerica per la Previsione di eventi Severi” fondato nel 2001), ma che a causa del sisma del 2009 e della mancanza di una scuola specifica di settore non riesce ad attirare molti studenti. L’organizzazione della laurea magistrale FISAMT e` stata affidata ad un Comitato Ordinatore che si sta occupando degli aspetti burocratici, economici, logistici e didattici insieme ai dipartimenti dei due atenei. L’istituzione di questo nuovo percorso di studi comunque, non richiederebbe l’assunzione di nuovi docenti da parte degli atenei, perch´e sarebbe strutturato in maniera tale da coinvolgere i professori e i ricercatori gi`a in servizio nei dipartimenti coinvolti. Il parere favorevole all’istituzione della FISAMT e` arrivato anche dall’ASI e dal CNR, che individuano in questo percorso di studi una buona opportunit`a per colmare un grave vuoto formativo e reperire personale specializzato spendibile nello sviluppo e nella ricerca. L’auspicio e` che la laurea magistrale in Fisica FISAMT venga istituita quanto prima, sia perch´e sarebbe una grande opportunit`a per gli studenti e il mondo della ricerca, sia perch´e possiede tutte le caratteristiche per divenire un altro campo di eccellenza italiana.
Bibliografia Cerca Universit`a - Docenti: http://cercauniversita. cineca.it/php5/docenti/cerca.php Proposta attivazione LM17: http://goo.gl/T8scJr CETEMPS: cetemps.aquila.infn.it Commenti on-line: http://www.accastampato.it/ 2014/02/geofisica_it/
Sull’autore Anna Maria Iannarelli (anna.iannarelli@gmail. com) e` attualmente studentessa di dottorato presso il gruppo G24 del dipartimento di Fisica dell’Universit`a Sapienza di Roma.
24
Strabilianti effetti della risonanza Sistemi oscillatori in risonanza: dagli strumenti musicali ai ponti Martina Pugliese (Dipartimento di Fisica, Universit`a Sapienza di Roma)
gni sistema capace di oscillare subisce il fenomeno della risonanza quando una sorgente esterna lo sollecita sulle frequenze di oscillazione che gli sono proprie. Un tipico esempio e` l’altalena (modellizzabile come un pendolo, che ha una sua frequenza di oscillazione dovuta alle sue caratteristiche fisiche): una cosa che fanno tutti i bambini e che risulta immediata dopo un po’ di allenamento e` imprimerle una spinta nei punti di massima distanza dalla posizione di riposo, per aumentarne gradualmente l’angolo di oscillazione. La risonanza consiste infatti nel trasferimento di energia da un sistema a un altro, in modo tale da incrementare l’ampiezza di oscillazione di quest’ultimo. In musica ci`o e` fondamentale per il funzionamento di numerosi strumenti musicali, per i quali una componente importante e` la cassa di risonanza, o cassa armonica. Essa e` strutturata in modo tale da mettersi a vibrare per effetto della vibrazione delle corde stesse, cos`ı da produrre un suono che possiamo percepire chiaramente.
fanno leva sulla risonanza simpatica (l’aggettivo simpatico viene etimologicamente da con + pathos, greco, che sta a indicare la condivisione di un sentire) e che si trovano al di sotto delle prime: l’esecutore mette in movimento le corde superiori e quelle inferiori oscillano per risonanza alle frequenze delle prime, contribuendo al suono. Il principio e` lo stesso descritto in precedenza ed e` facilmente visibile se si hanno a disposizione due diapason (il diapason e` una doppia barra metallica capace di vibrare, emettendo quindi un suono, e si usa solitamente per accordare i cordofoni su quel suono): battendone uno, l’altro, se posto sufficientemente vicino, vibrer`a spontaneamente. Analogamente accade con due pendoli. Il periodo di maggiore utilizzo della viola d’amore e` stato quello della musica barocca, improntata all’accentuazione di numerosi ornamenti stilistici come virtuosismi, acciaccature nel testo musicale (piccole note o gruppi di note aggiunte come arricchimento a una frase), presenza contemporanea di molti strumenti.
Ma la risonanza in musica non si esaurisce con la vibrazione delle casse armoniche degli strumenti. Nei cordofoni infatti, il risultato finale sonoro dovuto al pizzicamento della corda in un punto e` dovuto alla frequenza di vibrazione principale e a tutte le sue armoniche, che derivano dai moti di vibrazione secondari della corda stessa e sono a loro volta un effetto della (auto)risonanza. Il tutto mette in oscillazione la cassa armonica e cos`ı ne fuoriesce un suono, con la sua peculiare caratteristica timbrica. La frequenza si definisce come il numero di oscillazioni nell’unit`a di tempo e le armoniche di una frequenza fondamentale sono nient’altro che i multipli interi di essa: la loro presenza per risonanza arricchisce il suono principale. Questo discorso non e` relativo esclusivamente agli strumenti a corda: lo stesso vale infatti per quelli a fiato, dove a vibrare non e` una stringa di materiale bens`ı la colonna d’aria presente nel corpo dello strumento stesso, messa in vibrazione mediante le labbra dell’esecutore. In questo caso la chiusura di fori lungo la lunghezza dello strumento a fiato corrisponde al tener ferma in un punto la corda di un cordofono, generando cos`ı la frequenza principale e le sue armoniche. Il ruolo della cassa armonica o del tubo dello strumento determina di fatto la differenza tra uno strumento di qualit`a e uno pi`u modesto.
In musica la risonanza e` dunque fondamentale, ma a pensarci bene caratterizza un qualunque sistema capace di vibrare sotto una sollecitazione. Uno di questi sistemi pu`o essere per esempio un ponte: a seconda delle sue caratteristiche strutturali rischia di spezzarsi per effetto della risonanza. Nel 1940, il ponte Tacoma Narrows Bridge nello stato di Washington croll`o sotto l’effetto del semplice. . . vento. Il vento lo mise in vibrazione alla sua frequenza propria e l’oscillazione in ampiezza super`o la soglia di tolle-
O
Esistono addirittura strumenti che fanno un uso della risonanza pi`u creativo, sfruttandola come elemento cardine della propria struttura. Uno di questi, usato prettamente nel periodo che va dalla seconda met`a del diciassettesimo secolo alla prima del diciottesimo, e` la viola d’amore. Oltre alle consuete corde, possiede anche un secondo insieme di corde, dette corde simpatiche perch´e
Figura 1 – Particolare di una viola d’amore: sono ben evidenti le corde principali e quelle simpatiche.
accastampato num. 12, Febbraio 2014
25
IL RESTO DEL NEUTRINO
ranza del materiale. Similmente, per evitare un analogo risultato, i soldati, trovandosi a dover passare su di un ponte, interrompono il passo di marcia. Non e` escluso infatti che quel passo abbia frequenza pari a quella propria del ponte e ci`o potrebbe farlo spezzare, come e` successo per esempio all’Angers Bridge in Francia nel 1850. Una strabiliante e pi`u recente manifestazione di questo tipo si e` avuta nel giorno di inaugurazione del Millennium Bridge a Londra, nel 2000: il ponte and`o in risonanza per l’effetto della folla che lo attraversava, per fortuna questa volta senza danni.
Bibliografia [11] Fletcher N.N.H. e Rossing T.D. The physics of musical instruments. Springer (1998) [12] Strogatz S.H., Abrams D.M., McRobie A., Eckhardt B. e Ott
E. Theoretical mechanics: Crowd synchrony on the Millennium Bridge. In Nature, vol. 438(7064):43–44 (2005) Commenti on-line: http://www.accastampato.it/ 2014/02/risonanza/
Sull’autore Martina Pugliese (m.letitbe@gmail. com), laureata in Fisica presso l’Universit`a Sapienza di Roma, e` attualmente dottoranda in Fisica presso lo stesso ateneo. Si occupa principalmente di modellizzazione di dinamiche di linguaggio, ma suonando da anni il pianoforte, e` anche molto interessata al profondo rapporto tra musica e scienza.
Accastampato non e` un periodico, pertanto non e` registrato e non ha un direttore responsabile. E` un esperimento di comunicazione realizzato dall’associazione Accatagliato degli studenti di fisica di Roma con il duplice obiettivo di mostrare al pubblico non specialistico e agli studenti delle scuole superiori le ricerche portate avanti nell’area romana e di fornire l’occasione agli studenti universitari e ai giovani ricercatori di raccontare il proprio lavoro quotidiano e di confrontarsi con la comunicazione scientifica non specialistica. La rivista e` prodotta dal motore di composizione tipografica LATEX. I sorgenti sono sviluppati e mantenuti da Alessio Cimarelli e sono disponibili richiedendoli alla Redazione. Impaginazione: Alessio Cimarelli Copertina: Silvia Mariani
Gli articoli contenuti in questo numero sono protetti con marca digitale grazie a patamu.com
Quest’opera e` rilasciata sotto la licenza Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo 3.0 Unported. Se non specificato altrimenti, tutti gli articoli in essa contenuti sono rilasciati dai rispettivi autori sotto la medesima licenza. Per leggere una copia della licenza visita il sito web http://creativecommons. org/licenses/by-nc-sa/3.0/ o spedisci una lettera a Creative Commons, 171 Second Street, Suite 300, San Francisco, California, 94105, USA.