GEOmedia 1 2012

Page 1

Rivista bimestrale - anno XVI - Numero 1/2012 Sped. in abb. postale 70% - Filiale di Roma

www.rivistageomedia.it

La prima rivista italiana di geomatica e geografia intelligente

N°1 2012

RILIEVO E MONITORAGGIO DELLA COSTA CONCORDIA

INTERVISTA A GIOVANNI MARIA CASSERÀ X Monitoraggio con Interferometria SAR

X Webgis per il monitoraggio dei consumi energetici a livello comunale

X Disegno di legge per l'Informazione Geografica Digitale Italiana

X Rilievo 3D sopra e sott’acqua



Una nuova legge e un disegno di legge per l’informazione www.rivistageomedia.it GEOmedia, bimestrale, è la prima rivista italiana di geomatica. Da oltre 10 anni pubblica argomenti collegati alle tecnologie dei processi di acquisizione, analisi e interpretazione dei dati, in particolare strumentali, relativi alla superficie terrestre. In questo settore GEOmedia affronta temi culturali e tecnologici per l’operatività degli addetti ai settori dei sistemi informativi geografici e del catasto, della fotogrammetria e cartografia, della geodesia e topografia, del telerilevamento aereo e spaziale, con un approccio tecnico-scientifico e divulgativo. Direttore RENZO CARLUCCI direttore@rivistageomedia.it Comitato editoriale Fabrizio Bernardini, Luigi Colombo, Mattia Crespi, Luigi Di Prinzio, Michele Dussi, Beniamino Murgante, Mauro Salvemini, Luciano Surace, Domenico Santarsiero, Donato Tufillaro Direttore Responsabile FULVIO BERNARDINI fbernardini@rivistageomedia.it Hanno collaborato a questo numero: P. Mazzanti, A. Selvini, A. Nistri, A. Faccioli, M. Fumanti, G. Perrucci, M. Alessandroni, G. Ausili, M. Toppi, P. van Ootegem, D. W. Holcomb, P. Viskanic, N. Cattaneo, F. Di Maria, F. Bernardini, G. M. Casserà, M. Salvemini, L. Surace. Redazione redazione@rivistageomedia.it SANDRA LEONARDI sleonardi@rivistageomedia.it GIANLUCA PITITTO gpititto@rivistageomedia.it Marketing e Distribuzione ALFONSO QUAGLIONE marketing@rivistageomedia.it Diffusione e Amministrazione TATIANA IASILLO diffusione@rivistageomedia.it Progetto grafico e impaginazione DANIELE CARLUCCI dcarlucci@rivistageomedia.it MediaGEO soc. coop. Via Nomentana, 525 00141 Roma Tel. 06.62279612 Fax. 06.62209510 info@rivistageomedia.it ISSN 1128-8132 Reg. Trib. di Roma N° 243/2003 del 14.05.03 Stampa: Futura Grafica 70 Via Anicio Paolino, 21 00178 Roma Editore: A&C2000 s.r.l. Condizioni di abbonamento La quota annuale di abbonamento alla rivista è di 45,00. Il prezzo di ciascun fascicolo compreso nell’abbonamento è di 9,00. Il prezzo di ciascun fascicolo arretrato è di12,00. I prezzi indicati si intendono Iva inclusa. L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo. La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo. Numero chiuso in redazione il 15 aprile 2012. Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la riproduzione anche parziale del contenuto di questo numero della Rivista in qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore. Rivista fondata da Domenico Santarsiero.

geografica italiana Un’interessante attività legislativa segna l’inizio di questo anno con provvedimenti e disegni che interessano il riordino del settore geografico italiano che ha sofferto molto di mancato aggiornamento normativo per quasi mezzo secolo dall’ultima legge quadro del settore, la L. 68 del 1960. Alla fine del febbraio 2012 è stato emanato in Gazzetta Ufficiale il provvedimento di adozione del nuovo sistema di riferimento denominato ETRF2000 (2008.0) e contemporaneamente sono state approvate le nuove norme tecniche per la realizzazione di ortofoto e database topografici di livello regionale. Con questo provvedimento lo Stato italiano adotta un quarto sistema di riferimento in meno di 100 anni. Ripercorrendo la storia, ad ogni cambiamento di sistema si associano eventi epocali. Il Roma40, famoso per essere stato riferito a Monte Mario, è il sistema storicamente più diffuso per tutta la cartografia IGM in scala 1:25000 ove le longitudini si contavano centrate su Roma da zero verso Est positive e da zero verso Ovest negative. Il riferimento abbracciava solo la nostra penisola celebrando una cartografia unificata da poco di una giovane nazione che finalmente poneva fine ai vari sistemi degli stati pre-unitari. Con l'ED50, subito dopo l’ultima guerra mondiale, appena scoperta l’importanza di un sistema internazionale, si superano i confini dei riferimenti nazionali e le longitudini iniziano ad essere riferite al meridiano universale passante per Greenwich. Con l'avvento dei satelliti e del GPS nasce la necessità di utilizzare un nuovo sistema di riferimento per poter compensare le prime perturbazioni che vengono osservate nelle orbite dei satelliti. Questi infatti danno la posizione di ricevitori a Terra trovandosi su orbite ellittiche perturbate dalle variazioni dinamiche delle masse terrestri e planetarie. Si adottò pertanto un riferimento dinamico all'epoca chiamato WGS84 (World Geodetic System 1984) in Italia concretizzato nell'ETRF89 (European Terrestrial Reference System 1989). Ma l’ultima adozione segue una necessità, un pò più sottile, manifestatasi a seguito delle prime discordanze, misurate da reti di Posizionamento Satellitare Regionali GNSS, che hanno raggiunto precisioni centimetriche o sub-centimetriche. I sistemi di riferimento legati al Centro dinamico della Terra, denominati ITRF (International Terrestrial Reference System), subiscono movimenti dell'ordine di 3 centimetri all'anno. Un particolare adattamento per l'Europa, definito ETRF (European Terrestrial Reference System), garantisce in questo momento modifiche contenute entro valori millimetrici. L'ente europeo EUREF ha adottato il sistema ETRF2000 all'epoca 2008.0 (inizio del 2008) e l'Istituto Geografico Militare ha provveduto a ricalcolare dal 1 gennaio 2009 tutte le coordinate dei vertici di riferimento della rete ora denominata RDN (Rete Dinamica Nazionale). Questo porta alla variazione di tutte le coordinate dei punti geodetici di riferimento e pertanto segna la necessità di adozione del nuovo Sistema di Riferimento denominato ETRF2000 (relativo all’epoca 2008.0). Data la modesta entità delle variazioni, in pratica la cartografia non subisce variazioni, mentre saranno affetti i sistemi di monitoraggio di alta precisione. A questo scopo l’Istituto Geografico Militare provvederà a rendere i parametri di conversione liberamente disponibili agli utenti. A questo intervento legislativo si è aggiunto a fine Marzo un Disegno di Legge, presentato ad opera del Senatore Candido De Angelis, per dare delega al Governo per il riassetto delle strutture competenti in materia di gestione e fruizione dell’informazione geografica digitale utilizzando la direttiva europea INSPIRE come motore del tutto. Lo introduce Mauro Salvemini all’interno della rubrica GI in Europe, ove trovate anche i riferimenti per scaricare il testo del ddl. Un plauso a tale iniziativa dovrà arrivare da tutti noi, in special modo poi se si potrà anche provvedere al riordino degli Organi Cartografici e coprire le carenze del settore geodetico per arrivare al sogno, forse non utopico ma sicuramente troppo ambizioso, di un Testo Unico Legislativo per l’Informazione Geografica Italiana. Per il momento sarebbe già tanto poter avviare questo processo legislativo aderendo a tutti gli effetti all’Europa colmando carenze strutturali, quali ad esempio la mancanza stessa del Contact Point Italiano di INSPIRE. Ma veniamo a questo numero di GEOmedia per il quale ci sono pervenuti molti contributi relativi al naufragio della Costa Concordia, con riferimento all’impatto della geomatica in un simile disastro. Si va dal rilievo laser scanning integrato con il rilievo della parte sommersa, incluso il fondale, con il sistema integrato sopra-sotto della Codevintec, al monitoraggio in continuo dei movimenti eseguito ad opera di un professionista assistito da Topcon, fino all’analisi delle rotte di questa nave in epoche diverse effettuate utilizzando le registrazioni AIS (assistite da GPS) di una compagnia olandese che gentilmente li ha messi a disposizione della comunità. La lezione finale da trarre è comunque riepilogata in una lettera aperta inviata da Luciano Surace alle istituzioni competenti che punta l’attenzione sulla perdita di affidabilità della nostra formazione di base e specialistica. Buona lettura, Renzo Carlucci



SOMMARIO 1-2012

FOCUS

6 II

L MONITORAGGIO DEGLI SPOSTAMENTI CON NTERFEROMETRIA

SAR TERRESTRE

DI

PAOLO MAZZANTI

12 A mezzo secolo dalla scomparsa di Umberto Nistri DI

ATTILIO SELVINI

REPORTS

22

LE

ULTIME TECNOLOGIE HANNO AIUTATO I PRIMI SOCCORSI

ALLA

COSTA CONCORDIA

DI

ANDREA FACCIOLI E MARCO FUMANTI

26 Monitoraggio del relitto della nave Costa Concordia DI

GIUSEPPE PERRUCCI, MAURO ALESSANDRONI, GIORGIA AUSILI, MASSIMILIANO TOPPI

28 Tracciando una nuova rotta per la scansione in mare aperto DI

30

UN

PHILIP VAN OOTEGEM

OCCHIO DALL’ALTO CON L’INTERFEROMETRIA SATELLITARE

PER MONITORARE OPERATIVAMENTE FENOMENI DI SUBSIDENZA DI

DERROLD W. HOLCOMB

34 Il monitoraggio delle emissioni di CO2 e dei consumi energetici a livello comunale tramite WebGis DI

PAOLO VISKANIC, NELLY CATTANEO, FRANCESCA DI MARIA

38 Neanche gli dei...

DI

FABRIZIO BERNARDINI

INTERVISTA

42 Intervista a Giovanni Maria Casserà A CURA DELLA

REDAZIONE

ALTRE RUBRICHE Restituzione di un rilievo combinato della nave Costa Concordia effettuato con Multibeam Reson 7125 e laser scanner Optech ILRIS, realizzato dal Nucleo Sommozzatori dei Vigili del Fuoco con l'assistenza di Codevintec.

DI

INSERZIONISTI 3D Target Abaco Ambrogeo ArvaTech CGT Codevintec Epsilon Esri Exelis VIS Geogrà GeoSolutions Geotop

37 10 54 47 40 17 19 49 56 20 2 25

18 MERCATO 45GI IN EUROPE

Gesp Intergraph mediaGEO NBL Pitney Bowes Planetek S.A.R.A. Nistri Sinergis SurveySoft Teorema Trimble Zenit

53 44 24 18 11 55 16 4 33 51 41 21

MAURO SALVEMINI

46 LETTERA APERTA 48 RECENSIONI 52 ASSOCIAZIONI 54 AGENDA


FOCUS

Il monitoraggio degli spostamenti con Interferometria SAR Terrestre di Paolo Mazzanti

Circa un anno fa l’autore del presente articolo è stato invitato a scrivere una nota sull’Interferometria SAR Terrestre per una rivista internazionale specializzata sul monitoraggio geotecnico. A un anno di distanza ha ritenuto di interesse tradurre e aggiornare quel lavoro al fine di renderlo più facilmente fruibile alla comunità geomatica italiana.

L

a comunità geologica e geotecnica sta mostrando negli ultimi anni un crescente interesse nei confronti delle tecnologie di monitoraggio di ultima generazione e, in particolare, di quelle appartenenti all’ambito della geomatica. Le tecniche di telerilevamento sono sicuramente tra le innovazioni principali nel campo del monitoraggio geotecnico in quanto stanno introducendo la filosofia del monitoraggio “non a contatto”. In altre parole, attraverso le tecniche di telerilevamento, è possibile monitorare alcuni parametri geotecnici (es. spostamento) con strumentazioni posizionate a distanza rispetto all’area da rilevare. Alcune strumentazioni terrestri per il telerilevamento, come le stazioni totali manuali o robotizzate e i GPS (Global Positioning Systems), sono ormai accettate e comunemente utilizzate, ma non possono essere considerate delle vere e proprie tecniche “remote” poiché necessitano di riflettori o sensori sul terreno o sulle strutture monitorate. Tra le tecniche remote terrestri "non a contatto" per la misura degli spostamenti può essere invece inclusa l'Interferometria SAR Terrestre. I primi prototipi di strumentazioni TInSAR (o GBInSAR secondo diversa nomenclatura) furono sviluppati sul finire degli anni ’90 e le prime strumentazioni commerciali risalgono agli anni 2005-2006 (Figura 1). Otto anni di esperienza sull’Interferometria SAR Terrestre hanno consentito all’autore del presente articolo di seguire gli sviluppi della tecnica dalle sue prime sperimentazioni fino alle applicazioni

6

di lungo termine su problematiche geotecniche complesse. Si riportano di seguito i principi di base della tecnica TInSAR, insieme a una dettagliata descrizione delle sue caratteristiche tecniche e operative, dei principali vantaggi e limiti oltre ad alcune lezioni apprese da applicazioni pratiche. Basi teoriche e caratteristiche tecniche L’Interferometria SAR Terrestre (Luzi 2010; Mazzanti, 2011) è una tecnica per il monitoraggio degli spostamenti che si basa sugli stessi principi operativi della più nota Interferometria SAR Satellitare (Massonet & Fiegl 1998). Il principio SAR consiste nella

combinazione di molteplici immagini radar acquisite mentre le antenne di trasmissione e di ricezione del segnale si muovono lungo una traiettoria predefinita (un’orbita nel caso di satelliti, una rotta nel caso di aerei o un binario nel caso di strumentazioni terrestri) (Figura 2). In questo modo, attraverso un processo di focalizzazione delle immagini radar acquisite durante il movimento delle antenne, è possibile ottenere immagini SAR bidimensionali. Le immagini, così acquisite, sono caratterizzate da una risoluzione in range (direzione congiungente strumento-scenario) e in cross-range (direzione ortogonale a quella di range sul piano orizzontale) (Figura 2).

Figura 1 - Esempio di interferometro SAR terrestre modello IBIS-L installato su piattaforma QUIBTM.

GEOmedia n°1-2012


FOCUS L’immagine SAR che ne deriva è costituita quindi da numerosi pixel, le cui dimensioni e quantità sono strettamente legate alla distanza radarscenario e alle caratteristiche strumentali. Attraverso il confronto delle informazioni di fase (principio interferometrico) di ogni pixel omologo tra due o più immagini SAR acquisite in tempi diversi (purché dalla medesima postazione di misura), è possibile stimare lo spostamento lungo la linea di vista dello strumento, mediante la seguente equazione: Figura 2 - a) cella di risoluzione della mappa SAR; b) principio di funzionamento di un Interferometro Terrestre per l’acquisizione di immagini SAR.

dove d è lo spostamento, λ è la lunghezza d’onda del segnale radar e Δφ è la differenza di fase tra due acquisizioni. Il risultato finale del monitoraggio TInSAR è un insieme di immagini 2D in falsi colori nelle quali lo spostamento verificatosi nell’intervallo di tempo fra due acquisizioni può essere identificato e misurato nella componente parallela alla linea di vista. (Figura 3). Inoltre, qualora vengano acquisite numerose immagini SAR nel tempo, è possibile ottenere per ogni pixel dell’immagine la relativa serie temporale di spostamento (Figura 3). La risoluzione dei pixel di un’immagine SAR è compresa tra pochi decimetri e alcuni metri (in funzione delle caratteristiche strumentali e della distanza di monitoraggio) e l’accuratezza nella misura degli spostamenti varia tra alcuni decimi di millimetro e alcuni millimetri (principalmente in funzione della distanza di monitoraggio e delle condizioni atmosferiche). Per fare un esempio, a una distanza di circa 1 km le più comuni strumentazioni commerciali hanno una risoluzione in range di circa 0,5 m e una risoluzione in cross-range di 4 m. La portata massima in range è solitamente di alcuni km con una frequenza massima di campionamento del dato di pochi minuti. Gli attuali sviluppi della tecnica mirano tuttavia a una maggiore velocità di acquisizione e alla riduzione delle dimensioni strumentali. Vantaggi e limiti Come già accennato, il TInSAR è una delle poche tecniche di telerilevamento delle deformazioni realmente "non a contatto”, poiché non necessita dell’installazione di sensori o riflettori nell’area da monitorare. Questo è probabilmente uno dei maggiori vantaggi della tecnica sopratutto se si considera che l'accesso

visita il sito www.rivistageomedia.it

all’area da rilevare è spesso pericoloso (ad esempio nel caso di frane attive), difficoltoso (ad esempio nel caso di scarpate verticali) o proibito dalle autorità competenti (come avviene spesso nel caso dei monumenti di particolare pregio storico e architettonico). In certi casi, inoltre, i movimenti di un versante possono essere talmente rapidi che i sensori installati subiscono danneggiamenti e diventano così inattendibili o addirittura inutilizzabili. Un ulteriore vantaggio della tecnica TInSAR risiede nella capacità di monitorare un’intera area invece di singoli punti, riducendo così gli errori di interpretazione che possono verificarsi con le tecniche di monitoraggio puntuali. Le immagini TInSAR possono essere viste, quindi, come una fitta rete di sensori (pixel) che acquisisce dati simultaneamente su tutta l’area di monitoraggio. Questo comporta numerosi vantaggi tra i quali: aumentare

l’affidabilità statistica degli spostamenti monitorati, in quanto essi vengono registrati su molti pixel adiacenti; monitorare aree estese, consentendo così di evitare il rischio di sottostimare l’estensione dell’area in movimento; identificare la distribuzione spaziale degli spostamenti e il loro gradiente. Un altro vantaggio della tecnica TInSAR è la completa operatività in ogni condizione meteo (pioggia, nuvole, nebbia ecc.) e di illuminazione (giorno e notte) grazie all’utilizzo di un segnale nel dominio delle microonde (Banda Ku). Altre caratteristiche come l’elevata frequenza di campionamento del dato (pochi minuti), l'elevata portata strumentale (fino ad alcuni chilometri) e l’elevata accuratezza nel-

la misura degli spostamenti, rendono la tecnica TInSAR una valida soluzione per molteplici problemi nell’ambito del monitoraggio geotecnico e strutturale. Tuttavia, non possono essere sottovalutati alcuni limiti della tecnica, su tutti le difficoltà nel gestire, processare ed interpretare i dati. In caso di uso scorretto o di analisi dei dati di scarsa qualità è possibile, infatti, ottenere dei risultati errati o fuorvianti. Numerose sono comunque anche le limitazioni intrinseche della tecnica tra le quali: la

strumentazione è costituita da elementi ingombranti, tra cui un binario di lunghezza spesso superiore a 2 m; il cono di vista dell’area monitorabile da un solo sensore è limitato ad alcune decine di gradi nella direzione orizzontale e verticale (variabile in funzione delle antenne impiegate); lo spostamento può essere misurato solo lungo la linea di vista strumentale, per cui viene misurata solo una componente dello spostamento reale; lo spostamento tra due immagini SAR consecutive può essere misurato senza ambiguità solo se la differenza di fase è minore di un quarto della lunghezza d’onda (circa 4,5 mm per la tipica frequenza dal segnale utilizzato dalle principali strumentazioni commerciali. Tuttavia, tali limiti possono essere attenuati tramite un’attenta e dettagliata pianificazione del monitoraggio, ovvero tramite la scelta dell’opportuno sito di installazione degli strumenti ed un’attenta progettazione da parte di personale esperto. Per esempio, attraverso una geometria

7


FOCUS L’accuratezza nella misura dello spostamento è difficilmente paragonabile poichè dipende dalle tecniche di processing adottate e dalle condizioni sito-specifiche; tuttavia, esperimenti condotti in condizioni ideali hanno dimostrato come sia possibile ottenere accuratezze paragonabili, nell'ordine del mm o di alcuni decimi di mm.

Figura 3 - Mappa degli spostamenti sovrapposta ad una foto del versante monitorato e serie temporali di spostamenti di alcuni pixel.

di installazione il più possibile parallela alla direzione di spostamento si può attenuare il problema della misura unidirezionale dello spostamento. Attraverso un’elevata frequenza di campionamento del dato, invece, può essere fortemente ridotto il limite causato dall’ambiguità di fase. Confronto con le tecniche tradizionali Il primo confronto della tecnica TInSAR è necessariamente con l’Interferometria SAR Satellitare (SInSAR), visto che le due tecniche condividono i medesimi principi operativi. Tuttavia, essendo basate su piattaforme del tutto differenti (rispettivamente terrestre e satellitare), le differenze tra le due tecniche sono considerevoli, soprattutto per quanto riguarda i risultati attesi. La tecnica SInSAR è particolarmente adatta per il monitoraggio di porzioni estese di territorio caratterizzate da movimenti lenti (subsidenza, deformazioni vulcaniche, regioni tettonicamente attive ecc.), mentre la tecnica TInSAR è più adatta per il monitoraggio in continuo e di dettaglio di aree di limitata estensione areale (fino ad alcuni km2), caratterizzate sia da movimenti lenti che da movimenti rapidi (versanti e singole scarpate instabili, fianchi vulcanici, singole strutture o edifici ecc.). Inoltre, la tecnica SInSAR, a causa della bassa frequenza di acquisizione delle immagini (da alcuni giorni fino ad alcuni mesi, a seconda dei satelliti utilizzati), è difficilmente applicabile al monitoraggio in condizioni di emer-

8

genza ove sia necessaria un’osservazione continua, mentre è più adatta come mezzo di indagine conoscitiva grazie anche alla disponibilità di un archivio di immagini storiche a partire dal 1992. Diversamente, le immagini SAR terrestri possono essere acquisite solo a seguito dell’installazione delle strumentazioni dedicate. Di seguito viene presentato, invece, un confronto della tecnica TInSAR con le Stazioni Totali Robotizzate (RTS) visto che le due tecniche sono spesso utilizzate per applicazioni simili. Prima di tutto, la tecnica RTS è basata su tecnologia laser (ed emette, pertanto, segnali nel campo del visibile e dell’infrarosso vicino), mentre la tecnica TInSAR su tecnologia radar (emette segnali nel campo delle microonde). Dal punto di vista operativo, la principale differenza sta nel fatto che la tecnica TInSAR, a differenza delle RTS, è in grado di operare anche con la presenza di nebbia e di precipitazioni. Inoltre, la tecnica TInSAR non richiede l’installazione di sensori o target nell’area oggetto di monitoraggio che sono invece necessari per la tecnica RTS (fatte accezione per alcune applicazioni denominate “reflectorless”). Questa caratteristica risulta fondamentale per il monitoraggio di monumenti o di aree dove la sicurezza per le persone non è garantita. Di contro, la tecnica TInSAR è in grado di misurare i soli spostamenti lungo la propria linea di vista, mentre la tecnica RTS è in grado di misuraregli spostamenti lungo le tre direzioni spaziali.

Applicazioni di successo Numerose applicazioni di successo svolte negli ultimi anni hanno dimostrato l’utilità e la versatilità della tecnica TInSAR per il monitoraggio di diverse problematiche in ambito geotecnico ed ingegneristico-strutturale e in particolare per il monitoraggio in continuo e in situazioni di emergenza. La recente applicazione per il monitoraggio di un versante che insiste su un invaso artificiale in una regione montana (ad oltre 3.000 m s.l.m.), dove le condizioni atmosferiche cambiano repentinamente, ha permesso di dimostrare sul campo l’efficacia della tecnica TInSAR in qualsiasi condizione meteo. L’applicazione più complessa nella quale l’autore è direttamente coinvolto consiste nel monitoraggio di un versante instabile dove è in via di realizzazione una galleria stradale. Il versante, caratterizzato da una frana di grandi dimensioni, risultava difficilmente monitorabile con tecniche tradizionali in sito (inclinometri, Stazioni Totali, GPS) a causa della topografia accidentata e delle attività lavorative in corso che determinavano un continuo cambiamento della configurazione del versante. L’Interferometria SAR Terrestre è risultata essere la tecnica con i minori limiti operativi e una delle poche in grado di garantire il monitoraggio in continuo 24 ore al giorno con una elevata frequenza di campionamento del dato. Il sistema interferometrico è stato installato in posizione frontale e alla distanza di circa 1 km così da avere una visione completa dell’intero versante e misurare nel tempo gli spostamenti di tutti i suoi settori costituiti in parte da elementi naturali (copertura detritica, rocce affioranti) e in parte da strutture antropiche (gabbionate, paratie, pareti chiodate e tirantate ecc.). Oltre 4 anni di monitoraggio in continuo (tutt’ora in atto) con la tecnica TInSAR hanno consentito ai progettisti di prendere delle decisioni efficaci, come quella di interrompere gli scavi a seguito del repentino aumento delle velocità di spostamento, dimostrando così l’affidabilità della tecnica e la sua efficacia anche in condizione particolarmente complesse.

GEOmedia n°1-2012


FOCUS

visita iill si s sito ito to www.rivistageomedia.it www.rivistageomedia.it

9


FOCUS Oltre al caso sopra descritto, negli ultimi anni la tecnica TInSAR è stata utilizzata per numerose problematiche di instabilità gravitativa, sia per scopi di controllo che con finalità di indagine quali analisi di suscettibilità di scarpate in roccia e delimitazione con precisione di settori di scarpate, versanti o strutture antropiche affette da deformazioni. La nuova sfida della tecnica è tuttavia rappresentata dal monitoraggio di strutture antropiche (edifici, infrastrutture, monumenti ecc.) in aree urbane: se da una parte, infatti, essa offre il grande vantaggio di avere immagini di spostamento molto accurate completamente in remoto, dall’altro presenta il grande limite della misura degli spostamenti lungo la linea di vista che in molti casi rende difficile il controllo della compente verticale del movimento (tutt'altro che trascurabile in questi contesti). Per tali applicazioni quindi, l’integrazione con le tradizionali tecniche di monitoraggio risulta a tutt’oggi un requisito fondamentale. Conclusioni e prospettive future L’Interferometria SAR Terrestre è una tecnica emergente nel campo del monitoraggio delle deformazioni. Sebbene nella pratica comune non sia ancora impiegata diffusamente, la sua affidabilità e utilità è stata provata in numerose applicazioni di carattere geotecnico e strutturale quali frane e dighe, ed è molto promettente anche per il controllo di scarpate e opere antropiche. Il costo elevato della strumentazione e la complessità nell’elaborazione e nell’interpretazione dei dati possono essere considerate le principali limitazioni alla diffusione della tecnica. Tuttavia, il monitoraggio TInSAR può essere più efficace di altre strumentazioni e, in taluni casi, anche meno costoso se inquadrato all’interno di un dettagliato piano di indagine.

Abstract Displacement monitoring by Terrestrial SAR Interferometry Remote sensing techniques are one of the main innovation in the field of geotechnical and structural monitoring, since they are changing the philosophy from “contact” to “noncontact” monitoring. Over the last years Terrestrial SAR Interferometry (TInSAR) has proven to be one of the most effective solutions for the fully remote and accurate monitoring of mm displacement.

10

Figura 4 - Foto di una falesia nella Penisola del Gargano (a sinistra); mappe di spostamento 3D ottenute dalla combinazione delle immagini TInSAR e dei dati TLS (a destra): il colore giallo identifica zone stabili, mentre il colore rosso identifica settori soggetti a spostamenti.

Inoltre, l’integrazione dei dati TInSAR con quelli di altre tecniche, come il Laser Scanner Terrestre e le Stazioni Totali, può contribuire a rafforzarne l’efficacia e a semplificarne l’interpretazione dei risultati (Figura 4). E’ importante sottolineare che in ambito nazionale esistono alcune aziende altamente specializzate nella fornitura di servizi di monitoraggio con tecnica TInSAR che possono rendere tale soluzione facilmente accessibile anche ai meno esperti.

Parole chiave MONITORAGGIO REMOTO, MAPPE DI SPOSTAMENTO, RADAR, SERIE TEMPORALI DI SPOSTAMENTO. Acronimi GPS: GLOBAL POSITIONING SYSTEM RTS: ROBOTIC TOTAL STATION SAR: SYNTHETIC APERTURE RADAR SINSAR: SATELLITE SAR INTERFEROMETRY TINSAR: TERRESTRIAL SAR INTERFEROMETRY

GBINSAR: GROUND BASED SAR INTERFEROMETRY

TLS: TERRESTRIAL LASER SCANNER DTM: DIGITAL TERRAIN MODE

Bibliografia

Autori

• Luzi G. (2010) Ground based SAR interferometry: a novel tool for Geoscience. Geoscience and Remote Sensing New Achievements, 1-26 • Massonet D. & Fiegl K.L. (1998) Radar Interferometry and its application to changes in the earth’s surface. Reviews of Geophysics, 36(4), 441-500 • Mazzanti P. (2011) Displacement Monitoring by Terrestrial SAR Interferometry for Geotechnical Purposes. Geotechnical instrumentation news (Giugno 2011), 25-28.

PAOLO MAZZANTI, PHD AMMINISTRATORE DELEGATO NHAZCA S.R.L., SPIN-OFF “SAPIENZA” UNIVERSITÀ DI ROMA PAOLO.MAZZANTI@NHAZCA.COM

GEOmedia n°1-2012


D] fgklj] kgdmragfa \a Dg[Ylagf Afl]dda_]f[] h]j \an]flYj] Yf[gjY ha” [geh]lalana kmd e]j[Ylg Pi�pid^\ o`^ijgjbd\ k`m 5

<g^pid ijnomd kmj_jood 5

Â&#x; <i\gdnd \i_\h`ioj _`g h`m^\oj

Â&#x; H\kDiaj Kmja`nndji\g ¢

Â&#x; N`bh`io\udji` ^gd`iod

Â&#x; Nk`^omph ¢

Â&#x; Ndo` Gj^\odji

Â&#x; H\kDiaj B`jh\mf`odib

Â&#x; Dio`mjk`m\]dgdo‚

M`kjmo ¢

Â&#x; ?\o\ Lp\gdot

Â&#x; Nom``oKmj ¢

Â&#x; Di_dqd_p\udji` ipjq` \m`` _d h`m^\oj

Half]q :go]k :mkaf]kk Afka_`l

Qd\ Gp^\ B\pmd^j 4

O`g)5 &.4 +10/3.---/

++,/. Mjh\

k]]d)do\gt;k])^jh

ooo&hZafka_`l&al


FOCUS

A mezzo secolo dalla scomparsa di

Umberto Nistri di Attilio Selvini

Nella letteratura fotogrammetrica mondiale, due sono i nomi di italiani intesi senza ombra di dubbio come pionieri di questa disciplina: Umberto Nistri ed Ermenegildo Santoni. Forse il primo è più noto, essendo il suo nome legato all’avvento della fotogrammetria analitica: il primo restitutore di tal tipo è infatti opera della statunitense Bendix, per la parte elettronica, e della O.M.I. di Roma, fondata per l’appunto da Nistri nel lontano 1924, per la parte fotogrammetrica.

S

ia Nistri che Santoni sono stati presidenti della SIFET, Società Italiana di Topografia e Fotogrammetria, e nello stesso decennio; Umberto Nistri è scomparso a soli 67 anni proprio mentre era in carica al vertice della Società. Vale la pena oggi, a mezzo secolo di distanza, ricordare alcuni momenti della Sua vita rammentandone alcuni lavori di particolare pregio. Incominciamo proprio dal fondo, vale a dire della costruzione del restitutorie analitico. Nel pieno della fotogrammetria analogica, appena finita la seconda guerra mondiale, data la comparsa del calcolatore elettronico, a qualcuno venne in mente di far ritornare la fotogrammetria alle origini, che erano quelle numeriche, poi abbandonate quando le prese divennero aeree, per l’impossibilità di eseguire in tempi ragionevoli i calcoli divenuti enormemente più complessi. Si deve a Earl Church, che se ne era occupato già nel 1941 (CHURCH45-41), la ripresa del filo del discorso relativo alla applicabilità del calcolo numerico al problema della fotogrammetria (DORE38). Ma fu solo quasi un decennio più tardi che H. Schmid, presso i “Ballistic Research Laboratories” della U.S.Army in Aberdeen scrisse i primi programmi risolutivi delle equazioni di collinearità

12

servendosi del calcolo matriciale, risalente è vero al 1858 (A. Cayley) ed al 1878 (G. Frobenius) ma in pratica mai usato, salvo pochi semplici esempi degli anni Venti del ventesimo secolo (G. Scorza, C. Rosati) proprio per i tempi necessari alle inversioni delle matrici. Solo la nascita del calcolo elettronico risolse il problema, fornendo una inaspettata popolarità all’algebra matriciale. Le equazioni di collinearità erano ben conosciute da tempo: nel bel libro di Paolo Dore se ne parla abbondantemente nel 1938 (DORE38), quindi non vi furono difficoltà ad utilizzarle col nuovo mezzo di calcolo numerico di velocità sino ad allora inimmaginabile. Di lì ebbe origine la seconda rivoluzione in fotogrammetria (la prima era avvenuta nel 1911, con la costruzione dello Stereoautografo di Edoardo von Orel da parte della Carl Zeiss di Jena); il 30 agosto 1957 il finlandese naturalizzato canadese Uki V. Helava presentò alla conferenza internazionale di Ottawa una comunicazione relativa ad una “plotting machine based on new principles” (HELAVA57). La “macchina” era costituita da uno stereocomparatore connesso con un calcolatore elettronico (Figura 1), che venne presentato nella stessa conferenza dall’ingegnere elettrotecnico W.J.M Moore, del “National

Research Council” cui apparteneva anche Helava (MOORE63). Poca rilevanza, al di fuori dell’ambiente scientifico, ebbero le due comunicazioni; ma non appena la cosa si riseppe, le forze armate USA se ne interessarono vivamente (era l’inizio della conquista dello spazio!) iniziando gli studi per la realizzazione pratica del nuovo strumento, ben adatto fra l’altro a seguire le immagini dei lanci di vettori d’ogni genere. Vi fu una eccezione, nell’ambito dei costruttori: Umberto Nistri, poco più che sessantenne, volò negli USA con Gino Parenti, ottico di fama e direttore tecnico della O.M.I., e stipulò accordi sia con la “US-Army” che con Helava. I lavori procedettero rapidamente a Roma, ma purtroppo Nistri scomparve prematuramente nel 1962; nel 1963 sempre ad Ottawa venne presentato lo AP-2, restitutore analitico per le forze armate statunitensi insieme ad una versione civile detta AP-1C, ove per l’appunto la lettera “C” sta per “civilian”. Uki Helava, presentando gli strumenti, disse testualmente: “…it is very painful that Umberto Nistri cannot be here with us. He recognized quickly the dimension of the new concept and supported by the opinion of his prominent Italian colleagues and collaborators, decided to embark on the industrial

Figura 1 - Schema del restitutore di Helava.

GEOmedia n°1-2012


FOCUS

Figura 2 - Il restitutore analitico AP-c.

Figura 3 - Lo stereocomparatore TA-3, installato nell’Istituto di Topografia e Fotogrammetria del Politecnico di Milano.

production of the plotter. May I take in vità di Umberto Nistri, prendendo alcu- riprese aeree: del maggio 1919 è il suo primo brevetto, numero 174490, dal this occasion to pay tribute to Umberto ni dati da (OMI52). Nistri. We lost in him not only one of Come Santoni, anche Nistri era stato uf- titolo: “Apparecchio per ottenere la the pioneers in the field of photogram- ficiale osservatore da aereo durante la pianta topografica dalle fotografie stemetry, but also a very good friend, an “Grande Guerra”. Nel 1918, ad ostilità reoscopiche aeree”. Nel mese di agoexceptional personality and a man with concluse, Nistri era Comandante della sto dello stesso anno viene registrato il Scuola di Osservazione Aerea a Roma; secondo brevetto: “Determinatore di a big heart…”. Chi scrive ha ben conosciuto Umberto nell’anno successivo l’Ufficio dell’Agro posizione della negativa planimetrica Nistri ma ha avuto con lui solo pochi Romano chiese al Commissariato per aerea nello spazio al momento dell’imcontatti: allora era solo un modesto so- l’Aeronautica (l’aviazione non era anco- pressione”, che riguarda una soluzione cio della SIFET, anche se iscritto sin dai ra un’Arma e non aveva ancora un mi- analogica del problema allora chiamaprimi anni della sua costituzione; infatti nistero, che sarà costituito solo qualche to del “vertice di piramide” (la sepaaveva avuto ottimi rapporti con il primo anno dopo dal governo di Mussolini) razione dell’orientamento esterno dei presidente e fondatore della Società, il delle riprese aeree al fine della sistema- fotogrammi in “relativo” ed “assoluto” professor Giovanni Boaga, ma solo per- zione delle sponde del Tevere. Nistri, verrà più tardi per opera del tedesco ché a lui presentato da uno dei soci fon- d’accordo con l’ingegner Salatino, Otto von Gruber, che nel 1924 pubdatori, Odoardo Fantini ricevendone capo dell’Ufficio predetto, eseguì il blica il celebre scritto “Einfache und l’incarico di aprire la Sezione di Varese. lavoro con un aereo militare provvisto Doppelpunkteinschaltung im Raume”) Buona e continua amicizia ebbe invece di una macchina fotografica a funziona- (GRUBER31). con il figlio dottor Paolo Emilio, a sua mento semiautomatico, residuato degli Nel 1920 nasce il primo restitutore di volta fondatore e per molto tempo pre- apparati usati durante il conflitto per la Umberto Nistri, col quale egli ottiene la sidente dell’ANIAF, associazione delle ripresa delle linee nemiche. Lo fece, carta del Poligono di Tiro Umberto I alla imprese aerofotogrammetriche italia- a differenza di quanto sino ad allora Farnesina, in scala 1 : 1250: un successo ne: proprio da Paolo Emilio ha avuto usato, come nel caso delle riprese su incredibile per quei tempi (Figura 4). strumento venne chiamato molto materiale sul padre Umberto e Venezia da pallone frenato nel 1911 ad Lo sulla O.M.I. Ottimi rapporti ha avuto opera di Ranza e Tardivo, appoggian- Stereoproiettografo ed in esso lastre anche con Giuseppe Nistri, uno dei due do le immagini ad una serie di capisaldi ed obbiettivi di proiezione erano sepafigli del fratello di Umberto, Amedeo, rilevati in precedenza ed opportuna- rati (Figura 5), con orientamento esterscomparso prematuramente; quest’ul- mente segnalati in modo provvisorio. no globale separato delle due lastre timo contribuì a molte delle iniziative e Da quel lavoro nacque in Nistri l’idea secondo il citato problema del vertice ad alcune delle invenzioni del grande delle applicazioni cartografiche delle di piramide. pioniere della fotogrammetria. La costruzione dell’AP-c, successore dello AP-1C (Figura 2) era stata preceduta da quella del TA3 (Figura 3), stereocomparatore a tre carrelli, del tutto diverso da quelli contemporanei e dovuto al progetto di Ugo Bartorelli (SELVINI00): uno dei primi strumenti di fotogrammetria analitica “ante litteFigura 4 - La pianta del Poligono di Tiro di ram”; ma vediamo Figura 5 - Lo Stereoproiettografo. Roma, in scala 1 : 1250. ora gli inizi dell’atti-

visita il sito www.rivistageomedia.it

13


FOCUS

Figura 7 - La camera a pellicola “FOMA”.

Figura 6 - Il Fotocartografo Mod. II.

Figura 8 - Il Fotocartografo III “Aeronormal.

Dopo un secondo modello detto Fotocartografo, costruito a Milano dalla ditta Fratelli Korriphila nel 1922, sempre con orientamento assoluto globale (Figura 6), viene fondata a Roma la “Ottico Meccanica Italiana” (O.M.I.) cui sarà legata molta della storia della fotogrammetria anche non italiana, come si è detto a proposito del primo apparato analitico. Da questa azienda si staccherà la S.A.R.A., azienda ancora oggi operativa e diretta dagli eredi del fratello Amedeo. La “Società Anonima Rilevamenti Aerofotogrammetrici” aveva lo scopo di applicare il “metodo Nistri” usando gli strumenti prodotti dalla consorella O.M.I. (BEZOARI99). Negli anni Venti del Novecento, i fratelli Nistri brevettano macchine da presa aerea a lastre (l’unico supporto all’emulsione di alogenuri d’argento allora noto); assai più tardi verranno camere a pellicola come la “FOMA” in formato (18 × 18) di Figura 7. Il successivo Fotocartografo, più tardi catalogato come Mod. III (Figura 8), costituisce una pietra miliare nella storia della fotogrammetria: con esso vennero eseguite le prime mappe catastali italiane al 2000 di tipo sperimentale, non solo; ma vennero prodotte anche le carte urbane di S. Paolo in Brasile (Figura 9) e di Palermo nel nostro

14

Paese. Lo strumento, detto familiarmente “frantoio” per forma e dimensioni, venne studiato da Luigi Solaini, allora assistente del professor Gino Cassinis, nell’Istituto di Geodesia e Topografia del Politecnico di Milano (SOLAINI38). Un suo esemplare restò operativo per le esercitazioni presso l’Istituto Tecnico Statale “Carlo Cattaneo” di Milano sino agli anni Cinquanta, quando passò al Museo della Scienza e della Tecnica di tale città. A differenza di tutti i restitutori a proiezione ottica, nei quali la visione era stereoscopica sia attraverso veicoli ottici (Steroplanigrafo Bauersfeld-Zeiss) che per via anaglifica (Kelsh Plotter), lo strumento di Nistri utilizzava il sistema detto del “brillamento”, consistente nel proiettare alternativamente le immagini dei due fotogrammi su di uno

Figura 9 - Un foglio della carta di San Paolo in Brasile.

schermo (in posizione verticale, nel Fotocartografo) in modo tale che solo i punti omologhi dei raggi correttamente intersecantisi risultano fissi all’occhio dell’osservatore, mentre tutta l’immagine circostante è mobile e si contorce. Il procedimento era già noto sin dall’Ottocento, ed era stato proposto da Max Gasser, austriaco, in un brevetto del 1915, poi bloccato per ragioni belliche: è sicuro peraltro che Nistri non conoscesse questo brevetto. Vediamo ora l’attività della S.A.R.A, di cui vi è una pagina pubblicitaria in figura 10. Le mappe rilevate dalla S.A.R.A. per la Direzione Generale furono molte: 50 ettari in scala 1:500, 1.900 ettari al mille e ben 251.595 alla scala comune per il catasto di 1: 2000, mentre altri 36.176 ettari vennero rilevati al quattromila in zone poco antropizzate. Tutte superarono i rigorosi collaudi della Direzione Generale, con grande soddisfazione di committente e di esecutore dell’opera. Una esauriente relazione sulla formazione delle carte catastali col metodo Nistri è contenuta nell’articolo citato in (NISTRI49).

Figura 10 - La pubblicità della “S.A.R.A.” negli anni Trenta.

GEOmedia n°1-2012


FOCUS

Figura 11 - Il “Multiplo”, strumento tipico per la triangolazione aerea analogica.

Al IV Congresso della ISP (International Society of Photogrammetry, fondata da Edoardo Doležal nel 1910 (il primo congresso è del 1913) tenutosi a Parigi nel 1934, Nistri presenta il primo esemplare di “Fotocartografo Multiplo” ed il nuovo “Fotostereografo Alfa”, visibili nelle figure 11 e 12. Questo altro strumento abbandona la proiezione ottica, tipica della produzione Nistri, ed è invece costruito secondo il criterio della proiezione ottico-meccanica, così come lo sarà il suo successore dall’aggettivo “Beta”, che verrà però presentato solo nel secondo dopoguerra a Washington e che subirà molte modifiche, venendo corredato dal “Veltropolo”, sistema di guida del coordinatografo, che sotto certi aspetti anticipa i moderni cursori della fotogrammetria analitica (Figura 13). Nel 1965 poi, la O.M.I., ormai scomparso Umberto Nistri, produrrà anche un restitutore a proiezione meccanica, su progetto Astori-Parenti, detto “RA II”; prodotto in pochi esemplari, uno di questi venne acquistato, su consiglio dello scrivente che vi insegnava Topografia, dall’Istituto Tecnico Statale per Geometri “Carlo Cattaneo” di Milano. Tornando ora all’anteguerra, Umberto Nistri è nel 1938 consigliere della Società Italiana di Fotogrammetria “Ignazio Porro” (SIFIP) (SELVINI01) e membro della Società Internazionale, presieduta per la prima volta da un italiano: il professor Gino Cassinis, mentre suo segretario è il direttore generale del Catasto ingegner Michele Tucci. Mercoledì 28 settembre 1938, in una atmosfera gravida di pesanti presagi per la situazione politica europea, si inaugura a Roma il V Congresso internazionale della ISP. La sede è il Palazzo della Matematica nella nuova città universitaria dell’Urbe: in Figura 14, l’ingresso delle autorità; in primo piano da sinistra a destra, si vedono Gino Cassinis

visita il sito www.rivistageomedia.it

Figura 12 - Il Fotostereografo Alfa, a proiezione ottico-meccanica.

presidente, in divisa, il Ministro delle Finanze Paolo Ignazio Maria Thaon di Revel in borghese, il segretario generale Michele Tucci sempre nella divisa del Partito. Al retro del ministro, Umberto Nistri anche lui in divisa, così come l’allora assistente di Cassinis professor Luigi Solaini che gli sta immediatamente dietro nella fotografia; l’appartenenza al PNF era d’obbligo per i professori universitari e per i dirigenti statali. Gli ottimi ed amichevoli rapporti fra Nistri e Cassinis erano già noti a metà degli anni Trenta; in figura 15 l’inizio di una lettera inviata dall’allora Regio Istituto Superiore di Ingegneria di Milano (poi Regio Politecnico) ad Umberto Nistri (copia della lettera è in possesso dell’autore di questo articolo) da cui si evince il tono cordiale del mittente. Nistri sarà più avanti fra i docenti del corso internazionale di fotogrammetria che si terrà, fra gli anni Cinquanta e Sessanta, nell’Istituto ormai diretto da Luigi Solaini, essendo stato Cassinis nominato nel frattempo Rettore del Politecnico. Allo scopo era stato creato

Figura 13 - Il Fotostereografo Beta 2.

il “C.A.S.F.”, Centro Addestramento e Studi Fotogrammetrici, nel quale insegnavano fra gli altri i migliori studiosi italiani, da Solaini a Cunietti ed Inghilleri, da Santoni a Nistri. Dopo la morte del grande pioniere della fotogrammetria, la sua azienda continuò per un decennio l’attività nel settore della restituzione; vennero prodotti i successori dell’AP-c, sino al modello AP-6; vennero costruiti anche dei buoni restitutori a proiezione ottica e visione anaglifica, come il Photomapper VI, attivo per esempio nel Politecnico di Milano per le esercitazioni del corso di fotogrammetria per gli studenti di ingegneria civile. Nel frattempo la produzione della O.M.I. si era rivolta agli strumenti per il volo. Molte furono, dopo gli anni Settanta, le vicissitudini della prestigiosa azienda romana: per esempio si legge su Google quanto segue: “Ottica Meccanica Italiana (OMI) was an Italian company producing photogrammetric instruments. It was founded in Rome in 1926 by Umberto Nistri (1895 - 1962).

Figura 14 - Inaugurazione del congresso internazionale ISP a Roma, 1938.

15


FOCUS From 1962 on, Raffaello Nistri (19201981), son of Umberto, was president of the company. Since the 1980s the company has been part of a part of Agusta. The air photography branch split into S.A.R.A. Nistri and Aerofotogrammetrica Nistri.” Ciò è solo parzialmente corretto; di fatto la O.M.I. venne incorporata nella EFIM, cui appartenevano per l’appunto anche le Officine Agusta di Cascina Costa (Varese), produttrici di elicotteri e di motociclette (MV). EFIM fu poi sciolta con decreto del 1992, ed anche O.M.I. in pratica scomparve; la S.A.R.A., come si è già detto, era già da molti decenni separata dalla O.M.I. e per fortuna è ancor oggi viva ed attiva, continuando così in qualche modo l’attività originaria di Umberto ed Amedeo Nistri. Purtroppo invece nessuno più costruisce oggi in Italia strumenti per la presa e per la restituzione fotogrammetrica; uguale sorte è toccata alla produzione degli strumenti topografici, dopo la scomparsa della milanese Salmoiraghi e delle Officine Galileo di Firenze (SELVINI09): il primato italiano, ancora così vivo negli anni della ricostruzione seguiti all’infausto 1945, è ormai solo un ricordo, che però non va negletto.

16 6

Figura 15 - La lettera di Cassinis a Nistri.

Bibliografia • (CHURCH45-41) Earl Church, Analitical compensation in Aerial Photogrammetry. Photogramm. Eng., 1941 - Revised Geometry of the Aerial Photography. Syracuse University, 1945. • (DORE38) Paolo Dore,Fondamenti di fotogrammetria, Zanichelli Editore, Bologna, 1938. • (HELAVA57) Uki V. Helava New principle for photogrammetric Plotters. Photogrammetria, n° 2, 57/58. • (MOORE63) Walther J.M.Moore Consideration in the design of an electronic computer for a photogrammetric plotting instrument. Canadian Surveyor, n° 2/63. • (SELVINI00) Attilio Selvini Storielle semiserie di topografi e fotogrammetri. Rivista dell’Agenzia del Territorio, n° 2/2000. • (OMI52) OMI- Uff. Commerciale Storia dell’aerofotogrammetria di Umberto Nistri. Stab. Tip. Danesi, Roma, 1952. • (GRUBER31) Otto von Gruber Handbuch der Photogrammetrie. Lausanne,1931. • (BEZOARI99) Giorgio Bezoari, Attilio Selvini Gli strumenti per la fotogrammetria, Liguori ed., Napoli, 1999. • (SOLAINI38) Luigi Solaini Studio sperimentale del Fotocartografo Nistri Mod. Aeronormal. Memorie della Ricerca Scientifica, Roma, n° 9, 1938. • (NISTRI49) Umberto Nistri La evoluzione della tecnica per la formazione delle mappe catastali a mezzo del metodo aerofotogrammetrico. Rivista del Catasto e dei SS.TT.EE., Roma n.° 1/ 1949. • (SELVINI01) Attilio Selvini Dalla SIFIP alla SIFET. Boll. SIFET, n.°1/2001. • (SELVINI09) Attilio Selvini C’era una volta l’Industria Ottico-Meccanica italiana. Rivista dell’Agenzia del Territorio, Roma n.° 3/2009.

Abstract

Parole chiave

Half century after the death of Umberto Nistri In the photogrammetric world literature, two are the names of Italians people understood without doubts as pioneers of this discipline: Umberto Nistri and Ermenegildo Santoni. The first maybe is best known, his name being linked to the advent of analytical photogrammetry: the first plotting instrument of this type is in fact the work of the U.S. Bendix, for the electronic part, and the OMI of Rome, founded by Nistri precisely in 1924, for the photogrammetric part.

AEROFOTOGRAMMETRIA, RESTITUTORE ANALITICO, CARTOGRAFIA.

Ringraziamenti Si ringrazia la S.A.R.A. NISTRI e in particolare l'ing. Alberto Nistri per la gentile collaborazione ed il materiale fornito.

Autore ATTILIO SELVINI ATTILIO.SELVINI@POLIMI.IT

POLITECNICO DI MILANO, SCUOLA DI ARCHITETTURA E SOCIETÀ. GIÀ PRESIDENTE DELLA SIFET (1995-1998).

GEOmedia GE GEO G EO E Ome med m ed e diia a n°1 n n°1-2012 °1-2 °1 -20 -201 20 2 2012 201 0 01 12


Noi parliamo d’Eccellenza e i nostri Clienti danno i numeri...

3 sistemi multibeam consegnati ai Nuclei Operativi Sommozzatori dei Vigili del Fuoco per operazioni di monitoraggio delle coste e di primo soccorso, per dipartimenti di Roma, Milano e Reggio Calabria.

Foto: NASA’s Earth Observatory

Foto: Le Matériel de Sondage

Foto: INGV, Catania

8 sonde multiparametriche e 3 correntometri Doppler venduti per il monitoraggio delle correnti e delle acque dello stretto di Messina.

5 sistemi georadar venduti in un mese ad Università, società private, CNR per applicazioni di Ingegneria Civile, controlli non distruttivi, indagini stratigrafiche...

8 stazioni sismiche digitali con nuova tecnologia V-SAT consegnate all’INGV di Catania per l’ampliamento della rete sismologica dell’Etna. Codevintec – sistemi ad alta tecnologia per le Scienze della Terra e del Mare. Laboratorio autorizzato per riparazioni, collaudi ed integrazione di sistemi.

Codevintec Italiana Via Labus, 13 - Milano tel. +39 02 4830.2175 info@codevintec.it www.codevintec.it

CODEVINTEC Tecnologie per le Scienze della Terra


MERCATO A maggio il lancio di ENVI 5.0 E' oramai prossimo il rilascio della nuova versione del software ENVI per il trattamento delle immagini telerilevate. Per questo Exelis Visual Information Solutions Italia sarà presente a varie conferenze e workshops per presentare tutte le nuove caratteristiche e potenzialità. Ecco le tappe del fitto calendario degli eventi in Italia dove sarà possibile seguire la presentazione di ENVI 5.0: • il 18 e 19 aprile presso la Conferenza Utenti Esri Italia a Roma, • il 15 e 16 maggio presso HSI 2012 (3rd Annual Hyperspectral Imaging Conference) a Roma, • dal 12 al 15 giugno ad EUREGEO (7th EUropean Congress on REgional GEOscientific Cartography and Information Systems) a Bologna, • il 14 e 15 giugno al Workshop "Telerilevamento nell’analisi dei rischi naturali ed antropici" di Bologna. L’evento che rappresenterà il lancio ufficiale di ENVI 5.0 per la clientela italiana sarà l’ENVI e SARScape User Group che si terrà a Roma il 13 Giugno prossimo. (Fonte Exelis)

Trimble acquisisce Gatewing e i suoi droni per la fotogrammetria L'azienda statunitense Trimble, ha acquisito la belga Gatewing, fornitrice di aerei leggeri senza equipaggio (unmanned aerial vehicles, UAV) per la fotogrammetria e le applicazioni rapide di mapping del terreno. L'acquisizione amplia le piattaforme Trimble per la topografia. I droni UAV, in combinazione con la fotogrammetria, sono una tecnologia emergente che fornisce una piattaforma innovativa, flessibile e facile da usare, per la cattura di immagini aeree. Gli utenti hanno la possibilità di creare Digital Surface Models (DSM) e ortofoto a partire da immagini aeree per zone di medie dimensioni, in precedenza accessibili solo a costi molto più elevati e con cicli di pianificazione più lunghi. I droni sono utilizzati in un'ampia gamma di applicazioni, tra cui le indagini preliminari per corridoi e diritti di passaggio, le indagini volumetriche e i rilievi topografici di alto livello. Le soluzioni Gatewing comprendono l'UAV X100 e il desktop software Stretchout per l'elaborazione e l'analisi di immagini digitali. L'X100 è un velivolo ultra-light: pesa circa 2kg ed è composto da una cellula con un GPS integrato, un sistema inerziale e una radio, una fotocamera da 10 megapixel e la batteria. Utilizzando il Trimble Yuma tablet PC, viene predefinita un'area di volo del drone, che poi è completamente indipendente, dal lancio all'atterraggio. Il terreno è mappato con traiettorie di volo parallele e consecutive, con inquadrature che si sovrappongono durante il volo. La stazione di terra (Ground Control Station, GCS) viene utilizzata per monitorare la missione e dà all'operatore un'anteprima della qualità dell'immagine, oltre alla possibilità di intervenire e interrompere il volo, se necessario. La mappatura definitiva è costituita da una serie di immagini digitali contrassegnate con le coordinate GPS. (Fonte: GIM International)

Envisat ha interrotto i contatti con la Terra Dopo 10 anni di servizio, Envisat ha smesso di trasmettere dati a Terra. Il controllo della missione ESA sta lavorando per ristabilire un contatto con il satellite, anche se le speranze sono poche in quanto Envisat è già rimasto in orbita il doppio del tempo previsto. ESA proverà a mantenere il satellite in servizio almeno fino al lancio della missione Sentinel, suo successore. Il primo segno del problema è arrivato l'8 aprile, quando il contatto con il satellite è stato inaspettatamente perso, impedendo la ricezione di tutti i dati trasmessi alla stazione di terra Kiruna, in Svezia. Dichiarata l'emergenza, un team di specialisti delle operazioni e delle dinamiche di volo ha passato i giorni scorsi cercando di ristabilire le comunicazioni con il satellite. Sebbene sia chiaro che Envisat rimane in un'orbita stabile attorno alla Terra, gli sforzi per riprendere il contatto con il satellite finora non hanno avuto successo. E' il satellite di Osservazione della Terra più complesso in quanto trasporta 10 strumenti sofisticati che hanno fornito le principali informazioni sulla nostro ambiente, gli oceani, il ghiaccio e l'atmosfera. In combinazione con i dati delle missioni ERS a partire dal 1991, Envisat ha fornito misurazioni precise sui cambiamenti climatici negli ultimi 20 anni. Più di 4000 progetti in oltre 70 paesi sono stati supportati con i dati di Envisat. I dati presenti negli archivi continueranno ad essere disponibile per gli utenti. (Fonte ESA)

18

GEOmedia n°1-2012


MERCATO

Nuove opportunità per il rilievo e la topografia con Microsurvey Educational La Microsurvey attraverso la Surveysoft, distributore italiano dei suoi prodotti, dà la possibilità, anche per il mondo universitario e scolastico secondario superiore ad indirizzo tecnico del nostro paese, di utilizzare i software per topografia e rilievo con la formula ESS (Education Software Solution), che consiste nel dotare gli Istituti e Dipartimenti Universitari interessati, di licenze gratuite dei software uguali a quelle commerciali quindi non limitate nell’uso e senza scadenza. La licenza viene fornita su USB Key da abilitarsi sulla rete di computer presente in aula fino ad un massimo di 99 licenze per singola chiave. La soluzione ha già incontrato il favore di vari dipartimenti universitari che si occupano di rilievo e topografia tra i quali: Politecnico di Torino, Università di Firenze, IUAV di Venezia, Università di Ferrara, Università di Palermo, Università dell’Aquila, Università di Bologna. I software inseriti nella soluzione educational sono: Star*Net, considerato, a livello accademico, il miglior software di compensazione delle reti, adesso implementato dalla funzione di compensazione delle reti GPS - GNSS e dotato di convertitori che facilitano l’import dei dati. PointCloud: software per il trattamento dei dati LIDAR da Laser Scanner , con CAD Autonomo dotato di motore di rendering avanzato utilizzato su prodotti quali: 3D Studio, Solidworks, Pro Engineer e Microstation. MS CAD: il cad topografico che copre ogni necessità del rilievo e della successiva elaborazione (MDT , COGO, ecc) basato sul CAD Intellicad, non necessita di moduli aggiuntivi e si può utilizzare come sostituto di programmi CAD nella progettazione. FieldGenius: considerato una pietra miliare nel software topografico da campo, interfacciabile alla strumentazione topografica e GPS di vari produttori (l’elenco viene costantemente aggiornato) e installabile su vari modelli di Palmare e Tablet PC. La sua semplicità e la rapida curva di apprendimento nascondono un potente motore che consente l’uso di grafica ad alta risoluzione anche su palmari “Datati”. FieldGenius permette di effettuare sul campo qualsiasi lavoro topografico, dal rilievo con Stazione Totale e/o GPS al picchettamento del progetto stradale precedentemente configurato in FieldGenius, in Italiano. La Microsurvey è una società Canadese che da 25 anni produce software per la topografia, i suoi prodotti vengono utilizzati con soddisfazione in oltre 100 Paesi. La Surveysoft, distributrice dei prodotti Microsurvey in Italia, è impegnata al fianco del Team Canadese per la traduzione dei software e la commercializzazione. Per maggiori informazioni potete contattare la SurveySoft: info@surveysoft.it (Fonte: SurveySoft)

visita il sito www.rivistageomedia.it

19


MERCATO Topcon Sokkia RoadShow Si inaugura il prossimo 19 aprile con la prima tappa di Palermo il road show organizzato da GEOTOP per presentare le novità TOPCON e SOKKIA. Da aprile a giugno il tour farà tappa presso alcune delle principali città italiane. Ciascun evento, della durata di un giorno, sarà dedicato alla presentazione dei prodotti, delle soluzioni Topcon-Sokkia e delle esperienze con l’intera gamma della strumentazione dei due prestigiosi marchi. I luoghi individuati inoltre, offriranno ampio spazio da dedicare alle sessioni pratiche, ed al conseguente scambio di esperienze tra professionisti del settore. In conclusione, un’occasione imperdibile per chiunque, geometra, topografo libero professionista, dipendente di azienda privata o Ente pubblico, docente di Istituto di Istruzione Superiore e Università, che desidera vedere e provare le nuove Stazioni Totali, i ricevitori GNSS e le soluzioni software per la campagna e l’ufficio, studiate su misura da Geopro per la strumentazione Topcon e Sokkia. 19 aprile 2012, PALERMO, Sporting Village Viadotto Carlo Perrier, 3 - 90125 (PA), www.sportingpalermo.it 3 maggio 2012, EMPOLI (FI), Locanda Borgo San Giusto Via Salaiola, 151 - 50053 Empoli (FI) www.borgosangiusto.it 8 maggio 2012, BARI, Barion Hotel & Congressi, Strada Statale 16, Km 816 - 70126 (BA) www.barionhotel.it 10 maggio 2012, ROMA, Hotel Petra & Residence Via Sante Vandi, 124 - 00173 (RM) www.hotelpetra.it 29 maggio 2012, NAPOLI Villa Signorini Via Roma, 43 - 80056 Ercolano (NA) www.villasignorini.it 5 giugno 2012, PADOVA Hotel Relais delle Badesse Via Moratti / Via Badesse, S. M. D. Badesse Borgoricco (PD) www.hotelrelaisdellebadesse.it • 7 giugno 2012, TORINO Jet Hotel Via della Zecca, 9 - 10072 Caselle Torinese (TO) www.jet-hotel.com • • • • • •

COME ISCRIVERSI: La partecipazione agli eventi è gratuita. Per l’iscrizione ad una delle tappe collegarsi al sito www.geotop.it e compilare il form con tutti i dati richiesti. SEGRETERIA ORGANIZZATIVA: marketing@geotop.it (Fonte: GEOTOP)

Corso gis e telerilevamento di Planetek Italia - 17° anno In un contesto moderno, in continua evoluzione, in cui si deve muovere chi si occupa di GIS e Telerilevamento, è fondamentale tenere conto di una serie di capisaldi ormai consolidati, dalla direttiva INSPIRE, al programma GMES, fino alla loro applicazione a livello nazionale. La 17a edizione del Corso GIS & Telerilevamento si svolge a Bari dall’11 al 15 giugno 2012. Programma e pre-iscrizioni al link: www.planetek.it/GISeTLR Nel corso delle 5 giornate si alterneranno le informazioni teoriche alle esercitazioni pratiche in cui si farà uso di software specialistici commerciali ed open source. Le attività pratiche saranno riferite a casi pratici ed applicazioni reali nel campo della gestione urbanistica e del monitoraggio ambientale. Partendo dall`elaborazione di immagini telerilevate da satellite, si arriverà alla creazione di un Sistema Informativo Territoriale ed alla sua pubblicazione su Web finalizzata all’integrazione in un’Infrastruttura di Dati Territoriali (IDT). Al termine del corso quindi si realizzerà un vero e proprio progetto GIS completo relativo ad un caso applicativo reale. Il corso si rivolge quindi a liberi professionisti, a tecnici ed operatori di aziende del mercato dell’energia, delle infrastrutture, dell’agricoltura, delle reti tecnologiche e dei trasporti, a funzionari della Pubblica Amminstrazione nonché a ricercatori e studenti. Per tutte le altre informazioni potete contattare Planetek telefonicamente allo 080.9644200 o per email formazione@planetek.it (Fonte: PLANETEK)

20

GEOmedia n°1-2012


MERCATO Intergraph Geospatial Partners Conference Intergraph Italia SG&I annuncia la "Intergraph Geospatial Partners Conference", l'evento indirizzato ai Partner della divisione Security, Government & Infrastructure, che si terrà il prossimo 21 Giugno a Roma. La conferenza ha l’obiettivo primario di illustrare le ultime novità organizzative e tecnologiche avutesi a seguito dell’acquisizione di Intergraph Corporation da parte di Hexagon e, in particolare, dell'integrazione della società ERDAS (leader nei settori del Remote Sensing e dell’Image Processing) e della sua componente di offerta, nell’organizzazione e nel relativo portafoglio di soluzioni tecnologiche di Intergraph stessa. Questa acquisizione, insieme a molti altri avvenimenti e sinergie venutesi a creare all’interno di Hexagon (non ultima la forte collaborazione con i cugini di Leica Geosystems), ha generato anche importanti cambiamenti a livello organizzativo, attraverso la creazione di una nuova Business Unit, chiamata Geospatial che, pur mantenendosi focalizzata sulla proposta di soluzioni e sviluppo di progetti nei propri segmenti tradizionali (Pubblica Amministrazione, Trasporti e Difesa & Intelligence), ha obiettivi molto importanti per il raggiungimento della leadership anche nel settore delle piattaforme tecnologiche Geospaziali “di base”. L'evento sarà un'occasione importante per poter illustrare ai Partner Intergraph ed Hexagon le novità brevemente citate e per poter discutere il piano di supporto al canale in via di definizione. I Partner avranno inoltre l'opportunità di presentare la propria organizzazione, le strategie e le proprie soluzioni, al fine di incominciare a creare un network di relazioni che permetta di sviluppare e promuovere nei prossimi anni significative collaborazioni applicativoprogettuali. L'evento si terrrà il 21 giugno presso la Sala Leonardo dell’Hotel Cavalieri Hilton di Roma. Per maggiori informazioni si prega di contattare la Responsabile Marketing SG&I, Sara Tomassini via email sara.tomassini@ intergraph.com o telefonicamente al numero 06.43588889.

Adozione del nuovo sistema di Riferimento Geodetico Nazionale In attuazione dell’art. 59 del Codice dell’Amministrazione Digitale (CAD), pubblicati sulla Gazzetta Ufficiale n. 48 del 27 febbraio 2012 (Supplemento ordinario n. 37) i decreti ministeriali del 10 novembre 2011 del Ministro per la pubblica amministrazione e l’innovazione, di concerto con il Ministro dell’ambiente e della tutela del territorio e del mare, con i quali sono definite le prime regole tecniche sui dati territoriali per la pubblica amministrazione. In particolare, i decreti ministeriali definiscono le regole tecniche per: • la formazione la documentazione e lo scambio di ortofoto digitali alla scala nominale 1:10.000, con riferimento alle applicazioni di tipo cartografico e alle applicazioni di tipo tematico; • l’adozione del Sistema di riferimento geodetico nazionale; • la definizione delle specifiche di contenuto dei database geotopografici. L'Italia pertanto adotta in maniera unitaria al livello nazionale -obbligatorio pertanto per tutte le Regioni- un nuovo sistema di riferimento così denominato: Realizzazione ETRF2000 - all'epoca 2008.0 - del Sistema di riferimento geodetico europeo ETRS89, ottenuta nell'anno 2009 dall'Istituto Geografico Militare. Il nuovo sistema si aggiunge pertanto agli altri con i quali, purtroppo, è necessario confrontarsi in Italia: Roma40 (cosidetto Gauss-Boaga), ED50 (European datum 1950), WGS84 (World Geodetic System 1984), Svariati Sistemi Catastali l'Art. 3 , sulla fomazione di nuovi dati, prevede che: "A decorrere dalla data di pubblicazione sulla Gazzetta Ufficiale della Repubblica italiana del presente decreto, le amministrazioni utilizzano il Sistema di riferimento geodetico nazionale per georeferenziare le proprie stazioni permanenti, nonche' per i risultati di nuovi rilievi, le nuove realizzazioni cartografiche, i nuovi prodotti derivati da immagini fotografiche aeree e satellitari, le banche dati geografiche e per qualsiasi nuovo documento o dato da georeferenziare." L'Istituto Geografico Militare dovrà per legge distribuire gratuitamente i parametri per la trasformazione di vecchi dati nei nuovi. (Fonte DigitPA)

(Fonte: Intergraph)

visita il sito www.rivistageomedia.it

21


REPORTS

Le ultime tecnologie hanno aiutato i primi soccorsi alla Costa Concordia di Andrea Faccioli e Marco Fumanti

Grazie alla geomatica e alle tecnologie più avanzate è stato ricostruito in poche ore un rilievo tridimensionale - sopra e sott’acqua - dello scafo e del fondale relativo al naufragio della nave Costa Concordia utilizzando un sonar Multibeam Reson 7125 e un laser scanner Optech ILRIS HD con interventi condotti in condizioni di estrema sicurezza, garantendo la protezione sia dei soccorritori che del delicato ambiente naturale.

I

l 13 gennaio 2012, alle ore 21:35, la lussuosa nave da quale direzione e in che modalità si potrà eventualmencrociera Costa Concordia, con oltre 4000 persone a bor- te muovere il relitto. Tutto questo per poter inviare i do, impatta contro uno scoglio nelle acque dell’Isola del soccorsi - sommozzatori e speleologi - all’interno del Giglio. L’incidente costa la vita a 30 persone e al momento relitto nella massima sicurezza, nonché poter dare il via di andare in stampa ancora 2 risultano disperse. alle delicate operazioni di bunkeraggio. Squadre di sommozzatori dei Vigili del Fuoco sono state Il 18 gennaio 2012 Nereide viene mobilitata installando richiamate da tutta Italia. In particolare, il Nucleo Opera- strumenti di ultima generazione: un multibeam Reson tivo di Milano è intervenuto con l’imbarcazione Nereide, SeaBat 7125-SV2 con 512 beam e angolo di copertura un gommone cabinato a chiglia rigida equipaggiato per di 165°, un laser scanner Optech ILRIS HD con portata ricerche strumentali. di oltre 1500 metri, sensori di moto, un sistema di poIl 17 gennaio 2012 alle ore 18:47, vista la criticità del- sizionamento satellitare, una girobussola e il software la situazione, i Vigili del Fuoco richiedono il supporto PDS2000 per l’acquisizione e l’elaborazione dei dati, di Codevintec. I nuclei sommozzatori di Milano, Roma sia batimetrici che lidar. Una volta interfacciati tutti gli e Reggio Calabria hanno infatti acquistato da pochi strumenti, si provvede alla calibrazione e alla loro sinmesi strumentazione di rilievo da cronizzazione. Un problema sorge Telecom Italia (di cui Codevintec è Arrivando al Giglio - alle prime nella sincronizzazione dei dati laser partner tecnologico); in particolascanner e dei sensori di movimenre l’addestramento non è ancora luci dell’alba - la sensazione è to. Probabilmente causato dalla dicompletato, il training avanzato è versa impedenza di cavi e connetpianificato proprio per le settimane stata quella di trovarsi di fronte tori usati per inviare il segnale di immediatamente successive al disasincronia proveniente dal ricevitore stro. Serve un supporto tecnico per a un gigante addormentato. GPS a tutti i sensori impiegati. La garantire il corretto utilizzo degli mancanza di tempo non permette strumenti. La priorità del momento Ma al porto si poteva percepire di andare a fondo del problema; è rilevare dettagliatamente il fondal’unità di crisi preme: la priorità è le su cui poggia il relitto, verificare la tragedia appena consumata. avere urgentemente un quadro lo stato dello scafo e monitorarne i della situazione per garantire la siMercoledì 18 gennaio – ore 7:18 movimenti, anche per prevedere in curezza dei soccorritori.

Figura 1 - L’imbarcazione Nereide del Nucleo Sommozzatori dei Vigili del fuoco di Milano.

22

Figura 2 - Le operazioni all'interno della Nereide: visione in tempo reale dei dati durante l'acquisizione.

GEOmedia n°1-2012


REPORTS

Figura 3 - Laser Scanner da terra in azione.

Abbiamo visto che la nave poggia su due scogli, uno a poppa, piuttosto ampio, e uno a prua, un po' più piccolo. In mezzo, invece, c'è sabbia. Non abbiamo la competenza per fare delle previsioni, ma le prime rilevazioni mostrano che la

nave non si sta muovendo:

si sta solo deformando, cioè accasciando, sugli scogli.

Il rilievo dal mare La natura particolare dell’area da indagare pone una grande sfida: lo scafo liscio di metallo della Costa Concordia si comporta come uno specchio per le onde acustiche del multibeam, creando ombre e false presenze. Ma il Reson 7125 é equipaggiato con l’opzione FlexMode e può indirizzare il maggior numero di beam sonar verso l’area di interesse, evitando quelle che possono creare dei problemi. L’opzione FlexMode, disponibile nella maggior parte della nuova serie di multibeam Reson, permette di dirigere i beam verso il fondale marino in modo molto efficiente. Si può ad esempio concentrare la maggior parte dei beam in un’area di interesse (una pipeline che necessiti di alta risoluzione, oppure verso banchine dei porti per verificarne lo stato e rilevare eventuali deformazioni, fessurazioni o rotture). Il tutto mantenendo un sufficiente numero di punti per dato batimetrico su tutti i 165° disponibili. Anche le nuove funzioni presenti nel rinnovato software di acquisizione ed elaborazione PDS2000 sono di grande aiuto, come il velocissimo modulo grafico interattivo per la calibrazione dei diversi sensori e l’interfaccia con i laser scanner più diffusi. Si affronta la sfida, ma gli strumenti sono dalla nostra parte. E i risultati ci danno ragione. Rilievo da terra Lo stesso Laser Scanner utilizzato sul Nereide per le indagini in dinamico, viene usato per rilevare il relitto da terra, da una posizione statica. I risultati saranno il riferimento per i rilievi svolti successivamente dall’Università di Firenze, con lo scopo di analizzare non solo i possibili movimenti del relitto ma anche le sue deformazioni. Questa tecnica è utilizzata comunemente per monitorare frane, strutture ed infrastrutture: milioni di punti 3D compongono l’immagine laser, che può essere confrontata con successive immagini per ottenere la mappa delle deformazioni della Costa Concordia. Il modello virtuale Il 18 gennaio i due strumenti insieme creano un modello virtuale di tutta l’area di intervento, geometricamente preciso, fornendo una sorta di fotografia 3D ad alta risoluzione, come se fosse scattata in assenza di acqua. I dati batimetrici sono combinati con quelli laser: sebbene sfruttino due diversi concetti di misurazione (il sonar si basa sui principi acustici, il Laser su quelli ottici) entrambi producono den-

visita il sito www.rivistageomedia.it

se nuvole di punti che possono essere fuse in una immagine unica. Il tutto in tempi rapidissimi: il pomeriggio alle 15 il modello 3D dello scafo, del fondale su cui poggia e di quello antistante l’Isola sono consegnati al Comandante responsabile dell’unità di crisi, al coordinatore delle operazioni della Costa Crociere e alle altre parti tecniche coinvolte. I partecipanti dell’unità di crisi sono molto impressionati dalla capacità di avere un modello virtuale del relitto, che fornisce loro la possibilità di analizzare scafo e fondale da più angolazioni, di misurarlo, di individuare oggetti e corpi estranei sul fondale. Le decisioni in merito alle operazioni di soccorso si basano ora su elementi certi e noti.

Figura 4 - Integrazione delle nuvole di punti Multibeam con Laser Scanning.

L’avvio del monitoraggio Il 19 gennaio 2012 l’ INGV (Istituto Nazionale di Geofisica e Vulcanologia) installa una stazione sismica Nanometrics Taurus gestita dal dr. geol. Gilberto Saccorotti. Il sistema studia l’attività sismica nell’area, rilevando i movimenti tellurici che potrebbero indurre instabilità nel relitto (come avvenuto in occasione dei terremoti del 25 e 27 Gennaio) e studiando eventuali effetti sismici indotti sulla terraferma dagli spostamenti e dalle deformazioni della nave stessa.Codevintec fornisce anche la propria conoscenza della soluzione GNSS suggerendo un utilizzo non convenzionale delle tecniche GPS RTK per monitorare in tempo reale i movimenti della nave: coinvolgendo la società HERA di Grosseto viene posizionata una stazione di riferimento a bordo della nave ed una stazione mobile – in realtà ferma – nei pressi dell’Unità di crisi. In tal modo ogni movimento apparente evidenziato dalla stazione mobile, è in realtà originato da un movimento del relitto.

23


REPORTS Prima dell’installazione del GPS, i movimenti della Costa Concordia sono monitorati da un’unica stazione totale posizionata sugli scogli che misura una serie di prismi collocati sulla nave. Anche se precisa, questa soluzione manca di riscontro incrociato con altri sistemi e le informazioni fornite non possono quindi essere ritenute inequivocabili. Dopo le prime operazioni di soccorso, il monitoraggio verrà portato avanti dal Dipartimento della Protezione Civile con strumenti ancora più specifici, fra i quali il prototipo di un nuovo e compatto SAR interferometrico (Sintetic Aperture Radar) sviluppato dal JRC di Ispra e coordinato dall’Università di Firenze. Riconoscimenti Gli autori ringraziano i Vigili del Fuoco e in particolare le squadre di Sommozzatori, che hanno dimostrato una professionalità, una dedizione e un’umiltà che raramente gli Autori hanno incontrato nella loro vita professionale. È un grande onore e fonte orgoglio l’aver potuto mettere a disposizione dell’unità di crisi la propria conoscenza. Un grazie anche a Dario Conforti della Optech, che ha fornito il proprio supporto durante la fase di elaborazione dei dati, pur trovandosi in viaggio da un capo all’altro del pianeta.

Parole chiave SONAR, MULTIBEAM, ECOSCANDAGLIO, LIDAR, LASER SCANNER, COSTA CONCORDIA.

Autori ANDREA FACCIOLI NEL 1987, DOPO AVER STUDIATO GEOLOGIA, ENTRA IN CODEVINTEC COME PIONIERE IN SISTEMI DI POSIZIONAMENTO SATELLITARE. INIZIALMENTE CON TRIMBLE E DIECI ANNI DOPO CON ASHTECH, SI È SPECIALIZZATO SU SOLUZIONI PER IL MONITORAGGIO REMOTO DI DEFORMAZIONE E DI NAVIGAZIONE DI PRECISIONE PER I PIÙ IMPORTANTI PROGETTI PUBBLICI E PRIVATI ITALIANI. NEL 2002, ESPANDE LE ATTIVITÀ DI CODEVINTEC NEL SETTORE 3D IMAGING E MOBILE MAPPING, SOPRA E SOTTO IL LIVELLO DEL MARE, E NEL 2011 DIVIENE DIRETTORE COMMERCIALE PER TUTTE LE DIVISIONI DELLA SOCIETÀ: GEOFISICA TERRESTRE E MARINA, TELERILEVAMENTO, GPS E 3D IMAGING .

EMAIL: ANDREA.FACCIOLI@CODEVINTEC.IT MARCO FUMANTI, DOPO AVER CONSEGUITO IL DIPLOMA DI GEOMETRA NEL 1996, SI SPECIALIZZA IN INDAGINI DI GEOFISICA MARINA AL SEGUITO DI DIVERSE SOCIETÀ DI DRAGAGGIO IMPEGNATE IN EUROPA, AFRICA E NEL SUD EST ASIATICO. NEL 2005 FONDA FUTUROCEANO, SOCIETÀ DI SERVIZI A ROMA SPECIALIZZATA IN RILIEVI AMBIENTALI, CHE GLI PERMETTE DI COMBINARE COMPETENZE IMPRENDITORIALI E MANAGERIALI ALLA GIÀ BEN NOTA ESPERIENZA TECNICA. NEL 2011 VIENE COINVOLTO DA CODEVINTEC NELLO SVILUPPO E GESTIONE DELLA NASCENTE DIVISIONE NOLEGGIO, NONCHÉ DELLA FORMAZIONE DEI FUTURI OPERATORI DI STRUMENTAZIONE CODEVINTEC PER RILIEVI MARITTIMI.

Abstract Geomatics assists early intervention on the Costa Concordia Thanks to the Geomatics, the Costa Concordia operations are conducted in conditions of extreme security to protect both the lives of rescue workers and the delicate environment. All technologies involved (Lidar, Multibeam, GNSS, INS, ecc…), while having a primary role in real life, have always worked quietly behind the scenes.

Scopri le particolari condizioni di abbonamento disponibili OnLine!

24

GEOmedia n°1-2012


REPORTS

grafit-werbeagentur.de

HIGH SPEED T TRACKING RACKING

La Stazione Totale Robotica più rapida e più precisa sul mercato www.geotop.it visita il sito www.rivistageomedia.it

25


REPORTS

Monitoraggio del relitto della nave Costa Concordia di Giuseppe Perrucci, Mauro Alessandroni, Giorgia Ausili, Massimiliano Toppi

In seguito al disastro della Costa Concordia, le autorità locali e la Protezione Civile, che guidarono le operazioni di salvataggio, contattaro il topografo Mauro Alessandroni e gli conferiscono l’incarico di monitorare gli eventuali movimenti della nave, per garantire l’incolumità delle squadre di soccorso durante la ricerca di superstiti intrappolati nel relitto.

A

meno di due giorni di distanza dal momento del disastro, durante la fase di emergenza di recupero dei superstiti, il tecnico incaricato iniziò la fase di controllo dei movimenti del relitto utilizzando una stazione totale ottico-meccanica, con due prismi montati sulla nave (uno a prua ed uno a poppa). Altri due prismi vengono installati sulla vicina terraferma, per la triangolazione. Nei giorni successivi Mauro Alessandroni eseguendo misurazioni in manuale ogni 15 minuti, registrò i dati inserendoli in un software di calcolo per l’analisi dei movimenti. A questo punto, considerata l’emergenza ed essendo a conoscenza di una valida e più produttiva alternativa, la Geotop S.r.l. offre ad Alessandroni la possibilità di utilizzare una Stazione Totale Robotica Topcon QSA.

La Stazione Totale Robotica Topcon QSA La Stazione Totale Topcon QSA è dotata di caratteristiche uniche: il sistema robotico one-touch Quick-Lock e l’integrazione Dual Laser, progettate per estendere la copertura del controllo remoto, con lo scopo di velocizzare le operazioni di ricerca ed aggancio del prisma. La Stazione Totale Robotica Topcon QSA ha consentito l’automazione dell’acquisizione dati ed ha permesso il collegamento ad un computer remoto, incrementando il livello di affidabilità dei dati e la capacità di monitorare movimenti di qualsiasi entità della nave. Il 18 gennaio 2012, cinque giorni dopo l’incidente, è Giuseppe Perrucci, Vice Direttore Tecnico della Geotop, a portare personalmente la Stazione Totale Topcon QSA all’Isola del Giglio preoccupandosi inoltre di installare altri quattro prismi (di cui uno a metà della fiancata della nave). Poiché non c’era la possibilità di installare un pilastrino in maniera stabile, si opta per l’utilizzo di un treppiede ben ancorato a terra ed una postazione di controllo in una barca a vela ormeggiata all’interno del porto, a circa 800 metri di distanza. Il software Polifemo Inoltre, per assicurare che si ottengano le massime prestazioni possibili dal sistema messo a punto, dopo aver verificato che la Topcon QSA fornisca la precisione richiesta, si decide di abbinare allo strumento topografico, il software di monitoraggio Polifemo, di Geopro, società controllata

26

Postazione di controllo dei movimenti all’interno di una barca a vela.

da Geotop, per controllare il grafico di monitoraggio. Polifemo è formato da due parti: Acquisitore (installato sul QSA), in grado di registrare i dati sia ad una frequenza selezionata, sia in continuo, e Monitor, che riceve le informazioni in real time dall’Acquisitore, e che può utilizzare i dati anche per generare grafici, analisi e studio. Per la comunicazione tra il QSA ed il PC si utilizza un radio modem Satel Satelline. Particolarmente importante si è rivelata la capacità del software Polifemo di generare automaticamente grafici

Grafico degli spostamenti di tutti i prismi - proiezione giornaliera.

GEOmedia n°1-2012


REPORTS

Topcon QSA_fasi di misura

relativi ad isteresi di singoli punti o di gruppi di punti, secondo le coordinate X, Y, Z, XY, XYZ, come da specifica richiesta della Protezione Civile. Il monitoraggio è ancora in corso e si prevede che continuerà ancora per alcuni mesi, sino a quando nel relitto continueranno ad essere presenti persone che indagano sulla causa della catastrofe.

Abstract Costa Concordia wreck monitoring In the aftermath of the Costa Concordia disaster, local authorities and the Civil Protection, leading the rescue operation, contacted the surveyor Mauro Alessandroni to monitor any movement of the ship, to ensure the safety of teams assistance during the search for survivors trapped in the wreck.

Ringraziamenti • IL

GEOTOP COINVOLTO NELL'OPERAZIONE: ALBERTO PETMARCO MAINARDI, ANDREA PIERANGELI, VALENTINO PENNACCHIONI, DIEGO LUCIANETTI; • I PROGRAMMATORI DI GEOPRO PERSONALE TECNICO

Autori

TINARI,

GIUSEPPE PERRUCCI, GIORGIA AUSILI, MASSIMILIANO TOPPI INFO@GEOTOP.IT

GEOTOP SRL

Parole chiave MONITORAGGIO

TOPOGRAFICO, STAZIONI TOTALI ROBOTIZZATE, PROCESSA-

MENTO DATI MONITORAGGIO

visita il sito www.rivistageomedia.it

MAURO ALESSANDRONI INFO@STUDIOALESSANDRONI.IT

GEOMETRA ISCRITTO ALL'ALBO DEL COLLEGIO DEI GEOMETRI E GEOMETRI LAUREATI DELLA PROVINCIA DI GROSSETO

27


REPORTS

Tracciando una nuova rotta per la scansione in mare aperto di Philip van Ootegem

L’impresa olandese Tideway, specializzata in attività off-shore, desiderava valutare, dal punto di vista tecnico ed economico, la convenienza della conversione di una delle proprie navi per il trasporto delle pietre in un’imbarcazione per la posa di cavi sottomarini. Questa volontà si è tradotta nello svolgimento di un rilievo a mare caratterizzato da un’estrema difficoltà, sia in termini tecnici che di tempo.

I

Dal porto alla tracciatura Nell’agosto del 2010, la Stemar ha inviato un proprio team in Finlandia per il progetto. Allora, la nave si muoveva tra il porto di Kotka, dove le pietre venivano caricate nella stiva, ed il mare aperto, dove il carico veniva scaricato. La stiva poteva essere misurata soltanto ad imbarcazione vuota, ovvero sulla rotta di ritorno verso il porto. Alle 10 di sera del 25 agosto, Rood e la sua squadra sono stati prelevati presso il loro hotel vicino a Kotka, cittadina sulla costa meridionale della Finlandia ad est di Helsinki, e sono stati condotti alla banchina da dove la pilotina li avrebbe portati alla Rollingstone. «Poco prima delle 5 del mattino la pilotina ha affiancato la nave porta-pietre» – racconta Rood. «Il carico era stato interamente scaricato in mare, così fu gettata una scaletta per farci salire a bordo. Avevamo già calcolato che ci sarebbero servite sei scansioni, quindi ci siamo messi subito al lavoro». Rood e la sua squadra hanno scansionato l’intera area cargo senza interruzioni. Il campo visivo dello scanner, con un’ampiezza di 360° e un’altezza di 270°, ha catturato ogni dettaglio della nave; la velocità di raccolta dei dati di 216.000 punti al secondo ha consentito al team di completare il progetto con una certa rapidità. «Alle 7 del mattino, al termine dell’ultima scansione, la nave aveva raggiunto nuovamente il porto» – spiega Rood. Mentre un nuovo carico di pietre veniva caricato nella stiva del cargo, il team di Stemar ha effettuato otto ulteriori scansioni dei lati e della poppa della nave. Le operazioni hanno visto la squadra di tecnici svolgere un movimento avvolgente, grazie al quale si è coperta un’area a forma di U; la lunghezza del tracciato è stata di 80m. L’intero lavoro è stato completato prima che la nave fosse nuovamente carica e pronta per salpare, consentendo così alla Rollingstone di rispettare il suo rigido orario operativo. Lo scanner Trimle FX non utilizza compensatori e ciò è risultato un vantaggio durante le operazioni sulla nave. «I dispositivi con compensatori a doppio asse possono consumare molta elettricità» – spiega Rood. «Dal momento che lo scanner è stato impostato direttamente sulla nave, il rollio e il beccheggio non hanno influenzato i risultati. Per la nostra applicazione, non era quindi necessario alcun sistema di stabilizzazione: ciò ha permesso di affidarci esclusivamente alla nostra batteria».

28

GEOmedia n°1-2012

n precedenza, la Blue Offshore, un’impresa di installazioni sottomarine specializzata nella posa di cavi, aveva già condotto uno studio di fattibilità del progetto, proprio per conto della stessa Tideway. L’idea della Tideway, una volta convertita la nave – che si chiama Tideway Rollingstone –, era quella di impiegarla presso il parco eolico di Thornton Bank, a 30 km di distanza da Zeebrugge, sulla costa belga, per collegare la stazione di trasformazione a mare. Il parco prevede l’installazione di 48 nuove turbine, ciascuna capace di produrre 6MW di potenza di picco. Una volta completato, Thornton Bank potrebbe fornire 325MW di energia 'verde' verso la rete elettrica belga Prima di cominciare con le operazioni di conversione dell’imbarcazione, era di fondamentale importanza avere a disposizione un modello completo e dettagliato della Rollingstone. La difficoltà principale era rappresentata dal fatto che i progetti relativi ad alcune sezioni della nave non erano più disponibili e quindi era necessario misurare tutto daccapo. Inoltre, l’imbarcazione era impiegata senza sosta su un importante progetto in mare aperto. Vista la situazione, la Tideway si è dunque rivolta alla società olandese Stemar Engineering bv. «Quando siamo stati contattati, la Rollingstone era attiva 24 ore al giorno, 7 giorni alla settimana, nella costruzione del gasdotto Nord Stream nel Mar Baltico» – conferma Mark Rood, Managing Partner di Stemar. «Un’imbarcazione del genere viene solitamente utilizzata senza soluzione di continuità e dunque non vi era la benché minima possibilità che essa potesse attraccare permettendoci di svolgere le nostre attività di rilievo, neppure per mezza giornata. La nostra fortuna è stata quella di avere con noi uno scanLo scanner 3D Trimble FX sulla banchina del ner 3D Trimble FX». porto di Kotka.


REPORTS

Lo scafo della Tideway Rollingstone.

Di ritorno sulla terra ferma Una volta tornato alla sede della Stemar ad Alkmaar, in Olanda, il team ha elaborato e registrato i dati usando il software Trimble RealWorks. La registrazione è consistita anche nel collegamento continuo delle diverse scansioni, sfruttando i target che erano stati posizionati sulla nave all’inizio del progetto. La Stemar ha inoltre utilizzato il software per visualizzare i dati e convertire la nuvola di punti in modelli CAD 3D e in superfici utili ai progettisti per lavorare con i più recenti programmi CAD. Inoltre, la Stemar ha fatto affidamento al plug-in Trimble LASERGen CAD per sfruttare le nuvole di punti all’interno di AutoCAD. Il plug-in CAD può essere utilizzato in fase di progettazione e verifica al fine di garantire che il nuovo modello combaci con le condizioni esistenti, fornendo ai clienti una maggiore sicurezza e riducendo il rischio di costose rilavorazioni. Il modello 3D che è risultato dalle 14 scansioni, oltre ad essere molto pulito, si contraddistingueva per la sua accuratezza, afferma Rood: «Per la verifica, abbiamo usato lo spessore degli scafi di acciaio: stando alle nostre scansioni, i pannelli di acciaio presentavano uno spessore di 17 mm, mentre lo spessore reale era di 20 mm. Le nostre misurazioni hanno presentato un’accuratezza compresa tra 3 e 5 mm. Viste le circostanze, si tratta di un dato di un certo rilievo». Cambiamento in corsa La conversione di una nave porta-pietre in una nave per la posa di cavi è un’attività piuttosto delicata ed il compito della Stemar non si limitava alle misurazioni. «La Blue Offshore ci ha anche chiesto di realizzare un layout del ponte oltre, ovviamente, a tutte le relative modifiche del modello della nave» – racconta Rood. I piani di progettazione della Stemar sono serviti come base per una dettagliata stima dei costi. Nonostante gli sviluppi del mercato abbiano poi portato la Tideway ad abbandonare i piani in serbo per la Rollingstone, il progetto è comunque servito come modello operativo di valore per le future applicazioni di misurazione in mare aperto. «Il Trimble FX è perfetto per questo tipo di misurazioni» – afferma Rood. «Tutto ciò che si trova nel campo visivo è misurato con la stessa accuratezza.

Le operazioni di scansione all'interno della Rollingstone, durante la rotta di ritorno verso il porto di Kotka.

A volte dettagli che sembrano irrilevanti durante la scansione risultano essere veramente importanti in fase di progettazione. Una cosa è sicura: con il Trimble FX è molto difficile trovarsi a corto di dati».

La Tideway Rollingstone su MarineTraffic.com

Abstract Charting a new course in open sea scanning The offshore dredging company Tideway needed to determine whether it would be technically and economically feasible to convert one of its ships – a stone dumper – into a cable layer. However, before the conversion could take place, a comprehensive model of the Rollingstone was required. Tideway then hired Stemar Engineering in order to carry out the survey, which had to be done at sea in very challenging conditions. The surveyors crew relied on the Trimble FX Scanner, which resulted to be a perfect instrument for these kinds of measurements

Parole chiave LASER SCANNER, NUVOLE DI PUNTI, RILIEVO NAVALE.

Autore PHILIP VAN OOTEGEM L’ARTICOLO È ORIGINARIAMENTE COMPARSO NELL’EDIZIONE 10/2011 DI POINT OF BEGINNING (WWW.POBONLINE.COM) COL TITOLO CHARTING A NEW COURSE. LA TRADUZIONE È A CURA DI TRIMBLE.

Modello 3D generato dalla nuvola di punti del laser visita il sito www.rivistageomedia.it scanning.

29


REPORTS

Un occhio dall’alto con l’interferometria

satellitare per monitorare operativamente fenomeni di subsidenza di Derrold W. Holcomb

Negli ultimi anni, una maggiore coscienza dell’impatto dell’uomo sull’ambiente ha portato le organizzazioni pubbliche e private a misurare i cambiamenti ed agire per proteggere il nostro pianeta dagli effetti avversi dell’attività umana. Uno dei molti cambiamenti per il quale le organizzazioni pubbliche hanno un particolare interesse è il monitoraggio dei fenomeni di subsidenza o abbassamento della superficie del terreno.

I

fenomeni di subsidenza possono verificarsi a causa di variazioni del sottosuolo potenzialmente causati dall’uomo. La loro osservazione stretta è cruciale in una varietà di scenari, visto che anche variazioni del sottosuolo apparentemente piccole possono avere massive - e costose conseguenze su ciò che si trova sopra il sottosuolo. Tutte le industrie che estraggono risorse dal sottosuolo come petrolio, gas (Maruya, 2009), acqua (Thompson, 2011) e minerali, eseguono il monitoraggio di subsidenza, assumendo il sollevamento e lo spostamento della superficie del terreno come un indicatore dei cambiamenti sottosuolo. Nell’estrazione di petrolio e gas i fenomeni di subsidenza possono presentarsi nelle zone di produzione di idrocarburi che sono soggette a collassarsi per esaurimento delle riserve. Quando le riserve acquifere sotterranee sono utilizzate come fonte per le forniture idriche comunali, la falda acquifera può collassare se l'acqua viene estratta da una falda più velocemente di quanto le precipitazioni atmosferiche possano ricaricarla. Dopo il collasso, l’approvvigionamento può diventare impossibile, causando la perdita permanente di una risorsa critica. La subsidenza nelle aree urbane può essere causata dal carico degli insediamenti (ad esempio per un assestamento irregolare del suolo sotto una struttura), che possono causare costosi danni alle infrastrutture vitali come le tubazioni degli acquedotti e le fognature, oppure le condotte elettriche, e vie di trasporto. Le aziende coinvolte nella realizzazione di tunnel attraverso le montagne per costruire infrastrutture di trasporto regionali devono monitorare gli effetti delle loro azioni. Per queste e molte altre applicazioni, una mappatura regionale di deformazione superficiale fornisce preziose informazioni. Acquisizione dei dati di subsidenza Anche se tali informazioni possono prevenire danni costosi, può anche essere costosa la loro acquisizione. Una sfida in tal senso può essere particolarmente impegnativa poiché le attuali condizioni economiche costringono le organizzazioni a ottenere di più con risorse finanziarie limitate. Attualmente, il monitoraggio della subsidenza è condotta

30

Figura 1 - Una zona test in Arizona ha usato l’interferometria radar per studiare un’area di subsidenza.

per mezzo di indagini ripetute con livellazioni topografiche convenzionali o GPS. Altre tecniche utilizzano registratori di compattazione permanenti o estensimetri verticali. Tutti questi approcci sono limitanti, perché producono dati puntuali, che sono costosi e possono essere non rappresentativi e fuorvianti. Il Telerilevamento satellitare, utilizzando la tecnologia radar interferometrica, sta offrendo un'opzione attraente per il monitoraggio della subsidenza. Prima di tutto richiede un minimo lavoro costoso sul campo, se mai sia necessario. Ma il più grande vantaggio è che invece di pochi punti sparsi, si ottiene un risultato con una matrice densa (ad esempio,

GEOmedia n°1-2012


REPORTS

Figura 4 - Un'immagine di coerenza interscena (a sinistra), lo spostamento interferogramma (al centro) e la corrispondente immagine (a destra) possono essere creati da dati satellitari. Le frecce rosse indicano le caratteristiche di subsidenza di elevata affidabilità. Queste immagini vengono da prodotti derivati da una coppia InSAR di TerraSAR-X con sei mesi di separazione.

Figura 2 - Un’immagine radar della McMullen Valley mostra un sottoinsieme di dati geocodificati TerraSAR-X. Si notino le aree rettangolari coltivate lungo il fiume che attraversa il centro.

ogni pochi metri) di pixel geocodificati di variazioni di quota che producono una mappa dettagliata dello spostamento della superficie. Per dimostrare il potenziale di questa tecnica per il monitoraggio operativo della subsidenza, uno studio è stato condotto usando una regione in Arizona che giace sopra una falda nota per i suoi fenomeni di subsidenza (vedi Figura 1). Questa zona è stata studiata e mappata per un certo numero di anni dal Dipartimento delle Risorse Idriche dell’Arizona, quindi è area di test accuratamente misurata. Inoltre, il clima arido dell'Arizona offre un terreno asciutto e vegetazione minimale, situazione vantaggiosa per l'interferometria radar. La presenza della vegetazione può produrre fenomeni di de-correlazione indotti dalla vegetazione stessa, che possono compromettere o proibire analisi precise. La tecnologia DInSAR Per questo studio sono state derivate dettagliate mappe di spostamento utilizzando una tecnica chiamata interferometria differenziale radar (DInSAR). In termini semplici, il satellite radar raccoglie un'immagine dell'area di studio nel corso di due differenti passaggi. L’informazione di fase del segnale radar viene elaborata da queste due immagini, per ogni pixel, per estrarre una differenza di fase chiamata interferogramma.

Figura 3 - Nel Workflow Wizard ERDAS IMAGINE DInSAR, la maggior parte dei parametri e delle variabili sono intelligenti o propongono una scena specifica per ottenere risultati ottimali.

visita il sito www.rivistageomedia.it

A seconda di vari fattori, come il rumore del sistema o le variazioni atmosferiche, questa differenza può essere apprezzata fino ad una precisione inferiore alla lunghezza d'onda, anche un quarto di lunghezza d'onda. Così, un sensore in banda-X operante a tre centimetri, potrebbe, in condizioni ottimali, mappare uno spostamento di circa 0,75 centimetri. Una sezione di tale interferogramma si vede in Figura 4. I dati satellitari utilizzati in questo progetto pilota provengono dal sensore tedesco TerraSAR-X forniti da Infoterra. Come suggerisce il nome, il radar ad apertura sintetica utilizza radiazioni in banda X. Questo satellite è in grado di fornire immagini a varie risoluzioni (dimensioni dei pixel), a seconda dell’applicazione prevista e l'area di copertura desiderata. Per questo progetto sono state analizzate 20 scene in modalità strip-map a risoluzione di circa due metri/pixel. Le scene hanno coperto un'area di dimensioni di 32 per 56 chilometri (20 per 35 miglia). Una delle immagini radar è illustrata nella figura 2. Sistemi di posizionamento a bordo del satellite con post-processing forniscono informazioni sulla posizione con una precisione inferiore a 0,5 metri nello spazio, che è abbastanza per effettuare misure precise di deformazione della superficie geolocalizzate. Il software necessario per questi calcoli precisi è complesso, sofisticato ed era disponibile in gran parte nel mondo universitario e dei centri di ricerca specializzati. Tuttavia, il software utilizzato per questo progetto, il modulo di interferometria radar IMAGINE Radar Mapping Suite, è stato sviluppato specificamente per portare questa tecnologia alle organizzazioni che hanno necessità di risultati - mappe

Figura 5 - Un dettaglio sull’immagine mostra la corrispondenza di bassa coerenza (a sinistra) e la misura di spostamento povera (a destra).

31


REPORTS di spostamento-, ma non hanno o non vogliono essere costrette ad acquisire competenze specializzate nel processamento di dati radar. In molti casi, è completamente automatico; basta inserire le due scene e attendere che l'immagine degli spostamenti derivata venga calcolata. La figura 3 mostra una delle interfacce utente del software con workflow guidato. Le immagini mostrate nelle figure 4 e 5 sono state calcolate dal software usando un processo completamente automatizzato, raggiungendo questi risultati, senza necessità di uno specialista in elaborazioni radar appositamente addestrato. In aggiunta alla coppia di immagini DInSAR, è richiesto per il calcolo dello spostamento, un modello accurato di elevazione digitale del terreno (DEM). Questo può essere estratto convenientemente utilizzando il processo di estrazione InSAR DEM che analizza l'interferogramma per derivare la quota di ciascun pixel. Per questo studio, molte delle immagini TerraSAR-X sono state utilizzate per creare sovrapposizione di modelli DEM che poi sono stati mediati. Analisi delle Immagini Le 20 scene TerraSAR-X possono essere combinate in coppie di immagini interferometriche che coprono vari periodi di tempo. Ciascuna coppia di immagini può poi essere elaborata per valutare uno spostamento superficiale attraverso quel periodo di tempo. Ciò consente la possibilità di monitoraggio raccogliendo una sequenza progressiva di immagini che illustrano il movimento della superficie nel tempo. Questa serie temporale di immagini permette di misurare l'effetto di un aumento delle estrazioni o la risposta ad una azione correttiva. Il processo di calcolo degli spostamenti genera diverse immagini intermedie che gli analisti possono visualizzare, se necessario. Queste potrebbero essere utili per valutare se un particolare processo sta ottenendo i migliori risultati possibili o per determinare se i parametri di elaborazione hanno bisogno di piccoli aggiustamenti. Una delle immagini intermedie più utili è la “interscene coherence image”, una indicazione numerica (di tipo binario 0-1) che ci da una indicazione di stabilità di misura per ciascun pixel derivato dalle due immagini. Le aree highcoerence (più brillanti) sono quelle più affidabili rispetto alle zone più scure. Dove manca la coerenza si ha una precisione minore dell’analisi dello spostamento e il segnale diventa rumoroso. Un'immagine campione di coerenza viene mostrata nella Figura 4, insieme con un'immagine corrispondente agli spostamenti. Nell'immagine di coerenza (Figura 4, a sinistra), i pixel scuri indicano una significativa perdita di coerenza lungo il fiume che scorre da est ad ovest attraverso il centro della scena. Ci sono anche aree di coerenza molto bassa associata ad aree vegetate lungo il fiume. Queste sono molto scure e rettangolari. La scena al centro in figura 4 è l'interferogramma corrispondente (a colori) sovrapposta sull'immagine radar. Queste differenze di fase quantificano lo spostamento di superficie tra le due immagini della coppia InSAR. Mostrando questa serie di differenze di fase si crea l'immagine finale della subsidenza, come visto in Figura 4 (a destra). Di particolare interesse sono le due caratteristiche oscure sinuose del centro, che sono aree di subsidenza. Ogni pixel in questa immagine ha un valore che indica subsidenza in millimetri. La Figura 5 illustra un'analisi più approfondita, consentendo agli analisti di interpretare la mappa di spostamento nel contesto della interscena di coerenza. Ad esempio, il fiume mostra una perdita quasi totale di coerenza, così come

32

Figura 6 - Un’immagine di mappa della subsidenza codificata a colori è stata sovrapposta a un DEM.

diverse trame dell’agricoltura. Ma notate che alcuni campi agricoli mostrano coerenza molto elevata. Questi possono essere nuda terra in attesa di semina e corrispondono ad aree chiazzate nell'immagine di subsidenza, indicando risultati di subsidenza errati. Al margine sinistro, la combinazione del fiume, i campi a bassa coerenza e il bordo dell'immagine producono un'area molto scura. Questa può essere subsidenza, visto che nei campi si utilizza acqua pompata, ma c'è chiaramente inclusa una componente di errore. C'è una confusione simile sul margine destro della Figura 4. Queste aree devono essere considerate come aventi una confidenza inferiore. In Figura 6, le informazioni contenute nelle due immagini sono combinate per facilitare l'interpretazione, fornendo una mappa di subsidenza geocodificata mostrata nel contesto di un DEM locale, anch’esso creato da immagini TerraSAR-X InSAR. Nella creazione di questa, i pixel con una coerenza sotto 0,35 sono stati considerati inattendibili e colorati di grigio. Questi indicano la traccia del fiume attraverso il centro della scena, in particolare nelle aree agricole / residenziali ai margini est e ovest dell'immagine. Questa immagine con mappatura mostra buona corrispondenza con l'immagine in Figura 1. La forma della subsidenza mappata con DInSAR, considerata la sua irregolarità, assume una buona affidabilità, tale da poter essere presa in considerazione. Non c'è possibilità che misurazioni di parecchi punti diversi, presi sul campo, possano dare un quadro della subsidenza in quest’area. Anzi, potrebbe essere possibile avere un risultato che non colga le caratteristiche globali. Questo modello di subsidenza indica anche la struttura del sottosuolo, fornendo ai tecnici uno sguardo ulteriore sulla formazione che stanno analizzando.

GEOmedia n°1-2012


REPORTS Questo studio pilota ha dimostrato i punti di forza del satellite DInSAR per il mapping dei movimenti a scala regionale, in quanto la densa matrice di valori di pixel supera di gran lunga le capacità di mappatura dei movimenti da qualsiasi altra tecnologia. La necessità di verifica sul campo ridotta o praticamente nulla abbassa notevolmente il costo per ottenere tali informazioni. E l'avvento del software ERDAS completamente automatizzato DInSAR porta questa capacità ad una comunità di utenti di grandi dimensioni.

Ringraziamenti L’autore ringrazia Astrium Services / Infoterra GmbH per la fornitura di 20 scene TerraSAR-X in modalità strip-mappa, utilizzate come dati di input per questo lavoro. Inoltre, ringrazia per la collaborazione il Dipartimento di Geofisica presso il Dipartimento delle risorse idriche Arizona.

Abstract Riferimenti ARIZONA DEPARTMENT OF WATER RESOURCES. JULY 2011. "MCMULLEN LAND SUBSIDENCE FEATURE,"AZWATER.GOV/AZDWR/HYDROLOGY/GEOPHYSICS/MCMULLENSUBSIDENCE.HTM. CROSETTO, M.; CASTILLO, M.; AND ARBIOL, R. 2003. "URBAN SUBSIDENCE MONITORING USING RADAR INTERFEROMETRY: ALGORITHMS AND VALIDATION," PHOTOGRAMMETRIC ENGINEERING AND REMOTE SENSING, VOL. 69, NO. 7, PAGES 775-783. MARUYA, M.; YOSHIMOTO, S.; MIYAWAKI, M.; YAMAGUCHI S.; KISELEVSKIY, E.; KORVIAKOV, P.; SERGEEV D.; BARANOV, Y.; ANDO, G.; AND KAWAI, M. 2009. "MONITORING SURFACE DEFORMATIONS OVER SIBERIAN GAS DEPOSIT AREAS USING ALOS PALSAR INTERFEROMETRY," PIERS PROCEEDINGS, MOSCOW, AUG. 18-21, 2009. THOMPSON, T. 2006. "HYDROGEOLOGY AND DISASTER PART 1: GROUNDWATER AND LAND SUBSIDENCE, " WISCONSIN GROUND WATER ASSOCIATION NEWSLETTER, VOL. 20, NO. 3, WGWA.ORG/ARTICLES/LANDSUBSIDENCEANDGROUNDWATER.PDF.

Eyes from Above: Satellite Interferometry Monitors Operational Subsidence In recent years, greater awareness of the intricate bonds among humans and their environment has compelled public and private organizations to survey changes and take action to protect our world from adverse effects of human activity. One of the many changes the public has a vital interest in monitoring is subsidence, or the lowering of the ground surface.

Autore DERROLD W. HOLCOMB DERROLD.HOLCOMB@INTERGRAPH.COM ESPERTO DI MATERIE RELAZIONATE AI RADAR IN INTERGRAPH ARTICOLO ORIGINARIAMENTE APPARSO SU GEOWORLD, FEBRUARY – 2012 CON IL TITOLO ORIGINALE

EYES FROM ABOVE: SATELLITE INTERFEROMETRY MONITORS OPERATIONAL SUBSIDENCE ONLINE SU GEOPLACE.COM AL LINK HTTP://BIT.LY/GDTRCV TRADUZIONE A CURA DELLA REDAZIONE DI GEOMEDIA

Parole chiave SAR, INTERFEROMETRIA, SUBSIDENZA.

Datum

11..3 11 342 4212 1234 343 44 4 4.3 34 42 23 34 459 593

Gauss-Boaga

WGS84 Eff ffe emeridi

EED50-UTM32 D50-UTM32

Cassini-Soldner

ETRS89

Latitudine Longitudine

UTM50-32N

ELISSSSO EL OID DE

63 378 7813 13 37 63 6357 35752 57 752 52.3 .314 4

GEOI GE EO OIIDE

GPS GNSS RTK APS APS-3 3 Facile,Completo,Preciso visita il sito www.rivistageomedia.it

Surveysoft - Distributore per l’Italia dei Prodotti Altus-GPS , Microsurvey Software , RUIDE Stazioni Totali

33

www.surveysoft.it


REPORTS

Il monitoraggio delle emissioni di CO2 e dei consumi

energetici a livello comunale tramite WebGis di Paolo Viskanic, Nelly Cattaneo, Francesca Di Maria

Il cambiamento climatico dovuto ai gas serra ed il progressivo esaurimento dei combustibili fossili hanno portato negli ultimi anni ad un ripensamento delle politiche energetiche e ad una maggiore attenzione alle potenzialità di risparmio energetico e di abbattimento delle emissioni di CO2. Alla base di ogni strategia è fondamentale una base informativa dettagliata ed affidabile alla quale fare riferimento per studiare interventi e strategia. È in questo contesto che si colloca R3 EcoGIS, uno strumento WebGIS per il monitoraggio dei consumi e delle emissioni e per il supporto alle decisioni energetiche a livello comunale.

Iniziative internazionali per sensibilizzare le amministrazioni pubbliche L’attenzione internazionale ai temi legati all’ambiente è iniziata nel 1992 con la Conferenza internazionale di Rio sull’ambiente e lo sviluppo, dove oltre 150 paesi hanno riconosciuto firmando la convenzione sul clima l’importanza di modificare il proprio comportamento per evitare cambiamenti climatici globali. Questi temi sono stati ulteriormente discussi durante la conferenza di Kyoto del 1997, che è terminata con la sottoscrizione di un trattato internazionale, che impegna i paesi firmatari a contenere le emissioni di CO2 entro il 95% delle emissioni all’anno 1990. Il trattato di Kyoto è stato rivisto varie volte fino ad entrare in vigore nel 2004, dopo essere stato firmato da un numero di paesi le cui emissioni corrispondessero almeno al 55% delle emissioni globali. A livello europeo, nel 2008 è stata lanciata un’iniziativa, per far fronte al consumo di energia in costante aumento nelle città, che oggi, è responsabile di oltre il 50% delle emissioni di gas serra causate, direttamente o indirettamente, dall’uso dell’energia da parte dell’uomo. Questa nuova azione, denominata il Patto dei sindaci, si pone come obiettivi cardine una riduzione delle emissioni di gas ad effetto serra, una maggiore efficienza energetica ed un maggiore utilizzo di fonti energetiche rinnovabili da realizzarsi entro il 2020. Questa iniziativa, su base volontaria, impegna le città europee a predisporre un Piano di Azione con l’obiettivo di ridurre di oltre il 20% le proprie emissioni di gas serra attraverso politiche e misure locali che aumentino il ricorso alle fonti di energia rinnovabile, che migliorino l’efficienza energetica e attuino programmi ad hoc sul risparmio energetico e l’uso razionale dell’energia. In Italia ad oggi (giugno 2011) hanno aderito 1175 città al Patto dei Sindaci. I firmatari del Patto si impegnano a:

34

Preparare un Inventario di Riferimento delle Emissioni (BEI) entro l’anno successivo a quello dell’adesione; Presentare un Piano d’Azione per l’Energia Sostenibile (SEAP), approvato dal consiglio comunale entro l’anno successivo a quello dell’adesione; Pubblicare regolarmente – ogni due anni dopo la presentazione dei loro SEAP – i resoconti dell’implementazione che indicano i progressi del piano d’azione e i risultati provvisori;

Promuovere le proprie attività e coinvolgere i propri cittadini/stakeholder, anche attraverso l’organizzazione regolare degli Energy Day locali; Distribuire il messaggio del Patto dei Sindaci, in particolare incoraggiando le altre autorità locali ad aderire e dando un contributo ai maggiori eventi e ai workshop tematici.

In seguito verranno illustrate alcune attività svolte attraverso l’utilizzo di strumenti WebGIS per documentare, monitorare e fornire un supporto decisionale alle amministrazioni che si sono poste come obbiettivo il risparmio energetico e l’abbattimento delle emissioni. Il portale sull’energia del Comune di Laives Una delle principali fonti di emissione di CO2 sulle quali un Comune può avere un controllo diretto, sono gli edifici pubblici e l’illuminazione pubblica. Caso esemplare è rappresentato dal Comune di Laives che ha più volte realizzato tra il 1996 ed oggi studi dettagliati sui consumi energetici dei propri edifici e della propria rete di illuminazione. Nel 2006 in un progetto congiunto insieme all’Ecoistituto per l’Alto Adige, e co-finanziato da una banca locale, la Cassa Raiffeisen, la società R3 GIS ha realizzato un portale energetico nel quale si sono documentate tutte le iniziative portate avanti dall’amministrazione comu-

Figura 1 - Il portale della città di Laives consente ai cittadini di monitorare i consumi energetici degli edifici pubblici e di valutare l’energia solare incidente sul proprio tetto.

GEOmedia n°1-2012


REPORTS muni ed i loro consulenti) di inserire e gestire i dati relativi agli edifici del proprio territorio. Per ciascun immobile analizzato è possibile infatti visualizzare una scheda che riporta le seguenti categorie di informazioni: Figura 2 - Il calcolo dell’energia incidente su ciascuna copertura stato fatto con il software GRASS, tenendo conto di ostacoli quali edifici vicini e montagne.

nale per ridurre i propri consumi energetici e quindi anche le emissioni di CO2. Questo progetto ha portato ad una maggior sensibilizzazione sulla questione del risparmio energetico rendendo direttamente partecipi i cittadini. Il portale comprende, oltre ad una spiegazione dettagliata del progetto e delle iniziative intraprese dal Comune in campo energetico, un’interfaccia geografica interattiva ed una valutazione di tutti i tetti del Comune riguardo al potenziale di sfruttamento dell’energia solare. A tale riguardo a Laives è stato fatto uno studio dell’insolazione utilizzando il software GRASS (vedi figura 1) e tenendo conto dell’ombreggiamento causato dalle montagne e dagli edifici vicini. Il risultato molto semplice da visualizzare e consultare è una mappa del territorio con una colorazione delle falde dei tetti in base al potenziale fotovoltaico (vedi figura 2). Il monitoraggio degli edifici pubblici ed il progetto Audit GIS di Fondazione Cariplo Il Progetto Audit Gis nasce tra il 2006 ed il 2008 nell’ambito di un Bando della Fondazione Cariplo di Milano con l’obiettivo di favorire la cultura del risparmio energetico attraverso la pratica di audit energetico sugli edifici dei comuni piccoli e medi delle province lombarde, di Novara e di Verbania-Cusio-Ossola. Il progetto ha coinvolto nei tre anni di bando più di 650 comuni (vedi figura 3) ed ha portato alla raccolta di quasi 7000 diagnosi energetiche complessive composta da audit cosiddetti “leggeri” e audit di “dettaglio”. Tutti i dati contenuti in questi audit sono inseriti in un applicativo gestionale basato su tecnologia WebGIS dedicato. Tramite il portale Audit GIS, sviluppato dalla società R3 GIS Srl di Merano (BZ), tutti i comuni partecipanti hanno potuto gestire in maniera autonoma i dati degli audit energetici, pur garantendo un’uniformità di banca dati centrale e quindi la possibilità di analizzare tutti i dati congiuntamente. La parte privata del portale consente agli utenti registrati (i co-

Figura 3 - I dati energetici degli edifici pubblici di 650 comuni di Lombardia e Piemonte sono consultabili dal sito di Fondazione Cariplo; nell’immagine una statistica sulla CO2 specifica emissione per comune.

visita il sito www.rivistageomedia.it

Anagrafica e destinazione d’uso dell’edificio, con inserimento in mappa dello stesso; Caratteristiche tipologiche e costruttive; Descrizione degli impianti termici ed elettrici presenti e relativi consumi basati su una indagine di tre anni; Immagini e foto raccolte nei sopralluoghi.

La raccolta di queste informazioni è necessaria nella fase di redazione degli Audit Leggeri, mentre solo per alcuni edifici di particolare importanza è stata eseguita un’indagine più approfondita o “Audit di dettaglio” che contiene, oltre alle precedenti, anche le seguenti integrazioni:

Proposta e descrizione di interventi gestionali ed impiantistici per il risparmio energetico e la riduzione della CO2; Costi e benefici (sia economici che in termini di emissioni) connessi agli interventi; Tempi di ritorno degli investimenti.

Non essendo semplici “contenitori” di dati e prevedendo che l’inserimento di tali dati potesse avvenire anche da parte di operatori con competenze in altri settori, la struttura delle schede di Audit è stata affinata in più occasioni, al fine di migliorare i controlli automatici sui dati inseriti (evitando errori grossolani e unità di misura sbagliate) e di accogliere e normalizzare informazioni provenienti da Audit redatti in modi molto diversi. I dati sui consumi energetici, inseriti a partire dalle effettive quantità di energia utilizzate, vengono quindi convertiti in tonnellate equivalente petrolio (TEP) ed in kilogrammi di CO2, utilizzando una tabella di conversione standardizzata. Questo permette un confronto delle emissioni e dei consumi tra i vari edifici e tra i vari comuni. Nel progetto è stata sviluppata una sezione di “Statistiche” interessante per le amministrazioni e propedeutica alla fase decisionale nell’ottica della realizzazione di interventi atti al risparmio energetico. Questa sezione, resa pubblica sul portale di Fondazione Cariplo (5) include statistiche relative ai principali parametri rilevati durante le diagnosi energetiche (ad es. consumi elettrici e termici, interventi di miglioramento proposti, CO2 risparmiata, stima dei tempi di ritorno degli investimenti). L’interrogazione statistica può essere effettuata selezionando a priori la scala territoriale, e cioè per regione, provincia, comune. Oppure per ciascuna statistica sono disponibili un filtro di interrogazione che consente di scegliere l’ambito territoriale, una tabella dati (esportabile su foglio di calcolo .xls), un grafico esplicativo ed una mappa rappresentativa dell’area. Mappe e grafici sono interattivi, per cui cliccando sulla cartina si aprirà una finestra di mappa con i dati della statistica prescelta. La Banca dati è quindi integralmente fruibile dal pubblico, consentendo sia l’estrazione diretta dei dati sia la consultazione di un ampio set di statistiche già elaborate, che vengono periodicamente aggiornate. R3 EcoGIS, un WebGIS per il monitoraggio dei consumi e delle emissioni R3 EcoGIS è un software per il monitoraggio dei consumi energetici e delle emissioni di CO² a livello comunale, ed è stato sviluppato per amministrare in modo semplice e completo le varie informazioni sui consumi energetici e le emissioni di CO2 di immobili, industria, terziario, traffico ed altre fonti di emissione a livello comunale. Lo sviluppo è stato co-finanziato da un contributo del Programma regionale ed

35


REPORTS L’obiettivo di EcoGIS è quello di fornire ai comuni, che hanno aderito al Patto dei Sindaci, o che comunque intendono definire una strategia di sviluppo rispettosa dell’ambiente, uno strumento semplice ed efficace per gestire i dati e simulare e valutare diversi scenari di sviluppo. Ad ogni fonte di emissione inoltre possibile collegare un’area su mappa, immagini e documenti, in modo da semplificare l’organizzazione del materiale e delle informazioni e poter creare mappe tematiche sulle emissioni ed i consumi energetici. Il software R3 EcoGIS è in continua evoluzione, sulla base delle esigenze e dei consigli, che provengono da parte dei comuni e dei consulenti che lo utilizzano, e delle normative ambientali e le esigenze del Patto dei Sindaci. Figura 4 - Lo schema rappresenta i vari componenti del software EcoGIS: gli strumenti di inserimento e gestione dei dati, i tool di analisi e simulazione, la reportistica ed il portale per il pubblico.

Ultimo aspetto da non sottovalutare è la pubblicazione dei dati su consumi, emissioni e azioni realizzate dal comune su un portale pubblico. Tramite strumenti WebGIS semplicemente consultabili è possibile condividere queste informazioni con i cittadini e documentare le iniziative dell’amministrazione per l’abbattimento delle emissioni. Nella figura è riportato un esempio di portale pubblico con dati sui con Conclusioni Le tecnologie alla base dello sfruttamento delle fonti di energia rinnovabili, dell’efficienza energetica e del monitoraggio delle emissioni, come anche la legislazione di riferimento sono in continua evoluzione. Pertanto R3 EcoGIS è da considerarsi un cantiere in continuo sviluppo. Grazie agli oltre 50 comuni che l’hanno adottato in Italia ed alla collaborazione con enti di ricerca e professionisti del settore le funzionalità, gli algoritmi di calcolo, la tecnologia GIS sulla quale si basa vengono aggiornati e perfezionati in continuazione. L’obiettivo è quello di ottenere uno strumento per il managment energetico a livello territoriale, che consenta di supportare gli amministratori nelle decisioni a medio e lungo termine per migliorare l’efficienza energetica delle nostre città.

Riferimenti R3 EcoGIS si basa su una banca dati PostgreSQL/PostGIS, nella quale vengono gestite tutte le informazioni relative alle varie fonti di emissioni di gas serra, quali edifici pubblici e privati, edifici industriali e terziario, illuminazione pubblica, traffico privato e pubblico, impianti di depurazione delle acque e di smaltimento dei rifiuti, aziende agricole, ecc. La classificazione di tutti questi componenti segue la metodologia per il censimento delle emissioni rilasciata dal Patto dei Sindaci ed R3 EcoGIS consente l’esportazione dei dati nei formati da esso previsti. Una volta eseguito l’inserimento dei dati sui consumi energetici il software calcola le emissioni di CO2, applicando dei fattori di conversione configurabili, che tengono conto dell’eventuale produzione di energia da fonti rinnovabili sul territorio comunale. Inoltre le fonti di emissioni possono essere georiferite con semplici strumenti di selezione e/o disegno su mappa. L’integrazione con centraline di rilevamento dati e di telecontrollo permette di automatizzare la raccolta dei dati ambientali o dei consumi e di controllare da remoto centrali energetiche. R3 EcoGIS permette inoltre di gestire un catalogo di interventi su edifici, traffico, industria, terziario, agricoltura e di definire per ogni intervento le date di realizzazione e la relativa durata, i costi di implementazione, l’effetto sul consumo energetico e sulle emissioni, la posizione dell’intervento su mappa. Tramite una funzione di simulazione è possibile combinare azioni diverse e valutarne l’impatto sul territorio, sia in termini di consumi che in termini di CO2 evitata e costi per la realizzazione, da qui al 2020. Confrontando simulazioni diverse è quindi possibile valutare diversi piani d’azione e scegliere quello più adatto alle esigenze e risorse del Comune.

• SITO DEL PATTO DEI SINDACI: HTTP://WWW.EUMAYORS.EU/ • SITO ECOGIS: WWW.ECOGIS.INFO • VISKANIC, PAOLO, FRANCESCHI, S., TULUMELLO, C., ÜBERBACHER D., IL PORTALE SULLE ENERGIE RINNOVABILI DELLA CITTÀ DI LAIVES. MONDOGIS NR. 61/2007, PAG. 50-55. • ECOGIS UNA PIATTAFORMA PER IL MONITORAGGIO DELLE EMISSIONI. PAOLO VISKANIC, SERGIO SEGALA, BRUNO MONTALI, DIETMAR ÜBERBACHER, RUPERT ROSSANELLI, ATTI ASITA 2010. • SITO AUDIT GIS FONDAZIONE CARIPLO: WWW.WEBGIS.FONDAZIONECARIPLO.IT

Parole chiave MONITORAGGIO EMISSIONI, MONITORAGGIO CONSUMI, WEBGIS.

Abstract A WebGis for monitoring CO2 emissions and energy consumption at the municipal level Climate change from greenhouse gases and the progressive exhaustion of fossil fuels in recent years have led to a rethinking of energy policies and greater attention to the potential for saving energy and reducing CO2 emissions. At the base of each strategy it is fundamental to create a detailed and reliable information base to which every study, intervention and strategy can be referred. This is the context in which R3 EcoGIS is applied, a WebGIS tool for monitoring fuel consumption and CO2 emissions and for supporting energy-related decisions at municipal level.

Autori PAOLO VISKANIC, R3 GIS SRL PAOLO.VISKANIC@R3-GIS.COM NELLY CATTANEO, BEST – POLITECNICO DI MILANO NELLY.CATTANEO@YAHOO.IT

Figura 5 - Strumenti di simulazione consentono di valutare l’effetto della realizzazione dei vari interventi migliorativi identificati, in modo da facilitare il comune nel definire il Piano d’Azione per l’Energia Sostenibile (PAES).

36

FRANCESCA DI MARIA, BEST – POLITECNICO DI MILANO FRANCESCA.DIMARIA@POLIMI.IT

GEOmedia n°1-2012


REPORTS

visita il sito www.rivistageomedia.it

37


REPORTS

Neanche gli dei ... di Fabrizio Bernardini

Alcune osservazioni sul quadro generale dell’incidente della Costa Concordia, dove tecnologie come il GPS e l’AIS sono state tirate in ballo a sproposito dai mass-media. L’incidente non ha alcuna causa tecnica e neanche il banale errore umano, bensì la grave negligenza e l’illegalità della condotta della navigazione.

N

el Giugno del 1995, la Royal Majesty, una nave da crociera dotata delle migliori apparecchiature dell'epoca, rischiò il naufragio in una zona della costa statunitense nota a tutti per la sua pericolosità. La nave, sotto il controllo dell'autopilota e di un equipaggio in apparente continuo monitoraggio della navigazione, si arenò su banchi di sabbia, per fortuna senza particolari conseguenze per i passeggeri e l'equipaggio, dopo aver mantenuto per 28 ore una rotta perfetta, ma sbagliata. Senza entrare troppo nei dettagli (per altro ben documentati nel libro citato nei riferimenti in fondo all'articolo) basti dire che il GPS di bordo, selezionato dal navigatore in servizio per la sua precisione al posto del comunque disponibile ricevitore LORAN C, aveva subito un guasto al sistema d'antenna e, senza che l'equipaggio se ne rendesse conto, aveva continuato a fornire posizioni nella modalità di navigazione stimata (‘dead reckoning’, o DR). Questo fatto, e varie coincidenze tecnologiche (come il fatto che la mappa asservita al radar considerasse valide le posizioni del GPS, che valide non erano), oltre ad altre sfortune (come l'aver scambiato sul radar una boa di pericolo per una di via) contribuirono a fornire all'equipaggio una falsa confidenza nello stato di navigazione del vascello, con l'inevitabile conseguenza. Nonostante l'equipaggio disponesse di carte nautiche classiche, sulle quali ad intervalli regolari venivano riportate le posizioni, il fatto di usare il GPS come unico riferimento, le rese virtualmente inutili. Con il senno di poi, sarebbe bastato, soprattutto con l'approssimarsi della zona pericolosa, la quale prevedeva anche l'incanalamento nei percorsi di traffico per il porto di Boston, verificare anche il 'fix' fornito dal LORAN-C, oppure effettuare la verifica visiva delle boe (il navigatore scelse di fidarsi esclusivamente dell'identificazione radar delle stesse, o meglio dell'unica visualizzata), ovvero anche commutare il radar su una portata maggiore per identificare le caratteristiche della costa. Ma è lecito in queste situazioni parlare di "senno di poi"? Consideriamo un altro incidente, ben più grave. Nel Giugno del 2009, il volo AF-447 in volo di crociera sull'Atlantico, scompare misteriosamente. Ai limiti del contatto radio, solo alcuni messaggi digitali ricevuti da un centro di controllo avevano messo gli investigatori sulla traccia di una possibile anomalia poco prima della perdita del volo. Con il ritrovamento, dopo ben due anni, del registratore dei dati di bordo, tutte le ipotesi fatte per mesi sulla sorte del volo furono distrutte dalla realtà degli eventi che si possono riassume-

38

L’arenamento della Royal Majesty.

re, semplificando, come segue. Avendo perso l'indicazione primaria di velocità, a causa del congelamento dei tubi di Pitot, l'equipaggio, assumendo necessariamente il controllo manuale dell'Airbus A330 (il velivolo civile più automatizzato in assoluto, insieme all'A320 ed all'A340 e all'A380), è stato incapace di mantenerlo in volo corretto, entrando in uno stallo ripetuto fino all'impatto con il mare. Una situazione resa ancora più tragica della persistente fiducia nella tecnologia di recupero da assetti critici che, nella particolare situazione di volo era solo parzialmente operativa. Con il senno di poi, o con l'addestramento tipico che prevede queste situazioni, sarebbe bastato mantenere un assetto fisso, in una configurazione nota, per garantire una condotta del volo sicura anche senza indicatori di velocità. Eppure l'equipaggio, vuoi per l'addestramento carente, vuoi per una cieca, ed ambigua, fiducia/sfiducia nell'automazione del velivolo, è riuscito a fallire come un principiante del volo. Un po' come andare a urtare contro un ostacolo ben noto e ben segnalato quando si va per mare. Ha senso dunque parlare di "senno di poi"? Non ha senso, perché sia nel caso della Royal Majestic, che del volo AF-447, metodi e procedure sono falliti per una non corretta applicazione di tecniche fondamentali: l'utilizzo di più fonti di informazione di navigazione, nel caso della nave da crociera, e il mantenimento di una configurazione di volo stabile usando la strumentazione disponibile, nel caso dell'A330. In entrambi i casi, allora, è in discussione non la tecnologia, o l'automazione, e le relative disfunzioni che a volte creano i primi anelli di quella catena di conseguenze che porta verso un incidente, ma il modo con cui

GEOmedia n°1-2012


REPORTS

Nota sull’AIS

La rotta di collisione della Costa Concordia rilevata con AIS.

l'equipaggio gestisce il mezzo, quella somma di competenze e di professionalità che il mondo anglosassone, pratico e concreto, traduce in una semplice parola: seamanship (per la nautica) e airmanship (per l'aeronautica). Nel caso del recente incidente della nave Costa Concordia, soprattutto alla luce del tracciato AIS reso recentemente pubblico (vedi tra i Riferimenti), non si dovrebbe dunque concentrare l'attenzione su commenti del tipo "ma come è mai possibile che con tutte le apparecchiature sofisticate che hanno a bordo …", e neanche su osservazioni del tipo "nonostante la tecnologia, solo la carta nautica è la base per una corretta navigazione …". Infatti l'attenzione si deve anche qui concentrare solo ed esclusivamente sull'errore umano, ma con una importante differenza: in questo caso l'errore umano non va inteso come fatalità dovuta ad una condotta errata in buona fede, bensì come il perseguimento di una condotta che va semplicemente dall'irresponsabile al criminale. Il mondo aeronautico ha eliminato da decenni la figura autoritaria del comandante, definendo ruoli misti per l'intero equipaggio che è corresponsabile della condotta di un volo. Allo stesso tempo ha anche messo in pratica tecniche di monitoraggio della condotta dei voli che permettono di rilevare tendenze pericolose, infrazioni ed ovviamente errori, tecniche messe in opera lavorando sui dati registrati dopo ogni volo. Inoltre sono stati fondamentali, e continuano ad esserlo, anche i sistemi anonimi di raccolta di segnalazioni di condotta irregolare, che hanno permesso al personale di volo di raccontare "eventi" senza temere ritorsioni, con un conseguente aumento della sicurezza dei voli. Nell'ambito della marineria evidentemente le cose non stanno così. Tutta la tecnologia del mondo, e la plancia di una nave da crociera è veramente sofisticata, non può nulla se volutamente si sta navigando a 15 nodi in direzione di un'isola distante solo 3 miglia nautiche, di notte, con il preciso intento di "fare il pelo" alla costa, senza rispettare, sempre volutamente, le norme di sicurezza (minimo 5 miglia nautiche) più banali. Dice il poeta Schiller: "Contro la stupidità neanche gli Dei possono nulla", ma l'incidente della Costa Concordia è molto di più, essendo in pratica la grave ammissione di condotte di navigazione in barba alle regole ed alle procedure, in altre parole illegali, e non merita neanche una discussione sulla seamanship. E la cosa forse più grave è che c’è voluta un’azienda Olandese, che registra i dati AIS trasmessi dalle navi, per scoprire il tracciato di un altro passaggio della Costa Concordia effettuato il 14 Agosto del 2011, sempre per questa ridicola manovra di fronte al Giglio. In quell'occasione lo sfioramento dell'isola è andato bene, forse perchè effettuato di giorno, ma sicuramente ha interessato acque con poco pescaggio e magari anche regolamentate. Insomma, se serviva la prova che questi comportamenti altamente illegali, contro ogni regola civile, sono perseguiti abitualmente non ci dobbiamo rivolgere alle nostre Capitanerie (“la zona del Giglio non è

visita il sito www.rivistageomedia.it

Questo dispositivo, abbastanza semplice come concezione, è obbligatorio internazionalmente, ed in pratica, su tutte le navi passeggeri e su tutte quelle di una certa stazza. Esso fornisce a tempi regolari (in funzione della velocità e dello stato di navigazione) rapporti di posizione, direzione e velocità, ricavati da un ricevitore GPS autonomo e da altri sensori della nave a cui è interfacciato. E' in grado di inviare anche segnali di allarme per varie condizioni di pericolo che possono insorgere a bordo di un vascello: basta pigiare un pulsante e il May Day è trasmesso istantaneamente. I segnali AIS sono facilmente ricevibili, anche da privati, e non solo dalle Capitanerie e dai Porti. Questo è particolarmente utile per i piccoli natanti che, anche se non dotati di trasmettitore AIS, possono acquistare un economico ricevitore in grado di mostrare il traffico navale fino a molte miglia di distanza dalla propria posizione: una grande tranquillità per chi viaggia in rotte solcate da petroliere, porta-containers, traghetti veloci e ovviamente navi da crociera allo sbando. Ovviamente la comunicazione dell’AIS, effettuata in VHF usando una tecnica (TDMA, per la condivisione del canale con molte altre stazioni) importata dal mondo aeronautico, è limitata alla portata ottica. Ma nel caso delle grandi navi, è facilmente estesa anche di parecchio grazie all'altezza delle antenne trasmittenti. Dalla città di Roma è infatti facile monitorare tutto il traffico tra il Lazio e la Sardegna. Il ricevitore AIS è dotato di un proprio ricevitore GPS la cui precisione permette anche di specificare la posizione dell'antenna relativamente alla geometria della nave e questo consente di ricostruire bene non solo il moto del natante, ma anche la sua "occupazione" sul mare. Per ribadire il concetto, l’AIS non è una cosa futuribile: è una legge internazionale, come i giubbotti di salvataggio. Praticamente tutte le navi passeggeri ne sono dotate: monitorarne le emissioni da parte di organi competenti (nel senso di avere la competenza piuttosto che il compito) non dovrebbe essere un’opzione, ma un obbligo.

coperta dal VTS” si è sentito dire) ma ad un’azienda Olandese di software nautico (vedi nei Riferimenti). E' per questo motivo che il singolo individuo conta solo fino ad un certo punto, e che anche tutto il personale di plancia, insieme alla compagnia che permette (per scelta o per pura incoscienza) tali manovre, devono essere considerati responsabili, e per questo dovranno pagare. E che dire delle Capitanerie o di chi dovrebbe gestire e regolamentare la navigazione in mare? Perchè non istituire un monitoraggio dei dati registrati in navigazione come si fa su tutti gli aerei passeggeri? La vita di un passeggero su una nave di crociera vale forse meno di quella di uno che vola? Probabilmente è meglio dedicare risorse a multare i gommoni che sfora-

La rotta della Costa Concordia il giorno dell'incidente (in rosso) con sovraimposta quella di un passaggio analogo della stessa nave nell'Agosto del 2011 (in blu).

39


REPORTS no nelle aree protette o che mancano di una dotazione di sicurezza, piuttosto che disturbare i giganti del mare che rasentando le coste di notte potrebbero affondare, senza neanche accorgersene, pescherecci ed altre piccole imbarcazioni. Se si estende il quadro della situazione non alla semplice causa dell'incidente (manovra illegale), ma anche alla gestione dello stesso, viene fuori la grossolana incompetenza, la faciloneria, la sfacciata ignoranza a cui la vita di migliaia di persone è stata affidata. La somma di tutto è, di nuovo, un esempio dell'Italia di oggi, caratterizzata da una società cinica e diseducata, una società talmente malata da elogiare la furbizia facendo scherno dell'intelligenza, o encomiando il successo quando ottenuto in barba all'ignoranza. E' la società che usa persone di fama come "testimonial" di società che prosperano insegnando come "passare gli esami" piuttosto che "come studiare ed imparare". E purtroppo l'unica speranza che abbiamo è una speranza a lungo termine, che deve guardare ai giovani come ad una possibilità di cambiamento: ma a chi affidiamo l'educazione dei giovani? Qui non si tratta solo di una nave, ma di una nazione intera che è in rotta di collisione.

Riferimenti • THE GROUDING OF THE ROYAL MAJESTY - CAP 8 DA: ASAF DEGANI, "TAMING HAL", PALGRAVE/MCMILLAN • VOLO AF-447: HTTP://EN.WIKIPEDIA.ORG/WIKI/AIR_FRANCE_ FLIGHT_447 • QPS: SITO QPS HTTP://WWW.QPS.NL • TRACCIATO AIS DELLA COSTA CONCORDIA: HTTP://GOO.GL/ODUCW • TRACCIATO PASSAGGIO AGOSTO 2011: HTTP://GOO.GL/EKDQA

40

Ringraziamenti Una prima stesura di questo articolo è apparsa su: www.rivistageomedia.it Geomedia magazine wishes to credit and give thanks to QPS for having distributed the interesting evaluations and renderings of Costa Concordia AIS data stream.

Parole chiave COSTA CONCORDIA, AIS, GPS, NAVIGAZIONE MARITTIMA, AF-447, ROYAL MAJESTY.

Abstract The gods themselves ... Some arguing on the general context of the Costa Concordia grounding, where technologies such as GPS and AIS have been brought into play nonsensically by the mass-media. The accident was not caused by any technical or even banal human error, but by gross negligence and unlawful management of navigation.

Autori FABRIZIO BERNARDINI FB@AEC2000.EU

GEOmedia n°1-2012


trimble® m3 total Trimble® station & trimble GeoExplorer® access™ software

PRECISIONE TOPOGRAFICA, VANTAGGIO DEL PALMARE

Sperimenta le prestazioni di posizionamento a bordo di un palmare leggero, misurando con precisione i tuoi punti utilizzando l’antenna integrata o commutandola in quella esterna per renderlo un sistema rover di rete di alto livello, in grado di utilizzare tutti i Servizi Trimble Access™ e le correzioni di rete VRS™. La scelta è tua.

© 2012, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi commerciali di Trimble Navigation Limited, registrati negli Stati Uniti e in altri paesi. Tutti gli altri sono marchi dei rispettivi proprietari. SUR-200-IT


INTERVISTA

Intervista a Giovanni Maria Casserà Amministratore Delegato di GESP

G

EOmedia: da dove nasce GESP? Ci può raccontare le origini della società?

Giovanni Maria Casserà: Gesp S.r.l. è presente sul mercato dal 1977; anche se oggi è riconosciuta sul mercato come Azienda di informatica altamente specializzata nel settore dei Sistemi di Informatica geografica e tecnico scientifica, all’atto della sua nascita l’idea imprenditoriale che stava alla base di GESP si rivolgeva a un settore del tutto diverso: quello dei servizi di studio, pianificazione e progettazione del territorio e dell’ambiente. GESP era in origine un acronimo che stava appunto per “Gruppo Elaborazione Studio e Pianificazione” ad indicare la vocazione dell’azienda verso lo studio tecnico, la pianificazione e l’ingegneria del territorio. Dall’inizio degli anni ’80 vengono inseriti in Azienda i primi elaboratori elettronici destinati a supportare il lavoro dei progettisti sui quali iniziano a “girare” i primi software CAD; L’acquisizione di solide competenze di informatica grafica e geografica in GESP è quindi un processo motivato – inizialmente – dall’esigenza di dotarsi di un “service” interno capace di supportare il processo produttivo dell’Azienda. Verso la fine degli anni ’80, GESP acquisisce le prime commesse per l’elaborazione di basi dati cartografiche. E’ il settore – allora nascente - dei G.I.S. (Geographical Information System) o Sistemi Informativi Territoriali. All’inizio degli anni novanta, in seguito anche a un processo di ristrutturazione del Board azionario, GESP muta radicalmente la propria fisionomia e la propria “missione aziendale” trasformandosi definitivamente da Azienda di studio e pianificazione del territorio in Azienda di IT specializzata nella realizzazione di soluzioni e servizi per la pianificazione e la gestione del

42

territorio e dell’ambiente e divenendo – di fatto – una delle prime Aziende italiane operante esclusivamente nell’ambito specialistico dell’informatica geografica. Oggi, con un fatturato complessivo di circa 5 milioni di euro nel settore e con circa 60 dipendenti distribuiti sulle tre sedi di Milano, Torino e Bologna, siamo forse una delle più grandi realtà italiane a capitale privato nel segmento specifico. G: Quali sono gli ambiti in cui GESP si muove e quali sono quindi le competenze forti sia tecniche che consulenziali? GMC: La missione aziendale di GESP è lo sviluppo di progetti software e di servizi specialistici “tailor-made” finalizzati all'automazione di processi di business nell'area tecnica. Quello che noi facciamo, in sintesi, è progettare e realizzare – sulla base delle esigenze dei nostri Cienti - sistemi di informatica tecnica finalizzati alla gestione di dati geografici (G.I.S. - Geographic Information System) e spaziali (CAD - Computer Aided Disegn), per il settore delle utilities, della Pubblica Amministrazione e, più in generale, per tutti quei settori che hanno attinenza con l'ambiente, il territorio e le infrastrutture tecnologiche. La nostra visione dell'I.T. è quindi quella di un'informatica specialistica, in grado di generare reale valore aggiunto grazie alla capacità di gestire ed integrare la dimensione geo-spaziale dei dati; abilitare i sistemi informativi aziendali a gestire anche le componenti di natura geografica e spaziale significa - secondo noi – riuscire ad aumentare in modo significativo le performance di business degli Enti e delle Aziende che operano con il territorio. Una delle caratteristiche peculiari di

GESP è quella di operare con praticamente tutte le tecnologie di settore; negli ultimi anni, diversi sistemi sono stati realizzati utilizzando tecnologie Esri, Intergraph, Bentley o di altri marchi, ma anche soluzioni Open Source, sia per quanto concerne i database (MySQL, PostGIS, ecc.), sia in termini di tecnologia GIS (MapServer, JShape, Kosmo, ecc.). In altri termini, GESP opera su piattaforme che costituiscono standard di mercato (sia di tipo commerciale, sia Open Source). Credo che il nostro valore aggiunto consista nella capacità di supportare il Cliente nell'individuazione delle tecnologie che meglio recepiscono gli standard del settore geospatial (Open GIS Consortium, ISO / TC 211, W3C, ecc.), nell’utilizzare ambienti di sviluppo e linguaggi di programmazione standard - quali Java (J2SE, J2SE, J2ME), Microsoft.NET (C#, in particolare), Visual Basic e altri - sui quali l'azienda utilizza risorse certificate dagli stessi produttori della tecnologia (SUN, Microsoft, ecc.) e nel progettare e realizzare l'applicazione e la sua integrazione con i moduli pre-esistenti sulla base di User Requirements e Functional Specifications redatti in conformità con gli standard ISO:9001 - VISION 2000 vigenti in azienda. Inoltre, Al fine di mantenere la massima "visibilità tecnologica" e progettare sempre il sistema più efficiente, GESP aderisce a numerosissimi programmi di natura tecnica e tecnologica (EDN, Esri Developer Network; BDN, Bentley Partner Network; E-Spatial Partner Program; CADCORP Partner Program; RSC - Intergraph Registered Solution Center; OPN, Oracle Partner Network; MSDN, Microsoft Developer Network; FOSS4G, Free Open Source Software For GIS; Teleatlas / TOM-TOM Value Added Reseller).

GEOmedia n°1-2012


INTERVISTA G: La GESP ha una forte propensione per seguire progetti all’estero; come mai questa scelta di andare a competere sui mercati esteri? Quali le strategie di crescita per il mercati internazionali? GMC: Direi che più che di una scelta si è trattata di una vera e propria necessità. Nonostante tutto infatti sono e restano ancora pochi i grandi Clienti italiani in grado di dar vita a investimenti stabili e di un certo volume nel settore dell'integrazione dei dati geografici. Se si esclude la Pubblica Amministrazione (le cui dinamiche di spesa sono però endemicamente afflitte da incertezze, logiche particolaristiche e lungaggini burocratiche), le Aziende italiane in grado di dar luogo a investimenti di un certo rilievo nel settore si riducono a poche unità e sono tutte stabilmente presidiate dai grandi player di settore, cosa che rende più difficile (in taluni casi) l'accesso diretto a quei Clienti per realtà “di nicchia” come GESP. La decisione di prendere la valigia e andare all'estero a cercar lavoro è stata quindi una esigenza più che una scelta. In sostanza - volendo restare fedeli alla nostra mission specialistica e volendo quindi mantenere l’informazione geografica al centro della nostra attività di system-integrator - abbiamo fatto l'unica cosa ragionevole che potevamo fare: abbiamo iniziato a partecipare con continuità a bandi di gara emessi dalle grandi Istituzioni Finanziarie Internazionali (tipicamente UE, European Investment Bank, ONU, World Bank, ecc) per la realizzazione di Sistemi Informativi Geografici nei Paesi emergenti. E' stata una scelta vincente che ci ha premiato. Oggi sviluppiamo circa il 25- 30% del nostro fatturato su progetti esteri e negli ultimi anni abbiamo realizzato e consegnato grossi progetti GIS in Russia, Turchia, Kossovo, Romania, Siria, Cipro. Negli ultimi mesi poi abbiamo acquisito un paio di grandi incarichi nell’area caraibica, dove siamo attualmente impegnati. Mi piace pensare che i successi conseguiti in questi contesti siano ascrivibili anche al fatto che si tratta di gare in cui, a differenza di quanto avviene nel nostro Paese, viene premiato maggiormente il “merito” e la capacità tecnica rispetto alla “relazione”. Fra gli aspetti positivi di questa scelta segnalo la continuità degli investimenti da parte degli Enti su citati (e quindi il fatto di poter contare - a patto di perseverare nella partecipazione ai numerosissimi Bandi di gara - su una certa stabilità dei ricavi) e la maggiore marginalità delle commesse in questione rispetto all’Italia. Questo secondo aspetto si è effettivamente verificato

visita il sito www.rivistageomedia.it

solo a partire dall'ammortamento dei costi iniziali di impianto. Si tratta cioè di tutti quei costi – per la verità non di poco conto e non immediatamente espliciti – che è stato necessario sostenere per creare l'adeguato knowhow interno per la gestione della componente amministrativa (gestione dei bandi e dei documenti di gara) e della componente di business (ricerca e attivazione di partnership all'estero). Tutto questo è stato reso possibile dal fatto che, evidentemente, la componente di competenza tecnica era viceversa già ben presente in Azienda; senza di che non ci sarebbe mai stato possibile competere in questi contesti. Il fatto poi di essere presenti all'estero, è di grande aiuto anche sul versante interno, nel processo di formazione del nostro personale, dandoci modo di completare il processo di apprendimento dei nostri giovani tecnici con qualche breve trasferta di lavoro: sviluppare e implementare codice confrontandosi con colleghi di altri Paesi è di per sé stimolante dal punto di vista professionale e consente di acquisire più rapidamente esperienza e sicurezza. Per il futuro contiamo di intensificare le attività sui mercati internazionali con l’intento di portare la quota relativa di fatturato attorno al 50% del volume complessivo. Attualmente siamo a buon punto: stiamo realizzando un sistema Gis per oltre 20 isole dell’arco caraibico, finalizzato alla valutazione e riduzione del rischio ambientale e meteo-climatico. Oltre a questo abbiamo appena siglato un contratto per la fornitura di software Gis in Cina, abbiamo nostro personale impegnato nell'erogazione di corsi specialistici sull’utilizzo delle tecnologie Gis ad Addis-Abeba e stiamo attendendo di conoscere l’esito di due gare nei Paesi dell’Est, bandite rispettivamente da Ue e World Bank. Inoltre stiamo partecipando a Gare in Brasile e nel continente africano. G: E le strategie per il mercato italiano? Come si inquadra l'acquisizione di Sysgroup di Torino? GMC: L’acquisizione del 100% del Capitale Sociale di SYSGROUP Torino (www. sysgroup.it) , corrisponde a una precisa logica “industriale” che GESP sta cercando di perseguire per consolidare il proprio posizionamento sul mercato interno.

In termini di fatturato SYSGROUP produce (valori 2011) un milione di euro di ricavi, mentre GESP chiude il bilancio 2011 con un fatturato complessivo di circa 5 milioni di euro. L’intento – in termini di piano industriale per il 2013 - è quello di raggiungere un volume di fatturato complessivo di circa otto milioni di euro nel settore specialistico delle applicazioni Geospatial e con un EBITDA dell’ordine del 15%. I nostri indicatori sulla crescita della domanda ci dicono che si tratta di obiettivi ampiamente raggiungibili. Da un punto di vista merceologico la fusione definitiva delle attivià di SYSGROUP in GESP (prevista entro la fine del 2012) avrà però anche un’altra caratteristica importante che è quella di migliorare ulteriormente il nostro posizionamento in particolare nel segmento delle Utility che rappresentano, secondo noi, un mercato molto interessante per il settore delle tecnologie geospatial. GESP è già molto attiva nel settore ed ha al suo attivo alcune importanti referenze sia italiane che estere nell’ambito delle reti di trasporto dell’energia. Il nome di maggior spicco fra le referenze italiane di GESP in questo settore è quello di Snam Rete Gas per conto della quale gestiamo il catalogo applicativo di tutti i sistemi CAD/GIS preposti alla gestione e manutenzione degli oltre 30.000 km della rete di trasporto. SYSGROUP, viceversa, ha numerose e importanti referenze nell’ambito delle applicazioni GIS per il comparto delle reti di distribuzione. Fra i Clienti di maggior rilievo di Sysgroup ricordiamo infatti Italgas per conto della quale gestiamo, con applicazioni GIS ad hoc, la rete di distribuzione relativa a circa 1500 comuni italiani. L’integrazione fra le due Aziende ci consentirà quindi di completare la nostra offerta dandoci maggiore penetrazione commerciale e con ricadute positive in termini di generazione di valore per i nostri Clienti. Milano, Marzo 2012. A cura della Redazione

43



GI IN EUROPE di Mauro Salvemini

Finalmente l’informazione geografica digitale entra in Parlamento con un disegno di legge Il 21 Marzo 2012 è stato presentato dal Senatore Candido De Angelis il ddl per la “DELEGA AL GOVERNO PER IL RIASSETTO DELLE STRUTTURE COMPETENTI IN MATERIA DI GESTIONE E FRUIZIONE DELL'INFORMAZIONE GEOGRAFICA DIGITALE, NONCHÉ PER IL PIÙ RAZIONALE UTILIZZO DELLA STESSA AL FINE DELLO SVILUPPO DEI SERVIZI CONNESSI “ (Atto Senato n. 3216 della XVI legislatura)

L

’informazione geografica come che già generò un avviso di prorisorsa è stato considerato il cedimento di infrazione, nonché punto di partenza del processo la speranza che norme merache ha portato alla presentazione mente tecniche ( quali i decreti del disegno di legge che , sottorecentemente pubblicati sul cascritto già da 20 senatori di vari talogo dei dati, sulle ortofoto e gruppi parlamentari nel giro di sui sistemi di riferimento) siano poche settimane, ha preso sin sufficienti o possano definire e dall’inizio le caratteristiche di un realmente influenzare il contedisegno di legge trasversale alle sto Italiano della informazione Il Senatore Candido componenti politiche , come del De Angelis. geografica digitale, non sono resto era nelle aspettative del adeguati a quello che la società proponente. Il Senatore De Anmoderna e lo sviluppo econogelis ne aveva già accennato nella mico e tecnologico chiede ad conferenza nazionale di AMFM del 2009 un Paese moderno quale l’Italia. quando aveva evidenziato che ci sono anE’ la prima volta, a seguito di ricerche che cora troppe competenze frammentate nel ho fatto sul data base del Senato, che la campo della informazione geografica digidefinizione ed il concetto di informaziotale e manca una “regia” sulla gestione e ne geografica digitale entra nelle aule del disponibilità dei dati. Parlamento. E’ un fatto veramente storico L’asse portante del ddl può sintetizzarsi quello avviato dal Senatore De Angelis. con la parte conclusiva della relazione inCome è assolutamente storico il chiaro introduttiva che , dopo un ampia disamina dirizzo, individuato dal ddl, di usare la Didel problema e delle tendenze , il Senatore rettiva INSPIRE come driver dello sviluppo De Angelis così conclude : “Il presente died uso della informazione geografica digisegno di legge dà una delega al Governo tale istituendo un agile “tavolo tecnico perper la rettifica e l’integrazione della normanente” con funzioni di individuazione e mativa esistente al fine di conseguire gli programmazione degli interventi nell’amobiettivi di una più razionale attribuzione bito della DigitPA e lasciando alla Consuldelle competenze in materia di adeguata nazionale per l’informazione territoriale mento, gestione e fruizione dell’informaed ambientale, già istituita nel decreto di zione geografica digitale, nonché per il più recepimento di INSPIRE, le esclusive comrazionale utilizzo della stessa informazione petenze in materia ambientale. Particolare geografica considerata quale risorsa al fine attenzione nell’ultimo comma viene posta dello sviluppo dei servizi per i cittadini, le alla interazione e coordinamento con le imprese e la pubblica amministrazione stessa .” Il Disegno di Legge è composto da un solo articolo che viene riportato nel riquadro accanto. Il tema infatti della informazione geografica non può essere oggetto di una unica norma, ma come è avvenuto e sta avvenendo internazionalmente, deve essere oggetto di riflessione ed azione da parte delle istituzioni per assicurarne la più ampia ed armonica partecipazione e regolamentazione alfine del suo sfruttamento per il bene comune. Ragionamenti e discussioni circa i soli enti cartografici dello Stato, il tentativo di coordinamento a livello regionale della produzione della cartografia digitale, l’assoluta insufficiente capacità sinora dimostrata dalle istituzioni delegate a costruire iniziative sulla Direttiva INSPIRE, il faticoso e non efficiente inseguire tendenze quali open-data e la cosiddetta “ geografia volontaria”, il precedente faticoso percorso del recepimento della Direttiva denominata PSI ( Public Sector Information)

visita il sito www.rivistageomedia.it

strutture esistenti a livello sub nazionale che così rilevante interesse dimostrano nei confronti di INSPIRE ed in genere della informazione geografica digitale. Con questo ddl l’Italia fa un salto in avanti che da tempo si attendeva posizionandosi in un contesto Europeo ed Internazionale che la hanno vista sinora ai bordi o addirittura fuori degli ambiti dove si sta lavorando per basare lo sviluppo sostenibile della società sulla informazione geografica digitale.

Testo del ddl (il ddl completo è scaricabile all’indirizzo riportato in fondo).

Abstract Finally the discussion on digital geographic information is in the Italian Parliament with a proposal of legislation for the "RENOVATION OF GEOGRAPHIC INFORMATION MANAGEMENT AND USE OF THE DIGITAL INFRASTRUCTURE"(Act No 3216 Senate).

Link al ddl http://www.senato.it/service/PDF/PDFServer/BGT/00658075.pdf

Parole chiave Nazioni Unite , Dichiarazione di Seoul, Millenium Goals, gestione della informazione geospaziale.

Autore MAURO SALVEMINI MAURO.SALVEMINI@UNIROMA1.IT

45


LETTERA APERTA Al Ministro dell’Ambiente, Tutela del Territorio e del Mare Dott. Corrado Clini Al Ministro della Difesa Amm. Giampaolo Di Paola Al Ministro dell’Istruzione, Università e Ricerca Prof. Francesco Profumo Onorevoli Ministri, quando si saranno spenti i sinistri bagliori che illuminano, davanti agli increduli abitanti del pianeta, la tragedia della Costa Concordia, quando i media avranno allentato la morsa che sta calamitando l’attenzione del mondo sull’Isola del Giglio e, metaforicamente, sul naufragio del nostro sistema Paese, spero che, tra le tante, difficili e pesanti incombenze che dovete affrontare, vogliate intraprendere il cammino di una non emotiva valutazione di quanto accaduto. Una valutazione tesa non solo e non tanto ad individuare quali e quanti eroi buoni si possano contare e osannare, separandoli da quelli cattivi e inaffidabili e confinando così nella sfera delle responsabilità individuali colpe imprevedibili o quasi (così come imprevedibili o quasi sono i comportamenti dei singoli), ma tesa anche a ricercare eventuali responsabilità di sistema, sicuramente più curabili con strategie di lungo periodo e di maggiore affidabilità. Ove riteneste ciò degno di essere fatto, mi sembrerebbe utile e opportuno che ci interrogassimo tutti sulla qualità, l’efficienza e l’efficacia dei percorsi formativi di preparazione a carriere così delicate, sulla qualità, l’efficienza e l’efficacia dei metodi di selezione per l’accesso a quelle carriere, sulla qualità, l’efficienza e l’efficacia dei processi di controllo periodico delle capacità e delle competenze di chi opera, sulla qualità, l’efficienza e l’efficacia degli organismi deputati alla produzione e alla diffusione delle informazioni usate dai naviganti, e infine sulle risorse destinate a garantire qualità, efficienza ed efficacia al sistema. È da anni oggetto di approfonditi dibattiti scientifici a livello internazionale il fatto che molti utenti di carte nautiche non hanno alcuna idea sul grado di incertezza delle informazioni presenti sulle carte che usano. Questa carenza porta a inappropriate decisioni inerenti la condotta della navigazione, a collisioni e naufragi e, talvolta, a perdita di vite umane e a devastanti disastri per l’ecosistema, come recenti eventi hanno dimostrato in tante parti del mondo. Nel settembre 2003 la nave Gordon Reid, della Guardia Costiera canadese, naufragò usando una carta con informazioni incomplete sulla affidabilità dei dati. La carta non indicava che, per l’area dell’incidente, i dati si basavano su rilievi del 1923 condotti con sestante e scandaglio a filo con interdistanza tra le linee di scandagliamento pari a circa 400 m, quindi con rilevanti porzioni di fondo non esplorate. Un’indagine successiva scoprì altri 10 ostacoli non rilevati, di cui 3 a profondità minore di 10 m e quindi pericolosi per la navigazione di superficie. Nei decenni passati i metodi di posizionamento usati per i rilievi idrografici erano molto più accurati dei mezzi a disposizione dei naviganti che usavano le carte. Dunque questi erano addestrati a stare in sicurezza tenendo conto dell’ampio margine di errore dovuto alla loro modesta capacità di auto-posizionamento; le imprecisioni intrinseche nelle carte nautiche potevano essere tranquillamente trascurate nella stima degli errori complessivi della navigazione. Oggi, quasi tutti i naviganti usano il GPS, spesso con le correzioni differenziali che ne aumentano significativamente l’accuratezza. Tutto ciò consente una precisione nella definizione della rotta ben più elevata di quella disponibile al tempo dei rilievi idrografici realizzati per la costruzione di molte delle carte nautiche disponibili in giro per il mondo.Il processo decisionale nella condotta della navigazione è stato profondamente alterato dall’elevata accuratezza del GPS. Alcuni naviganti sono portati superficialmente a pianificare rotte che evitano di stretta misura i pericoli segnalati sulle carte, perché ritengono che il GPS consentirà loro di seguire accuratamente la rotta pianificata. Questo approccio dei decisori non tiene in alcun conto le incertezze di localizzazione e di profondità degli ostacoli che essi hanno pianificato di evitare e abbatte i margini di sicurezza riducendo pericolosamente le distanze da quegli ostacoli. Troppo spesso tale irresponsabile fiducia acritica nella tecnologia, unita alla superficiale presunzione che un’area è sicura anche in assenza di corrette informazioni, solo perché tante volte si è sperimentato un passaggio senza conseguenze, conduce a tragedie evitabili. Gli idrografi non sono più protetti dalla storica superiorità dei loro strumenti di posizionamento rispetto a quelli dei naviganti. L’era digitale ha portato alla luce la carenza di adeguate informazioni e di risorse sufficienti per rispondere alle esigenze di più rigorosi metodi di controllo di qualità e di più chiare informazioni sull’attendibilità dei dati ricavabili dalle carte, sia tradizionali che elettroniche. Non pochi hanno argomentato che evidenziare le incertezze potrebbe condurre ad una impressione negativa e a un abbassamento della fiducia nelle istituzioni. È certo un’inaccettabile difesa corporativa! Tre incertezze fondamentali costituiscono oggi il budget totale dei potenziali errori di navigazione: quelle nel posizionamento degli ostacoli sulle carte, quelle nei valori di profondità indicati e infine l’incompleta copertura (forse il caso più comune), ossia l’incertezza sull’esistenza o meno di un ostacolo non indicato: è stato il caso della nave canadese, divenuto un caso di scuola per chi si occupa di sicurezza della navigazione. L’Organizzazione Idrografica Internazionale (IHO) ha definito differenti metodi per indicare l’attendibilità dell’informazione ricavabile da una carta nautica. Essi dovrebbero essere riportati sulle carte di carta e mostrare i limiti geografici di ciascun rilievo che ha generato la carta, descrivendone le caratteristiche. Alcuni indicano la data del rilievo (da cui si può ragionevolmente desumere il tipo di strumentazione adottata) e la scala dello stesso (da cui l’utente non sprovveduto può ragionevolmente desumere l’interdistanza tra le linee di scandagliamento e stimare l’ampiezza delle aree prive di informazioni). Altri indicatori offrono una valutazione dell’accuratezza e una guida alla scelta delle aree da preferire per una navigazione più sicura. Nelle carte elettroniche, l’incertezza dovrebbe essere invece indicata con un attributo che definisce le zone di differente affidabilità. Il parametro di classificazione definisce le aree di differente accuratezza e indica quali parti delle carte hanno totale copertura del fondo marino e riportano le profondità di tutti i particolari significativi (classe A1 e A2), quali carte o parti di esse hanno copertura incompleta del fondo e dunque sia da ipotizzare l’esistenza di ostacoli non cartografati (classe B), o anomalie di profondità piccole (classe C) o grandi (classe D) non indicate. Altrettanto chiari sono i criteri di classificazione delle incertezze di posizione e di profondità per ciascuna classe.


Purtroppo un’analisi a scala globale (così come globale è la navigazione) di tali indicazioni, evidenzia che molte carte elettroniche di prima generazione hanno ancora il parametro indicatore di affidabilità U (unknown=sconosciuto). Peggio, sembra esserci il timore che documentare semplicemente un’elevata incertezza delle carte potrebbe abbassare il valore legale del loro uso e quindi talvolta si possono incontrare (per fortuna non è il caso dell’Italia) carte in cui l’incertezza è stata prudentemente mascherata da discutibili informazioni sui rilievi generatori, alterandone l’apparenza per uniformarle ad altre ben migliori carte ufficiali. La mia lunga esperienza professionale e didattica mi ha fatto purtroppo riscontrare una significativa inadeguatezza dei processi formativi rispetto alle radicali evoluzioni tecniche e scientifiche dei nostri tempi, una complessiva inadeguatezza dei processi di formazione permanente e certificata degli addetti ai lavori e una devastante carenza di risorse destinate alle strutture cui la comunità chiede servizi all’altezza delle sfide imposte dai tempi. Con assoluta analogia tra il mondo della terraferma e quello del mare, si può documentare che il sistema delle informazioni territoriali e ambientali è profondamente malato. Il mondo del mare, che per la nostra Nazione è non poca cosa, sperimenta poi, a fronte dei rischi se possibile ancor più gravi rispetto al permanente gravissimo rischio idrogeologico che incombe sulla parte emersa della nostra bell’Italia, un’incredibile carenza di risorse. A fronte del significativo numero di carte nautiche disponibili nel mondo ancora basate su rilievi a “filo” o con ecoscandaglio a singolo fascio, tutti sono convinti che una tale eredità dovrebbe essere sostituita da rilievi moderni di alta qualità, a copertura totale dei fondali e con impiego del GPS per il posizionamento, in luogo del sestante. La povertà di risorse finanziarie, umane e tecnologiche rende l’operazione non completabile, almeno a breve termine. Una serena analisi dei tempi e dei costi su cui basare qualsiasi progetto, consentirebbe a chiunque di rendersi conto che lo sparuto manipolo di specialisti che la nostra nazione può mettere in campo per un rilievo moderno della fascia costiera (scusate se è poco!), se anche costoro fossero i più bravi del mondo (insostenibile presunzione), impiegherebbe oltre un secolo, a risorse vigenti e programmate, per conseguire lo scopo: il nulla sarebbe forse più dignitoso e più difendibile! Per fortuna non è solo un problema italiano, altre nazioni con prestigiose tradizioni marinare (Regno Unito, Stati Uniti, Canada e Australia, ad esempio) se lo sono già posto e stanno lavorando a soluzioni percorribili, anche nel campo strategico della formazione, introducendo e potenziando l’educazione alla valutazione delle incertezze, basilare per i costruttori e per i fruitori di informazioni nautiche. Grazie dell’attenzione Firenze, 19 gennaio 2012 Prof. Luciano Surace Presidente della Federazione Italiana delle Associazioni Scientifiche per le Informazioni Territoriali e Ambientali già (fino al 2010) Professore ordinario di Geodesia e Astronomia geodetica presso l’Istituto Idrografico della Marina già (fino al 2011) primo VicePresidente dell’International Board for Standard of Competence for Hydrographic Surveyors and Nautical Cartographers.

MobileMapper™ 100 Caratteristiche • Configurazioni: L1 GPS L1 GPS + GLONASS L1+L2 GPS • Accuratezza sub-metrica, decimetrica o centimetrica RTK • S.O. Windows Mobile 6.5 • Fotocamera integrata da 3 megapixel

GPS portatile professionale con molteplici configurazioni: livello di precisione scalabile da sub-metrico a centimetrico. Utilizzabile per: misura superfici agricole, rilievi topografici, ricerca confini anche in sottobosco, squadro appezzamenti, rilievo piani quotati. MobileMapper™ 100 è certificato da AGEA per i controlli delle superfici agricole!

MobileMapper™ 10 GPS portatile professionale ideale per mappature, acquisizione ed aggiornamento dati di campagna. Soddisfa le esigenze di chiunque ha bisogno di un GPS efficiente, produttivo ed economico. L'opzione Post-Processing permette di avere precisioni inferiori al metro.

Caratteristiche • Adatto ad ambienti ostili (IP54) • Windows Mobile 6.5 • Fotocamera integrata da 3 megapixel

• Impermeabile e antiurto (IPX7)

www.arvatec.it

• Bluetooth, WiFi, GSM integrati

• GSM/GPRS, Bluetooth e WiFi integrati

per vedere tutti i nostri sistemi GPS

• Possibilità Post-Processing

Tel. 0331 464840 - Fax 0331 579360

©2010 Astech LLC. All rights riserved. The Astehc logo and MobileMapper are trademarkes of Ashtech, LLC. All other products and brand names are trademarks of their respective holders.


RECENSIONE

La cartografia dall’antichità fino al XVIII secolo AUTORE: CARLO MONTI EDITORE: MAGGIOLI EDITORE, SANTARCANGELO DI ROMAGNA (RN) 2011 WWW.MAGGIOLI.IT PAGINE: 173 PREZZO: € 25,00 ISBN: 978-88387-6020-9 A CHI È DIRETTO: STUDENTI DI INGEGNERIA, ARCHITETTURA, GEOGRAFIA. PROFESSIONISTI DEL SETTORE CARTOGRAFICO.

S

crivere di temi cartografici e di storia della cartografia non è certo una novità. Dunque, è arduo per chi ne scrive riuscire a trovare una chiave di lettura che possa essere interessante e abbia un carattere innovativo e diverso dalle precedenti pubblicazioni. Eppure in ‘La cartografia dell’antichità fino al XVIII secolo’, Carlo Monti inserisce elementi descrittivi che riescono a rendere il suo lavoro diverso rispetto alla manualistica che ha come oggetto la cartografia. Il libro conduce per mano il lettore nella storia della cartografia e stimola l’approfondimento di argomenti che nel testo sono brevemente citati; il carattere narrativo con cui sono trattati, incita la curiosità rispetto a diverse vicende storiche che si nascondono nelle trame delle storie riportate, ad esempio, dietro la produzione cartografica ai tempi di Alessandro Magno affidata a Callistene. Il pregio di questo lavoro consiste, secondo il parere di chi scrive, nel non slegare mai il sapere cartografico dalle conoscenze geografiche, anzi evidenziando gli aspetti cartografici connessi alle condizioni sociali, etniche, ecc.: “La carta ha un impatto sociale, è la rappresentazione dei luoghi dove si

48

vive e deve servire per capire come si possa attraverso la conoscenza del territorio, programmare quelle opere che portano a vivere una vita migliore” (pp.22-22). Dall’antichità a oggi nulla è cambiato rispetto all’utilità della cartografia anche se quanto riportato in questo testo, come in altri saggi simili, rimane troppo spesso inascoltato, cosa che, invece, nell’antichità non accadeva: gli agrimensori reali egiziani e quelli romani conoscevano bene l’importanza delle mappe del delta del Nilo per poter ripristinare i confini delle proprietà dopo ogni piena. Il lessico utilizzato, elegante e accattivante, della trattazione storica potrebbero trarre in inganno un lettore superficiale, portato a credere di essere di fronte a una mera annotazione cartografica con ottime aspirazioni letterarie e storiche, utile esclusivamente ad ampliare il proprio bagaglio culturale, ma, in realtà, il lettore attento, che si pone di fronte al testo con la piena consapevolezza che dal passato si possono apprendere diverse lezioni da applicare al presente, trova in esso la conferma che attraverso il passato si può guardare al futuro. Tale concetto è confermato dall’intento di Strabone il quale vuole fornire il maggior nume-

ro di informazioni possibili e utili agli uomini di stato e di governo, ai governatori delle province a cui la geografia è necessaria (p.22). Da quanto riportato, storie, descrizioni di strumenti, tecniche della cartografia antica e moderna, illustrate anche con un corredo iconografico di tutto rispetto, si evince come disegnare il profilo dei territori, rappresentare geometricamente la superficie terrestre non sia un’attività scevra di condizionamenti, anzi si evince come uno dei condizionamenti più forti, il potere, sia presente nelle opere cartografiche. Lo stile della narrazione agevola la lettura che risulta così leggera e amabile pur trattando un argomento non sempre semplice da illustrate. Completa il testo un CD-ROM nel quale è possibile visualizzare delle carte storiche; il contenuto del Cd, sono il frutto di esperienze di ricerca e studi universitari che oltre a essere l’evidente testimonianza di quanto la tecnologia sia coniugabile con la cartografia storica, possono essere utilizzate per la visualizzazione e la divulgazione di concetti che, erroneamente, vengono troppo spesso trascurati. SL

GEOmedia n°1-2012


Insieme per l’intelligenza del territorio

www.esriitalia.it


RECENSIONE

LA CARTOGRAFIA MODERNA CON PARTICOLARE RIFERIMENTO ALL’ITALIA Aspetti scientifici, statistici, approfondimenti AUTORE: CARLO MONTI EDITORE: MAGGIOLI EDITORE, SANTARCANGELO DI ROMAGNA (RN) 2011 WWW.MAGGIOLI.IT PAGINE: 383 PREZZO: € 35,00 ISBN: 978-88387-6021-7 A CHI È DIRETTO: STUDENTI DI INGEGNERIA, ARCHITETTURA, GEOLOGIA, ARCHEOLOGIA. PROFESSIONISTI DEL SETTORE CARTOGRAFICO.

I

l testo è parte di una collana di due volumi dedicati alla Cartografia storica e moderna. Questo secondo volume riguarda la cartografia moderna, ma non solo. Una prima parte tratta della forma della Terra, delle carte moderne e delle loro proiezioni. In particolare è illustrata la cartografia dopo l’unità d’Italia, quali le proiezioni di Samson-Flamsteed e di Gauss-Boaga. Sono affrontati i problemi analitici delle carte conformi, in particolare la conforme di Mercatore e le conformi di Gauss e Lambert. I principi teorici si accompagnano a molti esempi pratici di calcoli geodetici sul piano cartesiano conforme. È poi trattata la proiezione di Cassini Soldner usata dal Catasto Italiano. Molti esempi riguardano le trasformazioni di coordinate. Un capitolo è dedicato al calcolo delle linee geodetiche sull’ellissoide, problema che nel caso delle grandi distanze non è risolvibile sui piani cartografici. Particolare attenzione è dedicata al problema delle quote. Sono poi riportati tre esempi diversi tra loro, ma importanti, di applicazioni speciali: il progetto esecutivo della galleria del Brennero e relative operazioni topo-cartografiche; un esempio di orientamento magnetico e geografico applicato in aeroporti ed eliporti;

50

infine come viene operato il passaggio fra coordinate in sistemi di riferimento diversi dopo l’introduzione del GPS e le Stazioni permanenti. Una seconda parte riguarda il trattamento statistico delle operazioni di rilievo con esempi pratici di applicazione del calcolo delle probabilità e del principio dei minimi quadrati ai dati di misura. Seguono alcune considerazioni e ragionamenti sulla probabilità. La terza parte tratta un interessante argomento a latere esaminando le connessioni fra scienza e psicologia, casualità e causalità. Il testo è arricchito da una copiosa bibliografia e sitografia utile per eventuali approfondimenti. Da consigliare a chiunque abbia a che fare con il territorio, sia per grandi opere che per analisi, pianificazione, formazione o uso di cartografia. Una raccolta di argomenti che dovrebbe essere considerato come base minimale conoscitiva di ogni professionista operante sul territorio. Ottimo testo universitario per le Facoltà di ingegneria, architettura, geologia, ma anche per archeologi, agronomi ed operatori di Sistemi Informativi Geografici, ai quali tale opera si dirige e per i quali costituisce un gruppo di argomenti di base indispensabili per il conseguimento di

una laurea in discipline del Territorio. Carlo Monti è Laureato in Ingegneria civile e in Architettura presso il Politecnico di Milano dove è Professore Ordinario di Topografia e cartografia dal 1986. Si è sempre occupato di cartografia sia dal punto di vista teorico che applicativo, sia moderna che storica. E’ stato collaudatore di cartografie moderne numeriche di importanti capoluoghi italiani, fra cui Milano. Si è occupato di cartografia storica, soprattutto della vedutistica seicentesca e della moderna cartografia degli astronomi di Brera tra la fine del XVIII e l’inizio del XIX secolo. E’ stato Presidente della Società Italiana di Topografia e Fotogrammetria. Per due mandati Direttore di dipartimento. Delegato italiano nella International Society of Photogrammetry and Remote Sensing. Responsabile di Commissioni Europee (OEEPE) e internazionali (CIPA). Membro del Consiglio di Direzione dell’ICOMOS (UNESCO). Membro onorario della Società Ellenica di Cartografia. Editors di e_Perimetron Quarterly web journal on Sciences and Thecnologies Affine to History of Cartography and Maps. E’ autore di circa 250 pubblicazioni fra le quali numerosi libri. RC

GEOmedia n°1-2012


Agli albori della Commissione Geodetica Italiana, ente soppresso negli anni '70,, la Commissione per la Misura del Grado di Meridiano in Europa. Immagine gentilmente fornitaci dal Alberto Oberholtzer che sta effettuamdo ricerche sulla attività del suo trisnonno Francesco Oberholtzer. Se qualcuno abbia notizia di materiali (documenti, verbali, foto) sulle riunioni di tale Commissione, GEOmedia sarebbe felice di aiutarlo a ricostruire le vicende del suo avo. Per qualsiasi comunicazione si prega di scrivere a redazione@rivistageomedia.it

TEOREMA - SOLUZIONI PER LA TOPOGRAFIA

Leica TS/TM30

Leica GNSS Serie Viva

Leica C10

www.geomatica.it

Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 - Fax 02 57301988 • teorema@geomatica.it


ASSOCIAZIONI

AIC-Associazione Italiana di Cartografia CONVEGNO ANNUALE “LA CARTOGRAFIA NELLA VALORIZZAZIONE DEI BENI NATURALI E CULTURALI” Padova, 10-11 maggio 2012 La tematica posta alla base di questo convegno non può non richiamare le politiche finora adottate per la salvaguardia dei beni naturali e culturali dalle criticità che ne compromettevano l’integrità e ne minavano l’esistenza. Se da una parte l’accezione di bene culturale è divenuta sempre più estensiva andando a interessare non solo le opere d’arte o i monumenti, ma qualsiasi espressione della civiltà umana in condizioni di testimoniare la cultura che lo ha prodotto, dall’altra, nel caso di bene naturale, si lega di più alle pratiche sociali che hanno definito una graduale rivisitazione del consumo dell’ambiente approdando a politiche di tutela estremamente rigorose soprattutto in presenza di minacce per le specie in via di estinzione. Nella valorizzazione dei beni naturali e culturali la cartografia si pone pertanto come progetto aperto e teso ad abbracciare una moltitudine di aspetti, di situazioni e possibilità da cui deriva una estrema varietà di elaborazioni creative, ancor prima del ricorso alla potenzialità rappresentativa. Il progetto cartografico che potrebbe presiedere al processo di valorizzazione dei beni culturali è infatti assolutamente aperto a una molteplicità di interpretazioni sia per i diversi saperi che trattano gli aspetti scientifici, sia per le motivazioni che ne giustificano l’attenzione, spaziando dalla semplice tutela che porta alla definizione dell’area di vincolo diretto, alla individuazione dello spazio al cui interno possono verificarsi azioni che interagiscono con il bene tutelato: ad esempio il campo visivo sotteso da un monumento. http://www.associazioneitalianacartografia.org/

ASITA-Federazione Italiana delle Associazioni Scientifiche per le Informazioni Territoriali ed Ambientali Convegno Annuale 16a Conferenza Nazionale ASITA 6-9 novembre 2012 Centro Congressi - Fiera di Vicenza Scadenze 11 maggio 2012 Termine per il ricevimento delle proposte di comunicazione 8 giugno 2012 Comunicazione agli autori dell'accettazione e invio delle istruzioni per la preparazione del lavoro 7 settembre 2012 Termine per il ricevimento dei contributi da pubblicare negli Atti 30 settembre 2012 Comunicazione agli Autori della sessione di assegnazione Gli autori che intendono presentare delle proposte di comunicazione (abstract) alla 16a Conferenza Nazionale ASITA del 2012 devono individuare il tema principale e i sotto-temi seguendo le indicazioni contenute nel modello di sottomissione abstract. http://www.asita.it

AM-FM Automated Mapping Facility Management Geographic Information Systems – Sezione Italiana AMFM partecipa al convegno internazionale INPUT 2012 che si svolgerà presso l’Università di Cagliari. La “Seventh International Conference on Informatics and Urban and Regional Planning (INPUT 2012)”, è organizzata dal Dipartimento di Ingegneria Civile, Ambientale e Architettura di Cagliari e il Dipartimento di Agraria dell’Università di Sassari. Il tema del convegno è “Planning support tools: policy analysis, implementation and evaluation.”

SIFET – Società Italiana di Fotogrammetria e Topografia Convegno Annuale I GNSS: DALL'INQUADRAMENTO AL RILIEVO DI DETTAGLIO 12 - 14 SETTEMBRE 2012 AULA MAGNA FACOLTA' DI INGEGNERIA- MODENA I GNSS (Global Navigation Satellite Systems) rappresentano una delle tecniche di rilievo più interessanti da un punto di vista della ricerca e delle applicazioni professionali. Le loro applicazioni come tecnica di rilievo per la realizzazione dei sistemi di riferimento, per la definizione di reti di inquadramentolocale e di monitoraggio e per varie tipologie di rilievo di dettaglio (aggiornamento di cartografia e GIS, aggiornamento catastale, tracciamento di opere di ingegneria, ecc.) sono in continua evoluzione e diffusione. La SIFET si propone quindi di presentare un quadro aggiornato dello sviluppo di questa tecnica di rilievo, offrendo un panorama esaustivo delle attività di ricerca in atto a livello nazionale e internazionale e delle ricadute che tali ricerche hanno e avranno a livello professionale nei prossimi anni. Il tema del Convegno SIFET 2012 apre una stagione di appuntamenti annuali che intendono affrontare le tecniche di rilievo di base di interesse dei soci SIFET offrendo ai soci e alle persone interessate la possibilità di apprezzare le potenzialità delle tecniche di rilievo metrico e di aggiornarsi sulla loro evoluzione.

52

GEOmedia n°1-2012


Crisi o non crisi, continuiamo a crescere. Forse perché non cerchiamo di fare i furbi. La crisi colpisce tutti, per carità. Ma la vita va avanti e – soprattutto per chi fa un lavoro molto specializzato, come noi – c’è sempre mercato. A patto di lavorare bene, s’intende. E di aver fatto in passato scelte corrette, sviluppando competenze che con il tempo crescono di valore. Da molti anni, investiamo costantemente in R&D studiando soluzioni innovative per semplificare l’uso delle applicazioni geospatial, creare interfacce sempre più intuitive e integrare in maniera trasparente i dati geo-spaziali nella filiera produttiva, migliorando in modo significativo la performance dei sistemi IT. Parallelamente, abbiamo messo a punto procedure che consentono di raggiungere l’eccellenza di prodotto nel rispetto dei tempi e del budget, con un livello qualitativo sempre certificato. Inoltre, abbiamo percorso prima di altri la strada del software open source, liberando i nostri clienti da molte rigidità tecnologiche e garantendo la massima qualità a costi competitivi Grazie a tutto questo, siamo riusciti a competere con successo in Russia, Kosovo, Romania, Turchia, Siria, Cipro, i Caraibi.

GESP Srl MILANO - BOLOGNA - TORINO http://w w w.gesp.it - gespsrl@gesp.it

E oggi affrontiamo nuove sfide in un contesto sempre più globale e allargato: attualmente, i nostri programmatori e i nostri tecnici sono attivi in quattro continenti e una parte consistente del nostro fatturato proviene da clienti esteri. Continuiamo a crescere, sia in temini economici, sia in termini dimensionali. I nostri collaboratori aumentano, abbiamo aperto nuove sedi e stiamo entrando in mercati che richiedono applicazioni geospatial sempre più evolute, come i trasporti, le telecomunicazioni, l’ambiente e i beni culturali. Insomma, crisi o non crisi, continuiamo a perseguire il nostro obiettivo di fondo: confermare il trend che negli ultimi anni ci ha permesso di diventare una tra le principali realtà italiane nel settore del GIS. Evitando di imbrogliare le carte.


AGENDA

2011-2012 6 - 10 maggio Roma FIG Working Week 2012 http://www.fig.net/fig2012/ 10 – 11 maggio Padova Convegno AIC, La cartografia nella tutela e valorizzazione dei beni naturali e culturali www. associazioneitalianacartografia. org 10 – 12 maggio Cagliari INPUT 2012 http://input2012.it 15 – 16 maggio Roma Third Annual Hyperspectral Imaging Conference http://istituto.ingv.it/l-ingv/ convegni-e-seminari/archiviocongressi/convegni-2012/ hsi2012-1/hsi2012/view 16 – 19 maggio Roma ForumPA http://forumpa.it 21 – 24 maggio Mykonos (Grecia) 32nd EARSeL Symposium 2012 www.earsel.org/symposia/2012symposium-Mykonos/ 24 – 25 maggio Mykonos (Grecia) Remote Sensing and Geology www.earsel.org/SIG/Geology/ workshop.php 23 - 24 maggio Roma e-geos International Conference http://www.e-geos.it 24 – 25 maggio Mykonos (Grecia) I workshop internazionale ‘Temporal Analysis of Satellite Images’ www.earsel.org/SIG/timeseries/ workshops.php 14 – 15 giugno Bologna Telerilevamento nell’analisi dei rischi naturali ed antropici. 6° Workshop Tematico. http://www.tecnopolo.enea.it/

26 – 27 giugno Nizza (Francia) 6th International Terrestrial Laser Scanning User Meeting www.optech.com/i3dugm 3 – 6 luglio Salisburgo (Austria) GI_Forum 2012 www.gi-forum.org 25 agosto – 1 settembre Melbourne, Australia XXII ISPRS Congress 2012 http://www.isprs2012melbourne.org/ 19 – 22 settembre Ghent (Belgio) 3rd Workshop on Remote Sensing for Archaeology and Cultural Heritage Management www.earsel2012.ugent.be 24 – 27 settembre Edimburgo (GB) SPIE Remote Sensing 2012 http://spie.org/remote-sensingeurope.xml?WT.mc_id=RCalERSW 24 – 29 settembre Venezia 20 Years of Progress in Radar Altimetry www.altimetry2012.org 09 - 11 Ottobre Hannover, Germany INTERGEO 2012 http://www.intergeo.de 29 ottobre – 2 novembre El Jadida (Marocco) AARSE 2012 - Earth Observation & Geo-information Sciences for Environment and Development in Africa: Global Vision and Local Action Synergy www.aarse2012.org, 6 - 9 novembre ASITA 2012 Vicenza www.asita.it

18–22 giugno Albena (Bulgaria) 4th International Conference on Cartography and GIS www.cartography-gis. com/4thConference/Index.html

54 GEOmedia n°6-2011



L’ambiente sta cambiando Il clima sta cambiando Il tuo software non può rimanere lo stesso. Il Prodotto ENVI di Exelis VIS ti consente di mettere l’analisi geospaziale al centro dei tuoi studi ambientali e dei tuoi processi decisionali. I prodotti di Exelis VIS ti consentono il processing di grandi volumi di dati in maniera rapida, l’analisi accurata di immagini geospaziali complesse, e persino la produzione di visualizzazione 3D. ENVI e E3De sono in grado di accelerare le tue analisi in maniera conveniente e semplice. Personalizza le tue soluzioni di lavoro con il nostro Gruppo di Consulenti Professionali per sviluppare applicazioni specifiche che ti aiutino ad aumentare il livello di produttività, a ridurre i tempi di analisi e ad accrescere la tua influenza. Viste le recenti release di ENVI, SARscape e E3De e le novità in arrivo, è il momento ideale per conoscere Exelis VIS.

www.exelisvis.com

Puoi incontrare i nostri esperti nel corso delle prossime conferenze nel mese di maggio: Esri UK Annual Conference 2012, London | AFCEA 2012, Bad Godesberg | HSI 2012, Rome Forum PA, Rome | GIS Talk, Unterschleißheim | Forums ESRI France: Bordeaux, Paris, Lyon, Aix-en-Provence

Tutti i diritti riservati. E3De, ENVI e IDL sono marchi registrati di Exelis, Inc. Tutti gli altri marchi appartengono ai rispettivi proprietari. ©2012, Exelis Visual Information Solutions, Inc.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.