Rivista bimestrale - anno XVII - Numero 2/2013 Sped. in abb. postale 70% - Filiale di Roma
www.rivistageomedia.it
La prima rivista italiana di geomatica e geografia intelligente
A rc GIS
N°2 2013
per la
sicurezza del costruito I sistemi GIS per le tecnologie fotovoltaiche integrate sulle coperture
Un tool Open Source per la ricerca dispersi in ambiente montano
Lo stato dell'arte delle fonti informative di uso e copertura del suolo in Italia
Difficoltà di implementazione della Direttiva INSPIRE
Galileo un sistema che verrà, parliamone www.rivistageomedia.it
GEOmedia, bimestrale, è la prima rivista italiana di geomatica. Da oltre 15 anni pubblica argomenti collegati alle tecnologie dei processi di acquisizione, analisi e interpretazione dei dati, in particolare strumentali, relativi alla superficie terrestre. In questo settore GEOmedia affronta temi culturali e tecnologici per l’operatività degli addetti ai settori dei sistemi informativi geografici e del catasto, della fotogrammetria e cartografia, della geodesia e topografia, del telerilevamento aereo e spaziale, con un approccio tecnico-scientifico e divulgativo. Direttore RENZO CARLUCCI direttore@rivistageomedia.it Comitato editoriale Fabrizio Bernardini, Luigi Colombo, Mattia Crespi, Luigi Di Prinzio, Michele Dussi, Michele Fasolo, Beniamino Murgante, Mauro Salvemini, Domenico Santarsiero, Donato Tufillaro Direttore Responsabile FULVIO BERNARDINI fbernardini@rivistageomedia.it Redazione redazione@rivistageomedia.it SANDRA LEONARDI sleonardi@rivistageomedia.it GIANLUCA PITITTO gpititto@rivistageomedia.it Marketing e Distribuzione ALFONSO QUAGLIONE marketing@rivistageomedia.it Diffusione e Amministrazione TATIANA IASILLO diffusione@rivistageomedia.it Progetto grafico e impaginazione DANIELE CARLUCCI dcarlucci@rivistageomedia.it MediaGEO soc. coop. Via Nomentana, 525 00141 Roma Tel. 06.62279612 Fax. 06.62209510 info@rivistageomedia.it ISSN 1128-8132 Reg. Trib. di Roma N° 243/2003 del 14.05.03 Stampa: SPADAMEDIA srl VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA) Editore: mediaGEO soc. coop. Condizioni di abbonamento La quota annuale di abbonamento alla rivista è di 45,00. Il prezzo di ciascun fascicolo compreso nell’abbonamento è di 9,00. Il prezzo di ciascun fascicolo arretrato è di 12,00. I prezzi indicati si intendono Iva inclusa. L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo. La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo. Numero chiuso in redazione il 25 Luglio 2013. Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la riproduzione anche parziale del contenuto di questo numero della Rivista in qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore. Rivista fondata da Domenico Santarsiero.
In occasione della dimostrazione pubblica del 24 luglio scorso, presso il Centro Spaziale di Telespazio al Fucino, il Vicepresidente della Commissione Europea, Antonio Tajani, ha annunciato il successo conseguito nella determinazione della posizione geografica con i quattro satelliti di Galileo ora in orbita. Un report su tale giornata, pubblicato in questo numero, ci conduce a un rinnovato entusiasmo nel vedere il sistema finalmente in funzione, ma nello stesso tempo l’attenzione si posa sul limitato livello di informazione che regna nel settore “Aerospazio” che trascura l'importanza di un segmento di utenti finali quale quello interessato alla gestione del territorio. Comprendo l’imbarazzo di usare un termine a pochi conosciuto, il GNSS, invece del più diffuso GPS, ma non capisco come si possa perdere un’occasione del genere per valorizzare il fatto che proprio Galileo è uno dei sistemi GNSS che ha contribuito a superare la singolarità del posizionamento globale stabilita solamente in ambito statunitense con il GPS, affiancandosi al GLONASS russo e al BEIDOU cinese, che, tra l’altro, ora sta raggiungendo tutti gli altri sistemi. Un altro elemento di considerazione, la maggior precisione del Galileo rispetto al GPS, è stato probabilmente illustrato in un modo molto povero dal punto di vista tecnico, dimenticando di citare che il degradamento del segnale GPS è appositamente effettuato dalla Difesa Statunitense che lo utilizza come sistema di supporto alle azioni militari, nelle quali la accuratezza di posizionamento è dell’ordine del centimetro. Ricordiamo che Bill Clinton rimosse nel 2000 la Selected Availability, che portò il sistema ad aprire la prima via alle applicazioni commerciali che hanno dato origine agli attuali sviluppi. La Selected Availabilty presente ancora oggi nel sistema, consente l’utilizzo al massimo della precisione solo conoscendo i codici di decriptazione del segnale riservati alla difesa, e sarà eliminata, nel corso di quest’anno, appena inizieranno i lanci del nuovo sistema GPS III. L’eliminazione della dipendenza dai sistemi militari fu uno dei motivi principali addotti per il finanziamento del sistema Galileo che si prospettò da subito come un sistema “civile”. Non dimentichiamo che in una rivelazione di Wikileaks il dirigente di una ditta tedesca, coinvolta nella realizzazione del sistema di navigazione satellitare europeo Galileo, lo ha definito "una idea stupida" spinta dalla Francia per motivi militari, perché sin dalla prima guerra del Golfo erano state messe in luce le capacità di spoofing, generazione di un falso segnale, per degradare la precisione durante eventi militari, ripetutisi poi recentemente in Kosovo (vedi http:// rivistageomedia.it/q83). Ma volendo andare oltre tali questioni, ormai vecchie e superate, accettando anche una generica definizione di superiorità del sistema Galileo rispetto al GPS, non ci rimarrebbe altro che pensare a chi gioverà tutto ciò. La stessa nozione di posizione geografica è stata illustrata con superiorità nel posizionamento di mezzi marini, terrestri, navali o di persone, giustamente perché l’esclusione dell’uso militare ne preclude lo spoofing deliberato del segnale. L’uso del Galileo per la cartografia e la gestione del territorio - una grande parte dell’utenza finale dell’intero sistema - è stato completamente ignorato al punto da far ritenere che il sistema Galileo sia un affare riguardante solo il settore dell’Aerospazio e della sicurezza dei trasporti. L’uso geodetico, o meglio geomatico non è stato preso in considerazione facendo ritenere a coloro che dovranno continuare a cimentarsi con i problemi topografici e cartografici connessi alla gestione del territorio, che non ci sarà alcun giovamento e bisognerà continuare a lavorare solo con reti GNSS americane e russe (GPS e GLONASS). Pochi cenni anche alla maggior qualità dell’orologio atomico a bordo del sistema Galileo, se si eccettua l’eccellente esempio portato dal Ministro dello Sviluppo Economico, Flavio Zanonato, riferito agli orologi che nel ‘700 parteciparono alla competizione del “Longitude Act” descritto da Dava Sobel nel suo splendido libro “Longitude”, che GEOmedia ha recensito qualche anno fa. Tale esempio, nella sua essenza, avrebbe potuto essere colto dai più. Per evitare poi che i nostri ragazzi, appassionati di geomatica, debbano arrampicarsi sugli specchi o andarsene all’estero per conseguire un titolo di Ingegnere Geomatico che l’Italia, dopo aver primeggiato nei secoli in questo settore, avrebbe finalmente meritato, almeno all’inizio del terzo millennio, abbiamo rivolto una domanda riguardo alla previsione per una formazione dedicata alla geomatica. La risposta del Ministero dell'Istruzione, dell'Università e della Ricerca, è stata prima – giustamente - un “non possiamo pensare ad altri corsi di Laurea”, dalle parole dello stesso Ministro Maria Chiara Carrozza, suffragata poi da un “abbiamo avviato accordi con 4 Università per lanciare 12 PhD nel settore” da parte del Presidente Saggese della Agenzia Spaziale Italiana. Come a dire che l’affare non riguarda la formazione di base ma solo quella specialistica, trascurando così tutti coloro che dovranno diventare utenti del GNSS Galileo, che, purtroppo, lo faranno nella più completa ignoranza della discipline geografiche e cartografiche, considerate probabilmente in tali ambienti come discipline perdute. Buona lettura, Renzo Carlucci
Conserva il piacere di sfogliare GEOmedia, sottoscrivi l'abbonamento! www.rivistageomedia.it/abbonamento
Precision & Reliability
GEOTOP srl Via Brecce Bianche, 152 -60131 Ancona Tel 071/213251 - Fax 071/21325282 www.sokkia-italia.it info@sokkia-italia.it
SOMMARIO 2 - 2013
FOCUS
6
L’applicazione delle tecnologie fotovoltaiche integrate sulle coperture degli edifici con software GIS di
Stefano Bonesso, Guglielmina Mutani, Tatsiana Hubina e Adelaide Ramassotto
REPORTS
30 Laser scanner 3D terrestri e mobile
Mario Ciamba
32 Analisi dello stato dell'arte delle fonti informative di uso e
12
copertura del suolo prodotte in Italia di Giuseppe Pulighe, Flavio Lupia, Silvia Vanino, Filiberto Altobelli, Michele Munafò e Sandro Cruciani
Un’applicazione ArcGIS
per la
sicurezza del costruito di
di
Luigi Colombo e Barbara Marana
36 Un tool Open Source per la ricerca dispersi in ambiente montano
di
Tiziano Cosso, Roberto Marzocchi e Danilo Repetto
40 Direttiva INSPIRE in Italia: il re è nudo!
di
44GALILEO: la promessa che diventa realtà
26 Servizi
di
Gianluca Pititto
Inserzionisti
di infomobilità nei trasporti del
di
Mauro Salvemini
Comune
di
Roma
Flaminia Leggeri, Patrizia Micheli, Annalisa
Perla, Augusto Sgura e Francesca Spagnoli
AERROBOTIX 19 APPLANIX 49 CGT 20 CODEVINTEC 29 CRISEL 23 ESILON 22 ESRI 51 GEOGRA' 46 GEOGRAFICA 24 GEOSOLUTION 2 GEOTOP 4 GESP 53
La difesa delle città da eventi naturali, come i terremoti, richiede sia il miglioramento delle qualità costruttive degli edifici, sia la riduzione consistente della loro danneggiabilità. Questi requisiti sono conseguibili, per gli edifici di nuova costruzione, attraverso l’applicazione della normativa anti-simica, e, per quelli esistenti, utilizzando strumenti che si basano su un’attenta classificazione della predisposizione al danneggiamento (vulnerabilità), sia per l’aspetto costruttivo sia per quello strutturale, materico e geo-ambientale. Nell’illustrazione di copertina un esempio di come il calcolo della vulnerabilità, dell’esposizione e quindi del rischio sismico, associato a ogni edificio, può essere eseguito agevolmente all’interno del modulo ArcMap di Esri, tramite operazioni di join fra tabelle e il comando field-calculator.
INTERGEO 39 INTERGRAPH 55 LEICA 56 PLANETEK 25 SINERGIS 48 SISTER 21 SPARGROUP 50 SURVEYSOFT 43 TEOREMA 17 TRIMBLE 54 VIRTUALGEO 52
ALTRE RUBRICHE
18 MERCATO 46 OPEN DATA 50 ASSOCIAZIONI 52 AGENDA
FOCUS
L’applicazione delle tecnologie fotovoltaiche integrate sulle coperture
degli edifici con software GIS di Stefano Bonesso, Guglielmina Mutani, Tatsiana Hubina, Adelaide Ramassotto
Per pianificare l’utilizzo di tecnologie che sfruttano energia rinnovabile su un territorio, in particolare quelle che riguarda il solare, si possono utilizzare i software GIS (Sistemi Informativi Geografici) che consentono di analizzare e rappresentare un dato geo-riferito.
I
n questo studio è stato approfondito il tema dell’utilizzo delle tecnologie fotovoltaiche negli ambienti urbani considerando le ombre portate dall’orografia del territorio e anche quelle del contesto costruito; in particolare sono state valutate le potenzialità delle applicazioni integrate sulle coperture degli edifici. L’analisi si è basata su: l’utilizzo di sistemi informativi geografici e dati LiDAR (Light Detection And Ranging), l’impiego di software per la ricostruzione tridimensionale degli edifici e per la valutazione dell’irradiazione solare incidente (Ecotect versione 5.5). Dopo una breve descrizione di alcune applicazioni GIS sul fotovoltaico effettuate in Italia e nel mondo, in questo lavoro viene presentata una metodologia di calcolo che consente la valutazione del potenziale fotovoltaico sulle coperture degli edifici con la definizione di un metodo semplificato che è stato verificato sulla base di un monitoraggio effettuato dalla Provincia di Torino. Questo lavoro è scaturito da uno stage che ha visto la collaborazione tra il Politecnico di Torino e il CSI Piemonte. Applicazioni web-gis esistenti per il fotovoltaico Recentemente sono state implementate alcune soluzioni web-gis che conciliano l’utilizzo dei sistemi informativi e la rete internet. Questi servizi possono risultare molto utili per favorire lo sviluppo di “tetti fotovoltaici” nelle città, dove molto spesso l’inquinamen-
6
to atmosferico è più presente rispetto ad altre zone, a causa della maggiore concentrazione delle attività antropiche. Sono applicazioni interattive di facile utilizzo, che possono fornire al cittadino informazioni inerenti ad eventuali impianti già installati oppure consentono di visualizzare il potenziale fotovoltaico sulla copertura di un edificio. In questo modo, ad esempio il proprietario dell’edificio potrà decidere se installare un sistema fotovoltaico valutandone la fattibilità tecnica ed economica inserendo le esatte caratteristiche della propria copertura. Tra le città con applicazioni web-gis attive sul fotovoltaico ricordiamo: Bologna, Boston e New York. Questi servizi sono tuttavia limitati nel grado di dettaglio di analisi della copertura, in quanto non si tiene in considerazione la reale superficie disponibile e soprattutto la presenza di eventuali ingombri sul tetto. Infatti nella gran parte dei casi, la copertura viene
considerata piana e completamente libera. Questa carenza è legata al fatto che queste applicazioni riguardano un territorio piuttosto vasto e sfruttano le informazioni presenti ad esempio sulle carte tecniche comunali o provinciali che generalmente non consentono una rappresentazione tridimensionale esatta del costruito. In questo lavoro si cercherà di colmare questa lacuna, introducendo, rispetto alla copertura generalmente piana, alcune variabili che consentono al cittadino di fare delle valutazioni di fattibilità tecnica ed economica dell’utilizzo delle tecnologie fotovoltaiche più precise e conformi alla realtà. Esempi di studi sul solare con sistemi gis Ponendo uno sguardo oltre i confini nazionali, si possono trovare numerosi progetti basati sull’utilizzo di software GIS, allo scopo di semplificare e sfruttare al meglio l’energia solare, soprattutto in ambienti urbani.
Figura 1 - Analisi di fattibilità fonte solare nella città di Malaga – Fonte [Tabik et al., 2012]. (a) Massima energia solare: in blu 6000 MWh/m² e in rosso 7800 MWh/m² (b) Orientamento ottimale: in verde aree esposte a ovest e in rosso aree esposte a est;
GEOmedia n°2-2013
FOCUS
Figura 2 - Caso studio analizzato dall’Università di Presov - Fonte: [Hofierka e Kanuk, 2009].
Di seguito vengono riportati due esempi interessanti di queste applicazioni. Il primo progetto è stato realizzato in Spagna dall’università di Malaga [Tabik et al., 2012]. L’obiettivo del lavoro era la realizzazione di uno strumento di calcolo, per la valutazione della massima energia solare disponibile in diversi punti di un territorio. Per far ciò sono stati utilizzati dei DEM (Digital Elevation Model) ad alta risoluzione e delle mappe di edifici con coperture aventi orientamento e pendenza differenti, con dati di irraggiamento solare diversi nelle stagioni (vedi Fig. 1). Il secondo progetto rappresentato in Fig. 2 è stato elaborato dall’Università di Presov (Slovacchia) [Hofierka e Kanuk, 2009]. La metodologia studiata consente la valutazione del potenziale fotovoltaico nelle aree urbane, utilizzando un’applicazione open-source per la valutazione dell’irradiazione solare incidente ed un modello di città tridimensionale. L’applicazione utilizzata si basa sul modello di irradiazione solare “r.sun” (http://grass.osgeo. org/grass64/manuals/r.sun.html) e sui dati ricavati dai sito web di PVGIS (http://re.jrc.ec.europa.eu/pvgis/). Lo studio ha consentito di valutare l’effettiva utilità dell’applicazione delle tecnologie fotovoltaiche in ambiente urbano, attraverso mappe tematiche con le quali è stata rappresentata l’energia solare incidente sul territorio (Wh/m²) e la stima annuale di energia producibile dal fotovoltaico su ogni edificio (kWh). Tuttavia queste valutazioni vengono influenzate dalla variabilità di fattori temporali e spaziali. Altri casi studio analizzati sono sintetizzati di seguito:
visita il sito www.rivistageomedia.it
• Scenari per l’applicazione dell’energia solare in Brasile [Martins et al., 2012] • Compromessi tra funzione e forma di impianti fotovoltaici integrati in siti a basse latitudini [Urbanetz et al., 2011] • Integrazione su larga scala del fotovoltaico nelle città [Strzalka et al, 2012]. La precisione dei risultati, ottenuti con analisi svolte tramite software GIS, dipende dal grado di dettaglio dei dati di partenza. Spesso in ambiente GIS, gli studi fatti sulla radiazione solare di un territorio molto vasto, sono basati su file di tipo raster che hanno un grado di dettaglio molto basso per oggetti che risultano piccoli come gli edifici; ciò dipende anche dai dati di partenza del file raster. Un input molto preciso invece può derivare dai sistemi laser scanner (LiDAR), quando la densità dei punti analizzati per metro quadrato è elevata. In questo modo vengono restituiti molti particolari (ad esempio alberi, le forme dei tetti o eventuali sistemi schermanti) che diversamente non sarebbero individuabili. In questo lavoro, non disponendo di dati precisi (ad eccezione del caso di Vercelli basato su dati laser scanner con 4 punti/m²), il software GIS è stato implementato con altri software migliorando la precisione dei risultati. Oltre ad ESRI ArcGIS Suite (ArcInfo, ArcScene) è stato utilizzato un software per la rappresentazione tridimensionale degli edifici (SketchUp 8) ed un programma per la valutazione dell’irradiazione solare incidente (Ecotect).
Calcolo del potenziale fotovoltaico Questa analisi si suddivide in tre fasi, ognuna delle quali vedrà coinvolta una località differente (Vercelli, Alessandria e Torino) in quanto si utilizzeranno banche-dati e strumenti diversi. Questa scelta è stata imposta dalla disponibilità dei dati che, come spesso accade, hanno una copertura geografica definita; in questo caso i risultati dell’analisi saranno generalizzabili su tutte le tre suddette città perché le condizioni di irradiazione solare sono molto simili. A Vercelli avevamo a disposizione i dati Lidar che hanno consentito di realizzare gli edifici tridimensionali differenziando le coperture piane da quelle a falda inclinata. Con i dati di Alessandria, ottenuti con il programma BlomURBEX, si è potuto invece ricostruire fedelmente tutti gli ingombri presenti in copertura come i lucernari e gli abbaini che diminuiscono la superficie captante ma anche l’irradiazione solare incidente a causa delle ombre portate dagli elementi in copertura. Queste simulazioni hanno consentito di determinare dei coefficienti correttivi che consentiranno di migliorare i risultati anche sulla città di Torino, dove la simulazione viene fatta considerando i tetti piani. In questo modo anche a Torino, in un’eventuale applicazione web-GIS, il cittadino potrà andare a modificare il dato di irradiazione solare specificando la tipologia di tetto e di ingombri per valutare l’effettiva energia fotovoltaica producibile. L’obiettivo che ci siamo imposti, è stato quello di ottenere un dato calcolato di potenziale fotovoltaico che si avvicinasse il più possibile alla realtà, considerando tipologie di coperture ricorrenti. Gran parte dei servizi attualmente esistenti, nel calcolo del potenziale fotovoltaico, tengono conto del tetto dell’edificio piano, senza andare a considerarne inclinazione, orientamento e fattori di ingombro (lucernai, abbaini, comignoli, ecc). In questo studio si è voluto provare ad aggiungere queste ulteriori ed importanti variabili in modo da avere dei risultati più vicini al caso reale. Di seguito, tramite il flow-chart di Fig. 3, è stata rappresentata la procedura di lavoro, che attraverso l’utilizzo di alcuni software di calcolo ha consentito di ottenere i risultati di questa ricerca. Il caso studio di Vercelli La base di partenza per le analisi sono stati i dati LiDAR, messi a disposizione dal CSI Piemonte per una zona di Vercelli (vedi Fig. 4), già opportunamente
7
FOCUS elaborati in ambiente AutoCAD per poi essere visualizzati sul GIS (ESRI ArcGis 10). I dati Lidar disponibili, hanno come grado di dettaglio 4 punti/m², abbastanza per ottenere le falde delle coperture ed aggiungere quindi i due fattori della copertura indispensabili al calcolo del potenziale fotovoltaico: inclinazione (tilt) ed orientamento (azimut). Con la disponibilità di questi dati è stato quindi possibile rappresentare le caratteristiche geometriche reali delle coperture (vedi Fig. 5) e quindi valutare l’effettiva irradiazione solare incidente.
Figura 5 - Visualizzazione dei dati Lidar sovrapposti al DTM con ArcScene.
irradiazione solare incidente espresso in Wh/m². Il risultato di irradiazione solare incidente è stata elaborata per avere il valore di potenziale fotovoltaico, tramite la formula [Suri et al., 2007] già utilizzata per altre applicazioni [Mutani e Bua, 2009] e [Mutani e Busterna, 2009]: E = Pk PR G
Figura 3 - Schema della procedura di calcolo.
Al fine di calcolare il potenziale fotovoltaico sulle coperture degli edifici, i dati da vettoriali sono stati trasformati in dati raster, che sovrapposti al DTM dell’area in questione, hanno consentito di valutare l’irradiazione solare incidente utilizzando l’applicazione di ArcGis: “Area Solar Radiation”. Questa applicazione consente di calcolare, per ogni pixel del raster, un valore di
dove: E è l’energia elettrica prodotta annualmente [kWh/a]; Pk è la potenza di picco installata (pari a 1 kWp); G è l’irradiazione solare cumulata annua [kWh/(m2a)]; PR è l’indice di performance del sistema (pari a 0,75). In Fig. 6 e Fig. 7 è riportato un esempio per rappresentare la differenza di producibilità di energia elettrica attraverso le tecnologie fotovoltaiche passando dal tetto piano a quello a falda. Come si può osservare dalle
Figura 6 - Potenziale FV tetti piani (kWh*1kWp), Vercelli.
Figura 7 - Potenziale FV tetti a falda (kWh*1kWp), Vercelli.
Figg. 6 e 7, con il tetto a falde inclinate, il potenziale di energia producibile dalla fonte solare si differenzia ed aumenta nel caso di miglior esposizione ai raggi solari.
Figura 4 - In rosso dati messi a disposizione dal CSI, in giallo la zona di studio.
8
Il caso studio di Alessandria Per questa fase dello studio ci si è basati sull’utilizzo di alcuni software; il primo di questi è BlomURBEX, che interagendo con ArcMap consente di visualizzare ortofoto oblique, dando la possibilità di prendere misure direttamente su di esse e conoscere quindi tutte le caratteristiche geometriche degli edifici. Inoltre è stato utilizzato SketchUp 8 per ricostruire gli edifici
GEOmedia n°2-2013
FOCUS
Figura 8 - Esempio di misura con BlomURBEX.
tridimensionali per poi importarli in Ecotect come viene mostrato nelle Fig. 8, 9 e 10. L’obiettivo di questo lavoro è stato quello di poter rappresentare esattamente la copertura considerando tutti gli ingombri presenti e quindi valutare la reale irradiazione reale incidente. In questo modo sono stati determinati alcuni coefficienti correttivi, in funzione della tipologia e della densità degli ingombri sulla falda, per rendere confrontabile il dato calcolato con quello reale. Si è quindi pensato di riprodurre due edifici tipo, con inclinazione di falda e ingombri differenti. La scelta di lavorare sul Comune di Alessandria è stata imposta dalla disponibilità di copertura del servizio a disposizione del CSI. I dati così raccolti, sono stati utilizzati per riprodurre due edifici tipo, chiamati per comodità “caso 1” (con abbaini) e “caso 2” (con lucernai), tramite il software di disegno SketchUp 8. Al fine di ricreare ingombri sulla falda che siano riscontrabili abbastanza frequentemente, i casi studio sono stati differenziati con tre livelli di densità degli ingombri sia per i lucernari, sia per gli abbaini. Per valutare l’influenza degli abbaini, è stato scelto un edificio di Alessandria con dieci abbaini. Questo numero è stato considerato come caso di “ingombro elevato”, perché la presenza degli abbaini occupa una gran parte della falda (il 30%). Il suddetto numero è stato ridotto per poter ricoprire altre casistiche riscontrabili, passando così al caso di “ingombro medio” in cui il numero di abbaini è stato ridotto a sei (18% di ingombro) e al caso di “ingombro minimo” in cui gli abbaini sono scesi a tre (9% di ingombro).
visita il sito www.rivistageomedia.it
Per la valutazione dei lucernari, è stato scelto un edificio tipo ed è stata fatta un’analoga classificazione, con tre livelli di densità: otto lucernai con un “ingombro elevato” (14%), cinque con “ingombro medio” (8%, rappresentato in Fig. 9) e tre con “ingombro minimo” (5%). I lucernai considerati hanno dimensioni medie, che sono facilmente riscontrabili in diversi modelli in commercio e occupano una superficie di circa 2,3 m² l’uno. In entrambi i casi gli edifici sono stati orientati secondo le cinque esposizioni migliori (sud, sud-est, sudovest, est-ovest) in modo da valutare l’irradiazione solare incidente non solo in funzione degli ingombri, ma tenendo anche conto del fattore di esposizione. Le ricostruzioni tridimensionali degli edifici sono state utilizzate come dato di input per il software Ecotect, grazie al quale è stato possibile calcolare l’ir-
radiazione solare incidente sulle coperture di questi edifici considerando tutti gli ingombri con le diverse esposizioni di falda possibili; per un totale di 32 casi studio (un esempio è riportato in Fig. 10). Attraverso questi risultati sono stati determinati dei coefficienti correttivi per passare dall’irradiazione sul tetto piano a quella sul tetto a falde con le diverse tipologie di ingombro individuate. I risultati di questo lavoro sono anche stati confrontati con i dati dell’Atlante Italiano della Radiazione Solare dell’ENEA (http://www.solaritaly.enea.it/CalcComune/Calcola.php) verificandone l’attendibilità. Il caso studio di Torino Nel caso studio di Torino, gli edifici tridimensionali sono stati realizzati partendo dalla CTC (Carta Tecnica Comunale) e considerando l’attributo altezza degli edifici. Così facendo, gli edifici sono stati estrusi secondo la loro altezza ottenendo edifici con tetto piano. L’obiettivo di questa analisi è stata quella di verificare l’attendibilità del potenziale fotovoltaico calcolato attraverso un metodo semplificato, noto il potenziale fotovoltaico sul tetto piano
Figura 9 - Elaborazione SketchUp, caso studio edificio con falda inclinata di 23° e lucernai.
Figura 10 - Calcolo dell’irradiazione solare con la tool “solar exposure” di Ecotect; edificio con falda inclinata di 36° e abbaini.
9
FOCUS
Figura 11 - Potenziale FV tetti piani (kWh*1kWp) a Torino. (a) Istituti Galileo Ferraris e Sommellier - (b ) Palestra di roccia, via Braccini - (c) Impianto Dinamo, via Veronese.
ed utilizzando i coefficienti trovati con i casi studio di Alessandria. La verifica di tali risultati è stata fatta confrontandoli con i dati di monitoraggio del progetto di ricerca PERSIL della Provincia di Torino (http://www.provincia.torino.gov.it/ ambiente/energia/progetti/persil) effettuato nel 2010-2011. Gli edifici presi in considerazione a Torino, sono stati scelti per la presenza di impianti fotovoltaici montati sulla copertura e monitorati dal progetto PERSIL. Procedendo con l’applicazione di GIS “Area Solar Radiation” si sono ottenuti i valori di potenziale fotovoltaico sulla copertura piana. Di seguito in Fig. 11 sono stati riportati tre dei casi studio. Per poter fare il confronto con i dati monitorati, era necessario considerare la reale inclinazione dei moduli fotovoltaici, la corretta esposizione e gli ingombri sulla copertura degli edifici. Dai dati di Alessandria ottenuti con Ecotect per gli edifici tipo visti precedentemente, sono stati determinati dei coefficienti correttivi per i due casi analizzati ovvero: l’edificio con i lucernai (con falda inclinata di 23°) e l’edificio con gli abbaini (con falda inclinata di 36°). Questi coefficienti, riportati nelle Tabelle 1 e 2, sono stati moltiplicati per il valore di potenziale fotovoltaico determinato per il tetto piano, consentendo di trasformare il dato ottenuto nel più reale possibile tenendo conto anche dell’esposizione, inclinazione ed ingombri presenti sulla copertura. I coefficienti riportati nelle Tabelle 1 e 2 fanno riferimento ad una superficie piana del tetto e quindi presentano un valore pari a 1 per il tetto piano. Tutti gli altri coefficienti sono stati calcolati rapportando l’irraggiamento incidente su ogni superficie considerata (falda libera, ingombro minimo, medio, eleva-
to) all’irraggiamento della superficie di riferimento, ovvero quella con tetto piano. In questo modo si tiene conto di due aspetti: della minor o maggior superficie captante ma anche della variazione di irradiazione solare dovuta ad un diverso orientamento ed alla presenza di ombre portate dagli elementi presenti sulla copertura. Validazione del modello La validazione di questa procedura di calcolo è stata effettuata tramite un confronto tra i dati monitorati dal progetto PERSIL ed i risultati del calcolo su alcuni edifici a Torino utilizzando il software GIS sui tetti piani ed applicando il coefficiente correttivo opportuno in funzione dell’esposizione, inclinazione e della densità di ingombri sulla copertura. I risultati della metodologia di calcolo attraverso software GIS sugli edifici di Torino scelti per la verifica, sono stati calcolati su scala urbana (non su un solo edificio), derivano da inclinazioni fisse per falde tipo (23° e 36°) e sono caratterizzati dagli ingombri standard visti precedentemente che sono riscontrabili frequentemente nel parco edilizio. I dati monitorati dal progetto PERSIL sono stati raccolti tramite un sistema automatico di acquisizione dati e successivamente elaborati per l’analisi energetica. In particolare sono stati riportati i due dati più significativi: l’energia prodotta misurata e quella prevista con software specifici per la fattibilità delle tecnologie di fotovoltaico. Dalla Tabella 3 si può osservare che nonostante i dati calcolati con il software GIS e quelli del progetto PERSIL siano stati determinati su due scale diverse e con metodologie differenti, i risultati si discostano per un massimo di circa il 20%.
Tabella 1 - Coefficienti correttivi caso 1 (falda inclinata di 23° con lucernari).
10
Bisogna inoltre considerare il fatto che il dato misurato dal progetto PERSIL fa riferimento ad una singola stagione di monitoraggio, ossia al 2010-2011, mentre il software GIS utilizza delle applicazioni con un’irradiazione solare media. Nel caso della palestra di roccia in cui invece si hanno valori molti diversi, si nota che comunque il valore calcolato è molto vicino al dato previsto dal progetto PERSIL e quindi si può pensare che i dati monitorati siano anomali. Infine, per l’impianto Dinamo, il dato calcolato con la procedura qui mostrata, si discosta del 12,8% dal dato monitorato e comunque non oltre il 20% rispetto a quello previsto. In generale, i dati ricavati dalle elaborazioni GIS, sono paragonabili a quelle previste e/o monitorate dal progetto PERSIL e quindi sono attendibili per uno studio di pre-fattibilità del solare fotovoltaico su scala urbana. Questi risultati sono la conferma che il software GIS integrato ad esempio a questa metodologia, può essere applicato per studi di fattibilità delle tecnologie di solare fotovoltaico su scala territoriale, offrendo risultati che consentono di simulare quello che sarà il rendimento di un impianto installato su una copertura di un edificio o su una qualsiasi porzione di territorio. È però importante che le pubbliche amministrazioni rendano disponibili le banche dati per poter svolgere questo tipo di analisi, perché costituiscono la base di partenza senza la quale i sistemi GIS non possono essere d’aiuto. Conclusioni Nell’ambito di luoghi densamente abitati, come le città, esiste una stretta correlazione tra le scelte di pianificazione territoriale e le scelte delle fonti energetiche.
Tabella 2 - Coefficienti correttivi caso 2 (falda inclinata di 36° con abbaini).
GEOmedia n°2-2013
FOCUS per gestire lo sviluppo energetico sul territorio e far rendere al meglio il potenziale energetico in esso presente, sfruttando l’integrazione delle informazioni a livello locale, con gli obiettivi di pianificazione e gestione di territorio e ambiente [DaiTabella 3 - Confronto tra i dati calcolati con il software GIS ed i risultati del nelli et al., 2013]. progetto di ricerca PERSIL. Il lavoro presentaLa distribuzione spaziale sul territorio to in questo docudelle varie attività (commercio, residen- mento, ha come fine ultimo, lo sviluppo, za, servizi, ecc) influisce infatti in modo soprattutto in ambito urbano, di soluziorilevante sulle scelte di mobilità e di ni energetiche che sfruttino il potenziale utilizzo delle fonti energetiche da parte energetico del sole. Si vuole dimostrare dei cittadini. Risulta quindi importante che con i software GIS, avendo la possibimettere in campo delle strategie, attra- lità di usufruire di dati molto precisi come verso la formazione di piani strategici, da quelli LiDAR che consentono un’ottima parte di enti preposti, che favoriscano rappresentazione del costruito, è possil’integrazione alle diverse scale dei piani bile determinare anche su scala urbana territoriali con i piani energetici, al fine di la potenzialità delle tecnologie fotovolrendere la pianificazione energetica uno taiche in molto realistico. Non avendo a dei punti cardine nella pianificazione del disposizione dati di elevata precisione è territorio. Soprattutto in questo periodo comunque possibile effettuare un’analisi di forte crisi, la scelta di utilizzare fonti di prefattibilità, attraverso dei coefficienti energetiche rinnovabili potrebbe rende- correttivi che sopperiscano alla mancanre più consapevoli i cittadini che tali fonti za di precisione del dato di partenza. convengono, muovendo l’economia e Questa metodologia può essere integragarantendo un futuro più pulito [Lo svi- ta alle applicazioni web-GIS per consenluppo della Smart City. Un percorso di tire ai cittadini di verificare il potenziale riflessione sui fattori di successo per la fotovoltaico sul tetto della propria abitacostruzione della città intelligente e so- zione e conseguentemente decidere se stenibile, Green City Energy, 2011 (www. può essere conveniente da un punto di greencityenergy.it)]. vista energetico ma anche economico, Puntare sullo sviluppo energetico delle l’investimento su questo tipo di tecnolonostre città è di fondamentale importan- gia. Questo strumento potrebbe essere za per la fortissima valenza economica anche d’aiuto a professionisti e pubbliche ha questo settore a scala mondiale, che amministrazioni in merito alla pianifianche in merito all’impegno che alcuni cazione energetica del territorio. È però paesi hanno intrapreso per contrastare auspicabile lo sviluppo e l’implementail cambiamento climatico globale. L’im- zione della procedura, con strumenti GIS plementazione delle informazioni terri- open source, come ad esempio Quantoriali attraverso i GIS è fondamentale tum GIS e GRASS GIS. Bibliografia • Dainelli N., Bonechi F., Spagnolo M., Canessa A., Cartografia numerica. Manuale pratico per l’utilizzo dei GIS, Dario Flaccovio editore, 2013 (http://www.darioflaccovio.it/pdfdescr/172-DF7893.pdf). • Enel Green Power, Guida al fotovoltaico www.enelgreenpower.com • Green City Energy, Lo sviluppo della Smart City. Un percorso di riflessione sui fattori di successo per la costruzione della città intelligente e sostenibile, 2011, www.greencityenergy.it • Hofierka, J., Kanuk J., Assessment of photovoltaic potential in urban areas using open-source solar radiation tools, università di Presov (Slovacchia), Renewable Energy 34, 2009. • Martins F.R., Abreu S.L., Pereira E.B., Scenarios for solar thermal Energy applications in Brazil, Energy Policy 48, 2012. • Mutani G., Bua A., “La fattibilità tecnica ed economica del fotovoltaico in Italia”, rivista: IL PROGETTO SOSTENIBILE, ISSN: 1974-3327, vol. 21, 2009, pp. 60-63. • Mutani G., Busterna L., “Il fotovoltaico in Piemonte”, rivista: PV TECHNOLOGY, ISSN: 1971-6699 PV TECHNOLOGY, vol. 2, 2009, pp. 62-66. • Ronchi E., Dicembre 2011, L’importanza strategica dell’efficienza energetica, le politiche europee e una introduzione agli strumenti finanziari, Fondazione per lo Sviluppo Sostenibile. • Strzalka A., Alam N., Duminil E., Coors V., Eicker U., Large scale integration of photovoltaics in cities, , Applied Energy 93, 2012. • Suri M., Huld T. A., Dunlop E.D., Ossenbrink H. A., Potential of solar electricity generation in the European Union member states and candidate countries”, Solar Energy 81, 2007. • Tabik S., Villegas A., Zapata E. L., Romero L. F., A Fast GIS-tool to Compute the Maximum Solar Energy on Very Large Terrains, università di Malaga, Procedia Computer Science 9, 2012. • Urbanetz J., Debiazi Zomer C., Rüther R., Compromises between form and function in grid-connected, buildingintegrated photovoltaics (BIPV) at low-latitude sites, , Building and Environment 46, 2011.
visita il sito www.rivistageomedia.it
La nuova Direttiva Europea (2012/27/ UE) sull’efficienza energetica contiene suggerimenti al fine di aumentare i servizi per il mercato energetico. Anche la diffusione di strumenti per il calcolo della fattibilità delle fonti rinnovabili può aiutare a misurare, differenziare, ottimizzare e quindi pianificare l’utilizzo delle fonti energetiche sul territorio. Gli autori di questo studio hanno cercato di valorizzare le proprie conoscenze e le banche dati in possesso della pubblica amministrazione sviluppando un servizio che potrà essere messo a disposizione della comunità secondo quanto indicato anche dalla legislazione vigente. Nel futuro ci si augura che un tale approccio possa essere portato a termine attraverso la diffusione dei dati con l’utilizzo di software GIS open source. Parole chiave Fotovoltaico, Tecnologie integrate, GIS.
Abstract Potential of photovoltaic technologies on buildings’ roofs using geographic information systems (GIS) - In order to plan the diffusion of renewable energy technologies, geographic information systems (GIS) can be useful. In this study photovoltaic technologies in urban environments were examined, considering the shadows of urban contest and of territory orography evaluated with GIS (ESRI ArcGIS). The results of potential photovoltaic technologies strongly depend on input data but not always roof data are accurate. The aim of this work is to define a tool to improve the results of a GIS simulation on urban scale. To validate the procedure, the results were compared with data monitored by PERSIL project. The analysis was based on the use of geographic information systems, data scanner laser (LiDAR), and software for 3D reconstruction of the buildings.
Autori Stefano Bonesso, stefano.bonesso@gmail.com. Dottore in Pianificazione Territoriale, Urbanistica e PaesaggisticoAmbientale, Guglielmina Mutani guglielmina.mutani@polito.it Ricercatore, Dipartimento Energia, Politecnico di Torino Tatsiana Hubina tatsiana.hubina@csi.it Analyst at the Energy Csi Piemonte
Expertise Unit,
Adelaide Ramassotto adelaide.ramassotto@csi.it Project manager, CSI Piemonte
11
FOCUS
UN’APPLICAZIONE ARCGIS PER LA SICUREZZA DEL COSTRUITO di Luigi Colombo e Barbara Marana
La difesa delle città da eventi naturali, come i terremoti, richiede sia il miglioramento delle qualità costruttive degli edifici, sia la riduzione consistente della loro danneggiabilità. Questi requisiti sono conseguibili, per gli edifici di nuova costruzione, attraverso l’applicazione della normativa anti-simica, e, per quelli esistenti, utilizzando strumenti che si basano su un’attenta classificazione della predisposizione al danneggiamento (vulnerabilità), sia per l’aspetto costruttivo sia per quello strutturale, materico e geo-ambientale.
L
a difesa delle città da eventi naturali, come i terremoti, richiede sia il miglioramento delle qualità costruttive degli edifici, sia la riduzione consistente della loro danneggiabilità. Questi requisiti sono conseguibili, per gli edifici di nuova costruzione, attraverso l’applicazione della normativa antisimica, e, per quelli esistenti, utilizzando strumenti che si basano su un’attenta classificazione della predisposizione al danneggiamento (vulnerabilità), sia per l’aspetto costruttivo sia per quello strutturale, materico e geo-ambientale. Un altro elemento fondamentale, per la gestione della prevenzione e della difesa dal rischio, consiste nell’utilizzo di procedure informatizzate, automatizzabili e in grado di monitorare il mantenimento, anche in tempo reale, di adeguate condizioni di esercizio durante il ciclo di vita di un’opera, sia nell’ordinarietà sia nell’emergenza. L’integrazione e la comparazione delle esigenze sopra indicate possono essere ben supportate da un potente strumento di indagine e analisi, come è per definizione un sistema GIS. Il patrimonio edilizio, presente sul territorio italiano, è rilevante sia per quanto riguarda il numero di edifici, la loro importanza e il significato. Gli edifici, ma più in generale le opere edili, hanno una rilevanza economica oltre che storica, giacché rivestono un ruolo significativo all’interno della comunità che utilizza l’opera e influenzano anche la qualità del paesaggio. Adesso, non c’è ancora la tendenza a una conoscenza diffusa e approfondita sullo stato di tutte le opere edili (per esempio: le geometrie effettive, i materiali utilizzati, le tecniche costruttive, l’interazione tra gli elementi strutturali, il tipo di sottosuo-
12
lo), che possa risultare utile sia nelle condizioni abituali di esercizio, sia quando la struttura è sottoposta a eventi speciali, come sismi, esondazioni, frane, ecc. In questa situazione, la disponibilità di una catalogazione delle informazioni costruttive e materiche e di una classificazione sistematica degli edifici riveste un ruolo fondamentale per aiutare gli operatori nella fase di prevenzione, allerta, gestione e recupero del patrimonio edilizio e nelle scelte riguardanti il futuro conservativo del patrimonio stesso. Tutti questi aspetti sono supportabili quasi automaticamente attraverso l’implementazione di strumenti GIS.
Gli edifici sono inevitabilmente soggetti a deterioramenti strutturali e materici, che producono uno scadimento delle condizioni di sicurezza originarie. Così, un’opera può essere definita efficiente se manifesta modificazioni strutturali contenute entro prefissati intervalli di sicurezza: i limiti sono stabiliti sulla base della valutazione del progetto, del comportamento della struttura e dei materiali nonché delle diverse condizioni di sollecitazione cui la struttura potrà essere soggetta nel corso della sua vita, anche in relazione al luogo di collocazione dell’opera, ai caratteri geotecnico-geologici e alla stabilità del terreno.
Sicurezza e rischio nel costruito Negli ultimi anni, il problema della sicurezza strutturale ha attirato sempre più l’attenzione di progettisti, tecnici delle costruzioni ed esperti del comportamento dei materiali, anche a causa di gravi eventi che interessano periodicamente in modo drammatico l’edificato, sensibilizzando profondamente opinione pubblica e istituzioni. Questa esigenza di sicurezza è resa ancora più pressante dal fatto che nella progettazione attuale si tende a far lavorare i materiali a valori molto vicini ai livelli di sollecitazioni ammissibili; inoltre, il miglioramento dei criteri di progettazione e di costruzione richiede una conoscenza più dettagliata del comportamento delle strutture e dei materiali che le compongono. Le strutture costituiscono in genere un patrimonio che deve essere conservato e questo può richiedere, in particolare per gli edifici storici e quelli antichi, interventi di restauro, durante i quali il concetto di sicurezza dell’opera acquisisce nuova importanza.
Il rischio integrato La Regione Lombardia ha avviato in questi anni un programma integrato di mitigazione del rischio inerente al proprio territorio. L’approccio considera la pluralità dei rischi possibili, determinando un fattore di rischio globale, indicato come rischio integrato. Tale fattore si basa sulla valutazione di eventi calamitosi quali il rischio idrogeologico, quello meteorologico, sismico, da incendio, ecc. In questo lavoro viene considerato solo il rischio sismico (R) dell’ambiente costruito, che peraltro è quello analizzato in letteratura nel modo più dettagliato e completo. In tale caso, è possibile indicare il parametro identificativo del rischio con la seguente relazione:
R=P*V*E
dove P rappresenta la pericolosità, V la vulnerabilità ed E l’esposizione. In particolare:
GEOmedia n°2-2013
FOCUS - la pericolosità indica la possibilità che, in un prefissato intervallo di tempo, una certa area sia interessata da terremoti in grado di produrre danni: P=
1 . indicedi dizona zona sismica indice sismica
Il territorio italiano è stato classificato (2012) secondo indici di zona, variabili da 1 a 4, che identificano il livello di pericolosità, ovvero la predisposizione dell’area a essere soggetta a eventi sismici (Fig. 1). L’indice 1 contraddistingue le zone di pericolosità più elevata, potendosi verificare eventi molto forti, anche di tipo catastrofico. A rischio risultano anche le zone con indice 2 (e la zona con indice 3S della Toscana), dove gli eventi sismici, seppur di intensità minore, possono creare gravissimi danni. Le zone con indice 3 sono caratterizzate da una bassa sismicità che però, in particolari situazioni geologiche, può vedere amplificati i propri effetti. Infine, le zone con indice più basso (4) sono quelle che presentano il minor livello di pericolosità sismica, essendo possibili solo sporadiche scosse in grado di produrre danni con bassa probabilità. - l’esposizione è un indicatore del numero di persone che utilizzano un certo edificio e che, quindi, sarebbero coinvolte in caso di evento sismico. In ogni programma di protezione il primo obiettivo è la tutela della vita umana e, pertanto, risulta di estrema importanza valutare il numero di quanti sono esposti a questo rischio. Il valore è calcolato dalla relazione:
E=
E
Emax
tano le normative sismiche vigenti) e 100 (edifici con caratteristiche scadenti) e si basa su undici parametri. Per ognuno di essi è attribuita una classe scelta fra quattro: da A (la migliore) a D (la peggiore). Inoltre, al fine della definizione dell’indicatore numerico, a ogni classe è attribuito un punteggio pi, a volte diverso da parametro a parametro, e a ogni parametro è assegnato un peso wi. L’indice di vulnerabilità è poi definito come la somma pesata dei punteggi associati a ogni parametro: pi ∗ wi V =
∑
i
La procedura di classificazione richiede la creazione di una banca dati costruita sulla base della compilazione, per i vari edifici, di una serie di schede, definite di
primo o di secondo livello, proposte dal Gruppo Nazionale per la Difesa dai Terremoti, GNDT (Figg. 2, 3). Le prime schede sono di tipo generale e contengono le informazioni dell’edificio inerenti all’uso, all’ubicazione, all’età della costruzione e agli interventi subiti, allo stato degli impianti, alla tipologia strutturale e alla presenza di eventuali danneggiamenti. Per la corretta compilazione di queste schede è importante conoscere la natura dell’edificio e distinguere altresì tra edificio e aggregato strutturale. Un aggregato strutturale è un insieme di elementi costruttivi non omogenei che possono interagire nel caso di un’azione sismica (o di tipo dinamico in genere). Il secondo tipo di scheda è più complesso e si utilizza specificamente per il calcolo della vulnerabilità di un edificio.
,
dove E rappresenta l’utenza di un edificio ed Emax quella dell’edificio avente utenza massima, cioè caratterizzato da esposizione maggiore; - la vulnerabilità definisce la propensione al danno di un edificio, a seguito di un evento sismico, ed è funzione dei materiali impiegati, delle caratteristiche costruttive e territoriali e dello stato di manutenzione. La valutazione della vulnerabilità sismica delle opere si configura come una fase di diagnosi preventiva; in questo senso, la Regione Lombardia ha predisposto una metodologia che registra una serie di informazioni sugli elementi costitutivi di un edificio, catalogate tramite schede. La vulnerabilità V è assegnata in modo convenzionale, tramite un indicatore numerico cha varia tra 0 (edifici che rispet-
visita il sito www.rivistageomedia.it
Fig. 1 – La classificazione sismica del territorio italiano
13
FOCUS
Fig. 2 – Scheda per la classificazione di primo livello degli edifici
Fig. 3 – Scheda per la classificazione di secondo livello
Fig. 4 – Base cartografica raster del comune di Verdellino, con gli edifici censiti. A destra, dettaglio di un edificio
14
Un approccio GIS al problema Come emerge dalle considerazioni sin qui esposte, l’analisi del rischio è un problema complesso che origina dal concorso di una serie di fattori molto diversi (anagrafici, strutturali, territoriali). L’utilizzazione di un sistema GIS potrebbe essere decisiva, giacché si tratta di uno strumento in grado di automatizzare i processi di analisi, di produrre elaborati tematici e di supportare efficacemente l’utilizzatore nella formulazione di valutazioni e scelte operative. In questo caso, è possibile inserire in un unico geo-database, tramite tabelle collegate tra loro, tutti i dati riguardanti gli edifici sensibili e non e visualizzarli tramite strumenti come ortofoto, cartografie vettoriali, grafici e rielaborazioni tabellari. Un esempio applicativo Si presenta qui un prototipo di applicazione GIS, realizzato attraverso la costituzione di un geo-database, finalizzato all’analisi del rischio sismico, a supporto di interventi a livello comunale, provinciale e regionale. L’intento è fornire uno strumento per visualizzare, gestire, classificare e aggiornare i dati che si riferiscono agli edifici (solo quelli pubblici, in prima istanza) del comune di Verdellino in provincia di Bergamo (Fig. 4). I dati grafici archiviati sono di tipo diverso: dalla cartografia comunale vettoriale, a quelle raster tratte dal geo-portale della Regione Lombardia, a disegni costruttivi dei progettisti, a fotografie e informazioni tematiche raccolte in schede; tutto il materiale è documentato da metadati dettagliati, riguardanti gli autori, l’anno di produzione e aggiornamento, il livello di dettaglio, la precisione delle misure, il sistema di riferimento, la proprietà, ecc. La piattaforma di sviluppo è ArcGIS Desktop, versione 10.1, prodotto da Esri. La fase di acquisizione e documentazione La fase di acquisizioni delle informazioni ha sempre un ruolo decisivo nella realizzazione di un geo-database corretto. Innanzitutto, l’analisi è stata per ora limitata ai soli edifici pubblici del comune scelto, a causa della difficoltà di acquisire i dati esistenti su quelli privati e di ottenere le autorizzazioni per i necessari sopralluoghi. Le informazioni caratteristiche di ogni edificio sono state registrate sulle schede di rilevazione, indicate in precedenza, e, in particolare, su quella di primo livello che raccoglie i dati essenziali per la prevenzione: la localizzazione geologica dell’edificio, i dati metrici, la destinazione d’uso, l’età, gli interventi subiti,
GEOmedia n°2-2013
FOCUS lo stato delle finiture e degli impianti, la tipologia strutturale e la presenza di degrado e dissesto precedenti. Le informazioni, come premesso, sono state estratte indirettamente da progetti e documenti conservati negli archivi comunali e/o direttamente con sopralluoghi sugli edifici. Il loro corretto recupero, essenziale per garantirne la qualità, ha incontrato varie problematicità che, talvolta, ne hanno ridotta l’attendibilità. La costruzione del geo-database Il database è stato progettato secondo il modello entità-relazioni illustrato in figura 5, utilizzando feature class (cioè una raccolta di feature omogenee, aventi la stessa rappresentazione spaziale, come poligoni, linee, punti) e tabelle opportunamente collegate (Fig. 6). I modelli entità-relazioni rappresentano, infatti, classi di oggetti (le entità) che hanno proprietà comuni ed esistenza autonoma ai fini dell’applicazione, mentre le relazioni rappresentano un legame tra due o più entità. Le entità e le relazioni vengono poi descritte usando una serie di attributi. Il database è stato costruito attraverso l’applicativo ArcCatalog: tutte le informazioni raccolte sono state inserite in esso, operando una fase di editing con il modulo ArcMap. Le tabelle e le feature class create sono collegate tra loro nel database, in modo da avere tutte le informazioni quando si deve procedere all’interrogazione dei dati.
Fig. 5 - Modello entità-relazioni del progetto di geo-database
Valutazione del rischio sismico Come già indicato in precedenza, il termine rischio sismico indica i possibili danni (stimati) causati da terremoti che dovessero interessare, in un determinato periodo, una certa area di territorio. La valutazione può essere quantificata in diversi modi: per esempio attraverso il costo dei danni riguardanti gli edifici, il costo complessivo in termini economici e sociali subito dalla popolazione presente, oppure attraverso il numero prevedibile di morti e feriti. L’indicatore preposto per la valutazione del rischio sismico (R%) è espresso mediante la seguente relazione fra parametri: R% = ⎡⎛⎜ P ⎞⎟ ∗ ⎛⎜ V ⎞⎟ ∗ ⎛⎜ E ⎞⎟⎤ ∗100 ⎢⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎥ . ⎣⎝ Pmax ⎠ ⎝ Vmax ⎠ ⎝ Emax ⎠⎦ In essa, P rappresenta la pericolosità, V la vulnerabilità ed E l’esposizione; i vari parametri sono calcolati secondo le modalità prima descritte, con Vmax = 100 e Pmax = 1.
visita il sito www.rivistageomedia.it
Fig. 6 – Esempio di tabella associata a un edificio
Il calcolo della vulnerabilità, dell’esposizione e quindi del rischio sismico, associato a ogni edificio, può essere eseguito agevolmente all’interno del modulo ArcMap, tramite operazioni di join fra tabelle e il comando field-calculator. Di conseguenza, è possibile realizzare carte tematiche del territorio, nelle quali
si possono rappresentare gli edifici con colori diversi secondo la classe di appartenenza: le carte prodotte riguardano, nello specifico, la vulnerabilità e la sua affidabilità (desunta in funzione della modalità diretta o indiretta di acquisizione dei parametri strutturali e materici), l’esposizione e il rischio sismico (Figg. 7, 8, 9).
15
FOCUS Un’altra interessante applicazione riguarda la valutazione dell’interazione esistente tra gli edifici in esame e il reticolo stradale: sempre in ArcMap, avendo a disposizione un file vettoriale delle strade del comune interessato, è possibile eseguire delle query spaziali, in grado di evidenziare vie di fuga, utili in caso di emergenza, e la loro relazione con gli edifici. Sviluppi futuri Un possibile sviluppo funzionale del geo-database riguarderà la creazione di una procedura automatizzata per il calcolo della vulnerabilità, dell’affidabilità della vulnerabilità stessa, dell’esposizione e del rischio. Questa procedura è realizzabile tramite lo strumento Model Builder in ArcMap, un’applicazione utilizzata per generare, modificare e gestire modelli che rappresentano sequenze di comandi di geo-processing. Ovviamente, il database deve comprendere tutti gli edifici sia pubblici sia privati e, nell’ottica di una definizione del rischio integrato, prevedere anche dati riguardanti altri possibili fonti di rischio inerenti al territorio. Considerazioni finali Lo studio descrive la realizzazione di un’applicazione GIS, di supporto alle Amministrazioni comunali, per la gestione automatizzata degli aspetti connessi alla protezione degli edifici di competenza dal rischio sismico. Il geo-database progettato consente, infatti, di mantenere sotto controllo e in costante aggiornamento le condizioni di sicurezza di ogni edificio e costituisce, inoltre, uno strumento efficace per avviare piani di manutenzione programmata del costruito laddove si evidenzino situazioni di precarietà conservativa. In caso di evento sismico, o di altro fenomeno calamitoso naturale, è altresì possibile evidenziare interattivamente le aree a maggior rischio, così da procedere con priorità ed efficacia. I GIS sono strumenti in grande crescita che diverranno presto un’interfaccia utente multi-funzione capace di fornire soluzioni rigorose ed esaustive per ogni problema tecnico connesso alla conoscenza, alla gestione e all’analisi del territorio e delle sue antropizzazioni. Questi sistemi rappresentano già oggi una realtà operativa diffusa e accessibile come ben evidenzia ArcGIS Online di Esri, un sistema web-based progettato per quanti desiderino trattare contenuti geo-spaziali attraverso infrastrutture di tipo cloud. Un portale
16
Fig. 7 – Tematizzazione della Vulnerabilità
Fig. 8 – Tematizzazione dell’Esposizione
per operatori e professionisti di tutto il mondo, che potranno integrare le proprie cartografie e informazioni geo-spaziali con quelle, condivise e gratuite, aggiornate da Esri in tempo reale. Ringraziamenti A Giorgio Ubbiali per il contributo fornito nello sviluppo dell’applicazione GIS, che ha costituito parte essenziale della sua tesi di laurea specialistica in Ingegneria Edile.
Abstract The Italian land has a great amount of both ancient outstanding buildings and modern ones.
Nowadays, risk evaluation and analysis
are extremely useful to prevent the dangerous natural calamities, which have always
been happening in Italy, involving both human lives and structures maintenance.
This
is a
very complex problem which requires a wide knowledge concerning structural, material and territorial information: a
GIS
system
could be the effective instrument able to automatize analysis processes, to provide thematic outputs and to help the users in operational choices and online analyses.
The paper deals with a GIS application in the Verdellino, close to Bergamo, which has been developed carrying out a detailed geo-database for seismic buildings classification. The experience has proved the little town of
Parole chiave Rischio integrato; rischio sismico; gis; arcgis
meaningful role of informatics instruments in visualization, risk classification and in pre/ post events management for a more general safeguard.
GEOmedia n°2-2013
FOCUS
Riferimenti web http://www.protezionecivile.regione.
lombardia.it - Sito web protezione civile
Lombardia.
http://www.cartografia.regione.lom-
bardia.it/geoportale, Geo-portale della regione Lombardia.
http://www.esriitalia.it/
http://www.protezionecivile.gov.it
Autori Luigi Colombo luigi.colombo@unibg.it Barbara Marana barbara.marana@unibg.it Dipartimento di Ingegneria Università di Bergamo
Fig. 9 – Classificazione dei valori di Rischio
Bibliografia • AA. VV. (1993), Rilevamento dell’esposizione e vulnerabilità sismica degli edifici. Istruzioni per la compilazione della scheda di I livello, Appendice n. 1 alla pubblicazione Rischio sismico di edifici pubblici. Parte I – Aspetti Metodologici, CNR – GNDT, 1993. • AA. VV. (1993), Rilevamento della vulnerabilità sismica degli edifici in muratura. Istruzione per la compilazione della scheda di II livello, Appendice n. 2 alla pubblicazione Rischio sismico di edifici pubblici. Parte I – Aspetti Metodologici, CNR – GNDT, 1993. • AA.VV. (2003), Individuazione delle zone sismiche, formazione dell’elenco dei comuni sismici della regione Lombardia ed analisi di fattibilità di un’indagine sulla vulnerabilità degli edifici strategici del territorio lombardo (Politecnico di Milano – Dipartimento di Ingegneria Strutturale); parte seconda: analisi di fattibilità di un’indagine sulla vulnerabilità degli edifici strategici del territorio lombardo; allegato 1: scheda di I livello. • Angeletti P., Petrini V. (1993), Valutazione della vulnerabilità: edifici in muratura, Rischio sismico di edifici pubblici. Parte I – Aspetti Metodologici, CNR – GNDT, 1993. • Dainelli N., Bonechi F., Spagnolo M., Canessa A. (2008), Cartografia numerica, manuale per l’utilizzo dei GIS, Dario Flaccovio editore, 2008. • Graci G., Pileri P., Sedazzari M. (2008), GIS e ambiente, guida all’uso di ArcGIS per l’analisi del territorio e la valutazione ambientale, Dario Flaccovio editore, 2008. • PRIM 2007-2010, Programma Regionale Integrato di Mitigazione dei Rischi Studi preparatori. Il rischio integrato in Lombardia: misurazioni di livello regionale e individuazione delle zone a maggiore criticità, luglio 2007. • Rilevamento della vulnerabilità sismica degli edifici, istruzioni per la compilazione della scheda di II livello – Cemento armato. Politecnico di Milano – Dipartimento di Ingegneria strutturale, ottobre 2003.
TEOREMA srl
SOLUZIONI TOPOGRAFICHE INNOVATIVE
Leica Multistation MS50
Leica GS08 Plus
Leica Disto D510 per iPhone e iPad
Leica 3D Disto
Leica P20
www.disto.it • www.geomatica.it Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 - Fax 02 57301988 teorema@geomatica.it visita il sito www.rivistageomedia.it 200 x 143 Geomedia 013 QR 2.indd 1
17 02/07/13 13:30
MERCATO PROSCAN: un nuovo sistema di scansione statico e cinematico portatile PROSCAN (PORTABLE LASER SCANNER FOR MOBILE MAPPING) è una soluzione innovativa per il mobile mapping tecnicamente affidabile ed economicamente vantaggiosa grazie alla compatibilità con i principali laser scanner presenti sul mercato. Grazie all’integrazione diretta con l’operatore PROSCAN consente di rilevare in tempi rapidi tutte quelle zone difficilmente accessibili quali aree pedonali e centri storici ma anche ambienti interni ed impianti industriali grazie ad una specifica modalità di acquisizione. Oltre a ciò, il sistema può essere montato anche sulle comuni piattaforme mobili (autoveicoli, imbarcazioni, veicoli su rotaia) per soddisfare ulteriori esigenze di mobile mapping. L’utilizzo dello scanner in modalità statica completa infine l’ampio ventaglio delle soluzioni operative. PROSCAN può essere utilizzato per rilievi di tipo classico da operatore, con treppiede su ruote o veicoli su strada, per il rilievo da imbarcazioni e per il rilievo da veicoli su rotaia. Il bilanciamento stabilizzato del sistema laser/gps/imu permette l’installazione diretta di PROSCAN su un supporto meccanico (steadycam) collegato ad una imbragatura che può essere indossata direttamente dall’operatore. Interfaccia hardware ed alimentazione sono collocate in un apposito zaino. L’integrazione nativa di PROSCAN con un treppiede su ruote assicura la massima produttività per il rilievo cinematico degli ambienti interni mentre l’utilizzo diretto da parte dell’operatore garantisce la massima mobilità verticale (rampe, scalinate, cunicoli). (Fonte: Microgeo)
Geoportale della Regione Lombardia, disponibili le ortofoto AGEA 2012 Le ortofoto aggiornate al 2012 dell'intera Regione Lombardia sono da oggi pubblicate nel Geoportale, in sostituzione di quelle rilevate nel 2007. Costituiscono una delle fondamentali basi geografiche e cartografiche, lo sfondo del viewer geografico e sono ricercabili sotto la voce Ortofoto nel Catalogo. Sono inoltre presenti come sfondo nei servizi di mappa. Le immagini, in UTM32N-WGS84, e pixel a 50 cm, sono state acquisite con volo aereo da Agea (Agenzia per le Erogazioni in Agricoltura) e rese disponibili alle regioni. La licenza d'uso consente la sola visualizzazione e non la distribuzione libera dei dati. Specifici accordi saranno definiti con le province per la diffusione ai soli enti pubblici. (Fonte: Regione Lombardia)
Leica NOVA MS50 la prima MultiStation al mondo Leica Nova racchiude 90 anni di sviluppo continuo ed innovazione nella realizzazione di tecnologie di ultima generazione. Questa innovativa soluzione garantisce massime prestazioni. Tutti i benefici derivanti dalla scansione 3D di dettaglio, dal rilievo puntuale di precisione, dalle immagini digitali e dalla connettività GNSS sono ora racchiuse nella MultiStation Leica Nova. Una soluzione rivoluzionaria dotata di una tecnologia di misura avanzata che fornisce precisioni e qualità, ma facile da utilizzare in diversi ambiti di applicazioni. Le caratteristiche della MultiStation Leica Nova sono veramente complete e seconde a nessuno. Unisce in modo unico e nuovo le ultime tecnologie nel campo delle misure di precisione con Stazione Totale, delle immagini digitali, della scansione laser 3D e il posizionamento GNSS. Non si tratta solo di un'integrazione hardware, ma anche di un'integrazione globale dei dati; le immagini sono sincronizzate con le nuvole di punti e le scansioni sono legate alle misurazioni eseguite con la Stazione Totale. Questo è il modo più semplice per affrontare la complessità dei dati 3D. Leica Nova MS50 è caratterizzata da una fotocamera panoramica grandangolare e da una fotocamera coassiale dotata di 30 ingrandimenti ed autofocus. La tecnologia di elaborazione immagini fornisce un flusso di dati video in tempo reale sullo schermo al fine di visualizzare un'immagine di alta qualità. Le funzionalità imaging di Leica Nova MS50 aprono nuove opportunità per poter utilizzare la MultiStation in un'infinità di applicazioni. (Fonte: Teorema srl)
18
Mobile App per la gestione dei contributi Europei per la protezione della natura
R3 GIS si è aggiudicata recentemente una importante gara in Austria, per la realizzazione di un sistema di gestione dei contributi dell’Unione Europea per attività connesse alla protezione della natura. La Ripartizione Ambiente della Regione di Salisburgo in Austria elargisce infatti contributi comunitari ai proprietari di terreni per attività connesse alla protezione della natura. L’individuazione delle superfici e la compilazione dei moduli sono complesse e richiedono sopralluoghi in campo, verifiche geometriche e controlli incrociati con altre banche dati. Le aree interessate sono spesso in zone remote, non servite dalla rete 3G. R3 GIS ha realizzato un applicativo WebGIS, basato su standard OGC e software libero, che consente da un lato di gestire l’iter della pratica all’interno degli uffici della Regione e dall’altro di completare l’iter direttamente in campo tramite un’applicazione per tablet Android, capace di lavorare anche autonomamente, in assenza di connessione internet. L’App è parte integrante del workflow di gestione della richiesta di contributo. Distribuita ai vari uffici competenti, consente loro di scaricare la cartografia di base (ortofoto, carta tecnica etc), i dati vettoriali (catasto, aree protette etc) e le pratiche che richiedono il sopralluogo. Grazie alle funzionalità avanzate di editing come Snap, Split e verifica topologica, l’accuratezza della cartografia di base e l’integrazione dei servizi WMS messi a disposizione dalla Regione, l’area interessata dal contributo può essere censita con notevole precisione e rigorosità e può essere approvata direttamente in campo dal soggetto richiedente tramite firma elettronica. Questo consente di evitare le numerose iterazioni tra Regione e richiedente necessarie al perfezionamento dei dati. Tramite questi nuovi strumenti, la Regione di Salisburgo prevede di ridurre l’iter della pratica da circa 8 mesi a poche settimane, di aumentare la qualità dei dati raccolti in campo e di ottimizzare le risorse necessarie alla gestione dei contributi. (Fonte: R3 GIS)
GEOmedia n°2-2013
MERCATO Nuove app da Intergraph: Mobile Alert e Mobile MapWorks Intergraph annuncia il rilascio di due nuove soluzioni mobile per supportare le pubbliche amministrazioni locali e i settori dei Trasporti, Lavori Pubblici e Infrastrutture: Mobile Alert 2013 & Mobile MapWorks 2013. Mobile Alert è un'applicazione di crowdsourcing che consente ai cittadini di segnalare alle autorità locali problemi e fenomeni illegali che riguardano la salute e la sicurezza del proprio territorio: danni alle opere pubbliche e al patrimonio architettonico, discariche abusive, buche pericolose nella pavimentazione stradale, illuminazioni stradali rotte, ecc. Mobile Alert consta di una app gratuita e di un servizio di hosting cloudbased finalizzato alla gestione delle segnalazioni ricevute, lato backend. Grazie alla estesa diffusione globale di dispositivi mobile come smartphone e tablet, con dispositivi di posizionamento GPS integrati, i cittadini sono diventati grandi produttori di dati che hanno un riferimento geografico. I cittadini possono avviare l'applicazione, fare una foto del problema da segnalare, selezionare la categoria appropriata, fornire un commento facoltativo e inviare la segnalazione. La localizzazione geografica della segnalazione è data dalle coordinate GPS del dispositivo utilizzato e questa viene inviata in forma anonima al sistema. L'agenzia governativa o la società di servizi locale che sottoscrive il servizio di hosting riceve una e-mail di alert con la quale accede al sistema e legge il report della segnalazione. Questa contiene tutti i riferimenti geografici sulla posizione e l'indirizzo del luogo segnalato (servizio web standard OGC), oltre all'accesso alla foto dell'incidente. Mobile MapWorks è un'applicazione mobile per l'aggiornamento facile ed immediato delle banche dati GIS mediante rilievi in campo. Offre agli utenti funzioni di visualizzazione e navigazione efficace delle banche dati, con indicazioni precise della posizione GPS fornita dal dispositivo mobile utilizzato, e funzioni specifiche per l'editing degli attributi e della geometria delle feature. Tutti gli aggiornamenti vengono salvati in tempo reale sul database. L'applicazione è accoppiata ad un sistema di backend che fornisce la profilazione e la gestione degli utenti per l'accesso controllato ai dati e alle funzionalità. L'applicazione funziona consumando servizi web standard OGC (WMS, WMTS e WFS-T) per l'aggiornamento delle feature per cui è compatibile con tutte le piattaforme GIS che aderiscono a questi standard. Questo architettura aperta significa che gli utenti lavorano direttamente sul database evitando qualsiasi converisone di dati, sincronizzazione o salvataggi temporanei delle modifiche. Le app Mobile Alert 2013 e Mobile MapWorks 2013 saranno disponibili entro luglio per sistemi iOS ed Android dallo store iTunes o Google Play. (Fonte: Geospatial News)
visita il sito www.rivistageomedia.it
Presentato l'Annuario dei dati ambietali ISPRA 2012
L’Annuario dei Dati Ambientali ISPRA 2012, presentato il 17 luglio a Roma, raccoglie tutti i dati sullo stato dell’ambiente in Italia e si conferma punto di riferimento per decisori politici, ricercatori, detentori di interessi economici e cittadini. Il quadro che emerge dal rapporto di quest'anno è di una situazione ambientale con molti punti critici ma anche qualche miglioramento. Diminuiscono le emissioni e cresce la superficie boscata (a causa però dell'abbandono dell'agricoltura) ma nelle città si continuano a sforare i livelli di inquinanti e l'indice di cementificazione per la prima volta dopo cinquanta anni aumenta, da 7 ad 8 mq al secondo; ovvero ogni 5 mesi viene cementificata una superficie pari a quella del comune di Napoli e ogni anno una superficie pari alla somma di quelle dei comuni di Milano e Firenze. Per quel che riguarda il rischio alluvioni, sono oltre 6 milioni gli italiani esposti. Il report, giunto alla sua undicesima edizione, viene proposto in molteplici versioni, per rispondere alle esigenze di un’utenza ampia e variegata. Oltre alla versione integrale, infatti, il report dell’Istituto è organizzato in “Tematiche in primo piano”, “Tematiche in primo piano light”, “Annuario in cifre”, “Database”, “Multimediale” e “Fumetto”, destinato a un pubblico giovane di non esperti. Tutti i report sono disponibili sul sito dell'ISPRA. (Fonte: ISPRA)
19
MERCATO eEnviper, la piattaforma di e-Government per gestire le autorizzazioni ambientali È on-line eEnviPer, la piattaforma integrata web-based di e-Government per la compilazione, la gestione e la consultazione delle autorizzazioni ambientali. Sviluppata nell’ambito del programma CIP (Competitiveness and Innovation Programme) dell'Unione Europea, la piattaforma contribuisce a rendere più trasparente, accessibile ed efficiente il processo di rilascio dei permessi. Gli utenti interessati possono già registrarsi ed utilizzare il portale italiano http://italy.eenviper.eu/ La piattaforma eEnviPer ha l’obiettivo di ridurre lo sforzo necessario per il rilascio di una autorizzazione ambientale da parte delle autorità preposte, così come per l’ottenimento dei permessi da parte degli operatori: rispetto ai processi esistenti, principalmente basati sulla circolazione di documenti cartacei, le informazioni saranno più facilmente accessibili, e la velocità del processo aumenterà in virtù di flussi di lavoro predefiniti. Anche i cittadini potranno beneficiare del sistema, mediante il quale sarà semplice trovare informazioni sulle domande in fase istruttoria e presentare osservazioni e contributi. eEnviPer si propone di dimostrare questo approccio in cinque regioni pilota in Europa: Puglia (Italia), Creta (Grecia), Nigde (Turchia), Indjija (Serbia) e Krapina-Zagorje (Croazia). Il portale pilota italiano, sviluppato da ARPA Puglia e Planetek Italia, è realizzato in modo da guidare i vari utenti, secondo i diversi ruoli di appartenenza, nell’espletamento delle attività di competenza in merito a due procedure prese in considerazione: • La procedura di Prevenzione e Limitazione Integrate dell'Inquinamento, traduzione italiana di IPPC (Integrated Pollution Prevention and Control), una delle Direttive UE più importanti in materia ambientale (Dir. 96/61/CE poi codificata in Direttiva 2008/1/UE). • La procedura Rischio Incidente Rilevante (RIR) al quale è soggetto, ai sensi della normativa vigente (D.L. 334/99), ogni stabilimento in cui si verifichi la detenzione di sostanze o categorie di sostanze potenzialmente pericolose, in quantità tali da superare determinate soglie. Gli utenti che possono beneficiare dei servizi eEnviPer sono: • i cittadini, che possono fornire commenti on-line sui processi autorizzativi in corso; • il gestore, che può trasmettere in forma elettronica la domanda e la documentazione annessa, e ricevere aggiornamenti sullo stato della procedura; • le autorità responsabili del rilascio del permesso (Ministeri, Regioni), i cui delegati possono utilizzare gli strumenti del sistema per l’accettazione delle domande e la delega della valutazione delle stesse alle commissioni istruttorie; • i membri della commissione istruttoria, che possono disporre di un area di lavoro condivisa e degli strumenti messi a disposizione dalla piattaforma per analizzare in modo efficiente il caso in esame; • ARPA e ISPRA, corpi tecnici legati agli enti ministeriali e locali, per svolgere le loro funzioni di controllo e vigilanza del rispetto della normativa vigente. (Fonte: comunicato stampa Planetek)
20
GEOmedia n°2-2013
MERCATO
visita il sito www.rivistageomedia.it
21
MERCATO Caccia al tesoro: Geocaching, mappe e smartphones Il 27 settembre avrà luogo in numerose piazze italiane la "Notte europea dei ricercatori", promossa dalla Commissione Europea nell'ambito dell'iniziativa ‘Researchers' Night'. Trieste, nota come “città della scienza”, è una delle città che ospiterà l'iniziativa e durante tutta la giornata vi saranno eventi e manifestazioni di carattere divulgativo e ludico che avrannno lo scopo di avvicinare il pubblico al mondo della ricerca ed a quanto di solito viene fatto nei laboratori. L'evento triestino ospiterà una sezione denominata “Caccia al tesoro: Geocaching, mappe & smartphones”, organizzata dai ricercatori dell'Università di Trieste, in cui verranno svolte attività per avvicinare il grande pubblico alla geografia e alla cartografia 2.0. In particolare, vista la diffusione di smartphone e tablet con ricevitore GPS e app cartografiche, nonché la disponibilità di mappe digitali, si è scelto di usare gli smartphone e palmari e carte digitali per acquisire informazioni di carattere geografico ed elaborarle, oltre che per illustrare le potenzialità e caratteristiche, introducendo i concetti di base della cartografia, della geografia e dell'analisi territoriale. I ricercatori guideranno i volontari in città alla ricerca di "tesori" (e di coordinate geografiche), mostrando come creare una nuova cartografia. La sfida geografica coinvolgerà ragazzi ed adulti. Per i ragazzi sarà realizzata una caccia al tesoro geografica che utilizzerà i punti "ufficiali" del cosiddetto geocaching, sia una rete di altri punti, definiti per questo particolare appuntamento. Gli adulti, invece, cercheranno in bici o a piedi dei siti di particolare valenza artistica o storica nell'ambito urbano e, successivamente, creeranno la propria carta personalizzata con l'utilizzo dei software GIS open source e free, importando i dati GPS raccolti nel percorso e utilizzando le cartografie di base di progetti, come ad esempio OpenStreetMap o Google Earth. Il progetto è realizzato da ricercatori del Dipartimento di Scienze Economiche, Aziendali, Matematiche e Statistiche e di quello di Studi Umanistici dell'Università degli Studi di Trieste, e gode del patrocinio dell'AIC (Associazione Italiana di Cartografia) e della Federazione ASITA, ed è inoltre sponsorizzato da LAC (Litografia Artistica Cartografica) e Rivista GEOmedia. Informazioni sugli eventi possono essere reperite sui siti "Notte dei europea dei Ricercatori" e dell'Università di Trieste, nonché su social networks e media. (Fonte: Università di Trieste)
22
GEOmedia n°2-2013
MERCATO LiDAR e 3D imaging in un unico evento europeo da non mancare: ELMF + SPAR 2013
Per la prima volta SPAR Europe 3D Measurement & Imaging Conference e lo European Lidar Mapping Forum (ELMF) si svolgeranno in contemporanea, portando in un unico evento il mondo della misura 3D nelle sue varie forme: aerea, terrestre, mobile, statica, batimetrica, palmare, fotogrammetrica e molto di più. I professionisti del 3D e dell'imaging di tutto il mondo si incontreranno in unico luogo per discutere lo stato del settore, conoscere le best practices, condividere idee attraverso i diversi settori di attività, confrontare e valutare le soluzioni dai principali produttori di hardware di imaging 3D e degli sviluppatori di soluzioni software. Con una sola iscrizione si potrà accedere ad entrambi gli eventi. SPAR Europe e lo European Lidar Mapping Forum si terranno dall'11 al 13 novembre 2013 presso il Passenger Terminal di Amsterdam. Gli eventi si focalizzaranno sui progressi della tecnologia 3D che possono essere utilizzati in diversi settori e discipline tra cui edilizia e architettura, le infrastrutture civili, la gestione del territorio, gli studi ambientali, gli impianti industriali, la medicina legale, la sicurezza, e la tutela del patrimonio culturale. Nel corso delle tre giornate saranno affrontati le aree tematiche che riepiloghiamo qui di seguito. Rilievo, raccolta dati Comparazione di metodi e pratiche di misurazione e raccolta dati 3D e con LiDAR e laser, compreso lo short-range e la misurazione 3D consumer. • laser scanner • LiDAR, aereo e terrestre • Fotogrammetria • rilevamento e mappatura mobile • Batimetria e misurazione subacquea • Misura short-range • Kinect, Shapeshot ed altre applicazioni a luce strutturata • UAV • Indoor mobile mapping e la scansione cinematica • Processamento Data processing e workflow per i rielievi 3D • Lavorare con le nuvole di punti ed estrazione di feature • Straight-to-model • Building Information Modeling (BIM) • Algoritmi di scansione-cinematica con Simultaneous Location and Mapping (SLAM) • Facility design • Controllo dimensionale per la fabbricazione e la costruzione modulare • Workflow • Integrazione di sistemi eterogenei • Standardizzazione dei dati • Data Fusion Delivery • Visualizzazione e distribuzione di misure 3D, tra cui: • modelli 3D intelligenti • stampa-3D • Realtà Aumentata • virtualizzazione 3D • Web-based file sharing Per ogni altra informazione, leggere delle precedenti edizioni e per iscriversi potete accedere al sito della manifestazione su http://www.sparpointgroup.com/Europe/
(Fonte: Redazionale)
visita il sito www.rivistageomedia.it
23
MERCATO Smart Mobility World, la rivoluzione digitale nella mobilità del XXI secolo Google Glass, iWatch, App, le tecnologie diventano sempre più accessive e pervasive, si insinuano ovunque e diventano parte della nostra stessa quotidianità; correlate alle informazioni derivanti dai big data trasformeranno ogni nostra attività in un’informazione. Questo permetterà alle persone ed alle merci di muoversi secondo logiche completamente differenti rispetto a quanto accade oggi: più intelligenti, più veloci, più efficienti. Se pensiamo che nel 2050 si presume che il 70% delle persone vivrà nelle città si evidenzia come il tema delle Smart City sia ineludibile e come lo sviluppo tecnologico a disposizione delle istituzioni e dei cittadini evolva continuamente e richieda di essere governato per poter dare il massimo valore su territori, come quelli delle città italiane ed europee, già molto inurbati e con stratificazioni costruttive e culturali complesse. Quella della digitalizzazione è una sfida che, accanto agli aspetti di semplificazione della quotidianità, offre delle enormi opportunità di sviluppo economico e professionale a cui Paesi ex-manifatturieri come l'Italia debbono guardare con grande attenzione predisponendosi a competere in una maniera coordinata e capace di fare sistema. Per questo nasce Smart Mobility World un evento che mette a fattor comune la conoscenza di 150 relatori in oltre 30 convegni locali ed internazionali in rappresentanza delle istituzioni pubbliche, del mondo della ricerca, della comunicazione, delle imprese. Smart Mobility World nasce dall'integrazione di due Forum internazionali già consolidati, Telemobility Forum (dal 2002 il più esclusivo evento sull'ITS - Intelligent Transportation Systems) ed ITN Infrastructures & tecnologies for the Smart City, dal 2009 l’unico evento italiano che propone un business matching dedicato alle infrastrutture digitali per le future Smart City e l’Agenda Digitale. In particolare i temi delle Smart City, dei Big data, del digital signage (comunicazione di prossimità) verranno affrontati nell'ambito di ITN Infrastructures & Technologies for the Smart City e Telemobility, con dibattiti e seminari dedicati che rappresenteranno lo stato dell'arte sui temi della connettività, del digitale, della mobilità integrata. A questi convegni, quest'anno si aggiunge Green Cars Forum dedicato al settore automotive permettendo quindi un connubio perfetto tra le tecnologie di comunicazione ed i veicoli a basso impatto ambientale disegnando la mobilità del XXI secolo: digitale, integrata, a basso impatto ambientale. Smart Mobility World si terrà a Torino nel Centro Congressi Lingotto dal 26 al 27 Settembre, con international pre-conference nella giornata del 25. Molte le tematiche trattate nel corso delle sessioni: agenda digitale e smart city, smart security & emergency, Galileo, open data & smart GIS, AVL/AVM e fleet management, e-ticketing and smart parking, onboard telematics and car sensors, e ancora, veicoli elettrici e ibridi, auto in rete e auto a guida automatica, sistemi di ricarica e tecnologie per la mobilità elettrica. Il programma prevede infine la seconda edizione degli incontri B2B della filiera Smart Mobility, Logistics, Automotive organizzati da TOSMTorino Software & System Meeting. La filiera include le imprese che sviluppano e/o integrano strumenti ICT finalizzati alla raccolta, elaborazione, gestione e trasmissione di dati relativi ai veicoli, allo stato delle infrastrutture e agli utenti, per l'erogazione di servizi volti ad aumentare l'efficienza delle infrastrutture, l'efficacia della rete di trasporto e la sicurezza degli utenti, sia a supporto della logistica e del trasporto merci, sia al trasporto delle persone. Per capire il valore della partecipazione è sufficiente leggere i numeri dell’edizione 2012: 1.957 Visitatori; 151 Relatori; 44 Sponsor ed Espositori; 33 Partner, Istituzioni e Associazioni, 253 B2B Meeting. Anche per il 2013 si conferma il Brokerage Event, forte dei 227 appuntamenti del 2012. Un evento speciale organizzato dalla Camera di commercio di Torino nell’ambito della rete Enterprise Europe Network con l’obiettivo di favorire incontri bilaterali tra imprese, università e centri di ricerca provenienti da tutta Europa che si occupano di tecnologie digitali per la Smart Mobility e la Smart City. Per maggiori informazioni, per il programma delle conferenze e la registrazione gratuita previo accredito, è disponibile il sito web dell’evento: www.smartmobilityworld.eu GEOmedia è media partner e parteciperà attivamente all'evento. Email: workshop.telerilevamento@enea.it (Fonte: ENEA) 24
GEOmedia n°2-2013
REPORTS
Servizi di infomobilità nei trasporti del Comune di Roma di Flaminia Leggeri, Patrizia Micheli, Annalisa Perla, Augusto Sgura, Francesca Spagnoli
Uno degli obiettivi di ATAC, azienda dei trasporti del Comune di Roma, è quello di fornire informazioni sul servizio di trasporto pubblico da lei operato ad un bacino di utenza sempre più vasto. In quest’ottica ha sviluppato il progetto “ATAC per le aziende” con particolare sensibilità alla Mobilità Sostenibile.
I
l servizio che nasce ad integrazione dell’accordo stipulato con le aziende per gli abbonamenti in convenzione, viene messo a disposizione dei dipendenti, via intranet, tramite chioschi, pannelli informativi o totem presenti all’interno delle sedi. Il servizio che ATAC mette a disposizione è una variante personalizzata dei “Tempi attesa bus alle fermate”, in quanto presenta le previsioni di arrivo dei bus alle sole fermate più vicine al posto di lavoro, con l’intento di ottimizzare i tempi degli spostamenti dei dipendenti dell’azienda che si avvalgono del TPL per lasciare la sede di lavoro. L’analisi delle fermate più vicine al posto di lavoro parte dallo sviluppo di un network che tiene in considerazione la distanza reale sede lavoro-fermate, valutando i soli percorsi monitorati dal servizio AVM. L’interfaccia finale visualizzerà la distribuzione delle fermate in relazione alla sede di appartenenza con le relative previsioni di arrivo, per un’immediata visione territoriale di dettaglio, ed un link al Calcola Percorso di Atac con il punto di partenza preimpostato sulla sede aziendale. Il servizio “Tempi attesa bus” I servizi di infomobilità messi a disposizione da Atac sono molteplici, i principali sono noti agli utenti in quanto presenti sul portale di Atac come il Calcola Percorso ed il Trovalinea quali strumenti di ausilio per muoversi in città con il trasporto pubblico.
26
Negli anni Atac, ha cercato e cerca di dare sempre di più attenzione alla mobilità sostenibile e in quest’ottica è nato il nuovo servizio rivolto alle Aziende, Enti e società di Roma allo scopo di coinvolgere, sempre di più, i loro dipendenti a muoversi nella città utilizzando il trasporto pubblico locale con l’obiettivo della salvaguardia ambientale. Fra i servizi di infomobilità che Atac fornisce ai Grandi Clienti come elemento accessorio ed integrativo all’Accordo stipulato e riguardante gli Abbonamenti in convenzione, troviamo “tempi attesa bus”. Il servizio reso al Cliente prevede la creazione di una interfaccia che a seconda del servizio reso è sostanzialmente di 3 tipologie: 1 Interfaccia “Previsioni di arrivo dei bus” per Totem/Schermo informativo 2 Interfaccia “Previsioni di arrivo dei bus” per portale Intranet 3 Collegamento ai servizi via web service Nei primi due casi è prevista la fornitura da parte di Atac di un’interfaccia completa rispettivamente per Totem o Portale Intranet, mentre nel terzo caso, alternativo agli altri, Atac fornisce al Cliente solo i dati di base ai servizi, mentre la realizzazione delle interfacce spetta al cliente stesso; in ogni caso Atac è di supporto al cliente per tutta la durata dell’accordo.
GEOmedia n°2-2013
REPORTS
Fig. 1 - Il layout di base dell’interfaccia offerta per il Portale Intranet.
Descrizione dei servizi di infomobilità offerti ai Grandi Clienti Per l’erogazione del servizio Atac fornisce al Cliente una interfaccia dedicata da visualizzare sia sul Portale Internet che sui totem/schermi informativi o pannelli disposti nelle sale di attesa o all’entrata della sede qualora il cliente ne fosse dotato . L’interfaccia realizzata mostra:
• le previsioni di arrivo alle fermate di interesse del Cliente, ossia le fermate più vicine alle sedi del Cliente.
• le informazioni relative ad una sola fermata alla volta, oc-
cupandosi di gestire la visualizzazione a rotazione di tutte le fermate di interesse. • la cartografia che sarà di ausilio ad una più agevole localizzazione delle fermate sul territorio e sarà automaticamente aggiornata da Atac ad ogni eventuale modifica della posizione delle fermate scelte. In ogni caso l’interfaccia è diversificata e configurata per le diverse sedi del Cliente ed è composta da una parte cartografica fissa e da una parte testuale dinamica, che mostra le previsioni di arrivo dei mezzi alle fermate stabilite ed automaticamente aggiornate dal sistema, l’anagrafica delle fermate. Nelle interfacce create è previsto anche una parte dedicata al Calcola Percorso , nello specifico la pagina prevede:
• link alle mappe ed orari delle linee in arrivo alle fermate di interesse;
• link al Calcola Percorso di Atac con punto di partenza preimpostato sulle sedi aziendali.
Nel caso in cui il dipendente richiede un percorso l’interfaccia visualizzerà i risultati, sia testuali che cartografici, in un’altra pagina, alla stregua di quanto proposto sul sito di Atac. L’interfaccia sarà visibile anche nel caso che le policy del Cliente inibiscano l’accesso ad internet dei propri dipendenti. Nel caso in cui invece il Cliente decida di usufruire del servizio via “web service”, Atac fornisce un collegamento ai dati elementari di base necessari alla composizione dei servizi “Previsione di arrivo dei Bus” e “Calcola Percorso” via web service, limitatamente alle fermate di interesse del Cliente. A differenza da quanto previsto per l’interfaccia dedicata al portale intranet od ai pannelli informativi il disegno e la realizzazione delle interfacce è a cura del Cliente che ha così la possibilità di effettuare una reale customizzazione delle interfacce realizzandole ed adattandole alle proprie esigenze ed alla propria immagine WEB.
Fig. 2 - Il layout di base dell’interfaccia offerta per i Totem e/o schermi informativi.
Scelta delle fermate in prossimità delle sedi L’ufficio SIT di Atac dispone di molteplici informazioni territoriali utili al fine di avviare un’analisi spaziale basata su tutti gli elementi presenti sul territorio nella zona circoscritta della sede coinvolta. Per l’allestimento dell’interfaccia dedicata al portale intranet, Atac svolge una serie di attività propedeutiche alla realizzazione delle mappe da inserire nell’interfaccia . In particolare le attività riguardano: 1 Scelta delle fermate. Atac si riserva di proporre una serie di fermare in prossimità delle sedi scelte dal cliente, nello specifico i criteri di scelta riguardano: - Selezione delle fermate più vicine alle sedi - Univocità dei percorsi - Percorso di Andata/Ritorno Una volta acquisita la localizzazione della sede interessata, l’analisi parte selezionando le fermate più vicine alla sede interessata, prendendo in considerazione le linee monitorate che vi transitano ed escludendo le linee non monitorate (es. tram, linee elettriche, notturne,) e quelle non d’interesse (es.cimiteriali, ecc.). Tutto questo viene sviluppato grazie alla realizzazione di un network creato appositamente per l’esigenza del richiedente. In casi particolari, dove lo sviluppo del network non sia ritenuto opportuno, si considerano solo le fermate vicine alla sede, identificate sulla base di un’analisi di dettaglio (es. sedi in zone isolate o sedi scarsamente servite da linee monitorate dal servizio AVM). Nella scelta delle fermate, inoltre, si tiene conto della univocità dei percorsi che vi transitano e si selezionano le fermate in cui la medesima linea effettua sia il percorso
Fig. 3 – Esempio proposta fermate in prossimità della sede di interesse
visita il sito www.rivistageomedia.it
27
REPORTS di andata che il percorso di ritorno (ove possibile). Scelte le fermate, nella mappa da presentare al cliente per l’avallo definitivo, si indicano le sole fermate scelte, le stazioni metro o ferroviarie, dove presenti, e si escludono i capolinea bus in quanto per quest’ultimi non vi è previsione di arrivo. 2 Predisposizione lista delle fermate. Successivamente alla scelta delle fermate in base ai criteri sopra elencati vengono sviluppate delle mappe di analisi da proporre al Cliente che, in base alla proprie esigenze verifica quanto estrapolato dall’analisi GIS (mappa d’interesse all’interfaccia) .Oltre alle bozze delle mappe, si fornisce al cliente, una lista delle fermate scelte. Dopo la sua approvazione, si procede alla realizzazione definitiva delle mappe. 3 Monitoraggio e aggiornamento fermate. Lo stato della rete è molto frequentemente soggetto a modifiche e/o cambiamenti siano essi temporanei (lavori in corso di medio e lungo termine) siano essi permanenti come nel caso di variazioni di percorso. In ogni caso le fermate selezionate nell’area di studio sono monitorate periodicamente in base agli aggiornamenti della rete TPL riproducendo, quando necessario, le mappe con le variazioni riscontrate. l SIT di ATAC Il progetto che ha portato ATAC alla realizzazione del Sistema Informativo Territoriale(SIT) parte nel 1997 giungendo a compimento alla fine del 2000. L’Area SIT che si occupa di tutti gli aspetti legati alla produzione, gestione e manutenzione di una base dati territoriale, nasce in ATAC nel 2000. Da allora il SIT è diventato ‘protagonista’ di attività e processi aziendali che prevedono un’interazione con il territorio. Uno degli obiettivi di ATAC, gestore del trasporto pubblico del Comune di Roma, è quello di fornire informazioni sul trasporto pubblico ad un bacino di utenza sempre più vasto. In quest’ottica, negli ultimi anni, si è cercato di migliorare sia la quantità che la qualità delle informazioni cercando di migliorare l’integrazione grafica dei servizi aumentando anche la dimensione della mappa e fornendo all’utente finale una user experience più moderna e conforme ai sistemi di web mapping disponibili su Internet. L’Area SIT raccoglie dalle varie Direzioni di ATAC, da Roma Agenzia per la Mobilità e da altri enti, informazioni riferibili al territorio e provvede a georeferenziarle e integrarle in una base dati accessibile in rete e disponibile all’utenza. Il data base del SIT comprende una grande varietà di livelli (layer), alcuni ad esclusivo uso interno, altri accessibili agli utenti mediante applicazioni web appositamente realizzate; tra questi abbiamo per esempio:
• grafo della viabilità privata ad estensione comunale e
provinciale; • rete del trasporto pubblico esercito dalle diverse aziende di esercizio (percorsi delle linee e relative fermate); • database degli orari programmati di partenza dai capolinea; • punti di interesse Nel SIT di ATAC sono presenti una molteplicità di informazioni relative alla rete del Trasporto Pubblico Locale (TPL) ed altre informazioni di pubblica utilità; il database viene continuamente aggiornato e arricchito di nuove informazioni. L’obiettivo primario è rendere disponibili le informazioni agli utenti del TPL attraverso strumenti di consultazione che siano facilmente utilizzabili. A tale scopo si sta realizzando una nuova applicazione (basata su tecnologia ESRI) per la distribuzione della informazioni del TPL all’Utenza; l’atten-
28
zione di ATAC verso questo tipo di applicazioni nasce dalla consapevolezza che l’utilizzo di tali strumenti è molto diffuso tra i frequentatori del web. Conclusioni L’informazione all’utenza rappresenta uno dei primi obiettivi dell’azienda e su cui Atac sta lavorando da anni. L’Azienda si sta muovendo per arricchire la piattaforma di comunicazione con strumenti innovativi in grado di fornire informazioni in tempo reale. Sono stati sviluppati ed implementati numerosi sistemi e servizi d’Infomobilità, le informazioni all’utenza sul trasporto, quali orari e percorsi delle linee di superficie, sulle frequenze dei passaggi delle metropolitane, sul sistema tariffario, su eventuali variazioni o interruzioni temporanee del servizio, sulla sosta su strada e la sosta di scambio e quanto correlato con la mobilità possono essere acquisite attraverso i canali informativi quali: stampa ed editoria, web, comunicazione diretta (es: sportello al pubblico) e comunicazione audio e video come ad esempio Infopoint (Calcola percorso, T, trova linea, Punti di interesse). L’esperienza maturata negli anni ha portato ad investire tempo e risorse per migliorare servizi di Infomobilità con l’intento di soddisfare le esigenze e le aspettative dell’utente con applicazioni di facile utilizzo e che siano il più possibile di ausilio per l’utente del TPL.
Parole chiave Infomobilità; webgis, trasporto pubblico;
Abstract One of the objectives of ATAC, the Transportation company of the City of Rome, is to provide information about the service public transport. In this context, it developed the project "ATAC for companies" with particular sensibility to Sustainable Mobility.
Autore Flaminia Leggeri flaminia.leggeri@atac.roma.it Patrizia Micheli patrizia.micheli@atac.roma.it Annalisa Perla
annalisa.perla@atac.roma.it
Augusto Sgura
augusto.sgura@atac.roma.it
Francesca Spagnoli francesca.spagnoli@atac.roma.it ATAC S.P.A. – VIA SONDRIO, 18 ROMA – DIREZIONE SISTEMI INFORMATIVI - AREA SIT
GEOmedia n°2-2013
REPORTS
In mare parliamo la stessa lingua.
MaRS è il marchio italiano di noleggio di strumentazione per rilievi in mare. MaRS ha gli strumenti in Italia. Ti permette di risparmiare tempo e denaro. E ti da assistenza tecnica immediata. In italiano. MaRS offre noleggi a breve e lungo termine. Anche con operatore. Consulenze, installazione ed elaborazione dati. > > > > > > > > > >
Multibeam Beamformer Reson Multibeam interferometrici SEA Posizionamento e assetto Applanix POS MV/LV Side Scan Sonar Edgetech Sub Bottom Profiler Edgetech ROV GEI Pollux III ADCP USBL GPS/GNSS RTK, OmniStar e MarineStar Strumentazione ausiliaria: SVS, SVP, Link radio UHF, GPS Compass ...
MaRS noleggi & soluzioni
Lungomare P. Toscanelli, 64 00122 Lido di Ostia RM tel. +39 333 6670058
visita il sito www.rivistageomedia.it
Via Labus, 13 - Milano tel. +39 02 4830.2175 mars@codevintec.it
29
REPORTS
Laser scanner 3D terrestri e mobile di Mario Ciamba
Recentemente si è svolto a Roma un evento dimostrativo per informare, professionisti e ricercatori del settore inerente il rilievo strumentale, sulle recenti innovazioni che riguardano i laser scanner 3d. Il mercato della strumentazione dedicata al rilevamento architettonico e dell'ambiente, offre molte possibilità di scelta. Oggi i principali marchi producono strumenti sempre più efficienti ed ideati per ambiti di applicazione specifici, permettendo ai professionisti, la giusta scelta in termini di prestazioni ed economia.
G
li strumenti utilizzati per la dimostrazione sono stati due: il RIEGL VMX 450, per la presa mobile (fig. 1) e, il RIEGEL VZ 400, per la presa terrestre (fig. 2). Nella prima parte della giornata si sono effettuate le prese con i due strumenti, mentre nelle restanti ore si è illustrato l’esito del lavoro svolto e delle possibilità offerte dai software specifici nel trattamento del dato.
Fig. 1 - RIEGL VMX 450
Il sistema di scansione mobile Il sistema di scansione mobile, come il termine sta ad indicare, si riferisce a quelle circostanze in cui la strumentazione utilizzata opera in movimento. Esso si compone di più parti che interagiscono tra di loro e sono: una soluzione integrata GPS/INS per l’orientamento, uno o più sensori scanner laser rotativi per l’acquisizione dei dati, un sistema di acquisizione immagini digitali o video, un sistema di registrazione dati grazie al computer di bordo. Le apparecchiature descritte sopra vengono alloggiate su un mezzo di trasporto es. autovettura, come nel nostro caso, una imbarcazione, un mezzo su rotaia o veivolo. Gli elementi dedicati all’acquisizione (sensori, fotocamere, antenna G.P.S.) sono inserite nel gruppo che viene posizionato sulla tettoia della vettura; il computer con i dischi per il salvataggio dei dati e l’alimentazione sono assemblati nel gruppo alloggiato nel bagagliaio (fig. 3), il monitor per il controllo dell’operatore all’interno dell’abitacolo (fig. 4). Prima di avviare la presa del soggetto è necessario, per alcuni minuti, compiere alcuni giri di prova con il veicolo affinché la piattaforma inerziale si attivi e permetta una corretta
30
acquisizione dei dati. Una volta conclusa questa operazione preliminare l’operatore al fianco del conducente, attraverso il monitor di bordo, può avviare la scansione che interesserà tutto ciò che incontra nel raggio di Quattrocento metri. Durante la presa il veicolo è costantemente collegato, grazie ad una antenna rover (fig. 5) alla base del sistema G.P.S.. La presenza di tale dispositivo sullo strumento consente l’orientamento della piattaforma mobile all’interno del sistema mondiale WGS84. Il rilievo in movimento, oltre ad essere innovativo, si presta in particolare ai seguenti campi di applicazione: al monitoraggio di strade, coste (pensiamo anche alle tragiche vicende della Concordia) ed in generale permette di analizzare grandi estensioni territoriali. Le informazioni ottenute grazie ai dati acquisiti, sotto forma Fig. 2 - RIEGEL VZ 400 di nuvole di punti, permettono di ricavare sezioni stradali, disegnare percorsi, reti ferroviarie, infrastrutture e di essere inserite eventualmente in database geografici per sistemi GIS.
Fig. 3 - Computer con i dischi per il salvataggio dei dati e l’alimentazione alloggiato nel bagagliaio
GEOmedia n°2-2013
REPORTS
Fig. 4 - Monitor per il controllo dell’operatore all’interno dell’abitacolo
Il sistema di scansione terrestre Per sistema di scansione terrestre ci si riferisce alle situazioni in cui i laser scanner devono essere stazionati su di un treppiede. Pertanto in una campagna di rilievo sarà necessario effettuare più prese, da punti diversi, per ottenere una nuvola di punti sufficientemente ricca di informazioni. Lo strumento messo a disposizione è stato il RIEGL VZ 400 (fig. 2), che ora descriveremo per le sue particolarità. Si presenta come un elemento dalle dimensioni e pesi contenuti (10 kg), di forma cilindrica e progettato per essere costituito da più elementi, separabili, che collegati tra loro si formano come un unico blocco. Le parti essenziali che compongono lo scanner laser sono tre: una basamento dedicato all’alimentazione, un elemento rotante che contiene gli specchi per l’invio dei laser, ed una fotocamere reflex digitale ad alta risoluzione esterna. Il sistema di alimentazione dei RIEGL consente di prelevare energia sia da generatori di corrente che dalle comuni batterie per auto, esso funziona con una tensione di alimentazione che può variare dai 12v ai 32v. Il corpo intermedio, che ruota su se stesso a 360°, integra lo specchio ruotante, il display per il controllo della scansione, l’antenna Wlan e del G.P.S.. Il sistema di scansione del VZ 400 è a tempo di volo, in classe 1 e in completa forma d’onda. Vale a dire che tutti i singoli impulsi, in entrata, vengono discriminati e memorizzati secondo una precisa direzione, a beneficio del dato acquisito. Nel settore del rilievo architettonico significa ottenere maggiore dettaglio e riduzione delle zone d’ombra. Può misurare fino a 125.000 pti/sec, se viene impostato in modalità alta velocità, con una portata di 350m. In modalità lunga portata raggiunge i 600m, ma con una riduzione dei punti pari a 42.000 pti/sec. I livelli di accuratezza variano tra i 3 e 5 mm per distanze che si aggirano su i 100m. All’estremità dello strumento è possibile collegare una qualsiasi fotocamera reflex digitale ad alta risoluzione (fig. 6), opportunamente calibrata, grazie alla quale si possono ottenere immagini di alta qualità e orto foto con l’elaborazione nel software apposito. È possibile dotare lo strumento di una antenna per G.P.S., ottenendo un rilievo orientato secondo il sistema WGS84. L’angolo di scansione è di 100° in verticale e 360° in orizzontale; con una apposita slitta aggiuntiva l’angolo verticale può essere incrementato, ed avere così un campo visivo quasi totale, ad eccezione dell’area occupata dal cavalletto. Conclusioni Il rilevamento strumentale effettuato con la tecnologia laser scanner 3d si è sempre più affermato negli ultimo anni, date le possibilità che questa tecnica offre. Il dato che si ottiene è una nuvola di punti e può essere lavorata per diverse finalità. Il dato grezzo così ottenuto è già un modello digi-
visita il sito www.rivistageomedia.it
Fig. 5 - Antenna rover
tale, se pur discreto. Ad esempio possiamo elaborarlo in una superficie numerica o mesh; può essere inserito come dato in una banca dati, aggiornabile, per avere informazioni sulle trasformazioni di un dato territorio o centro urbano; nel campo del rilievo dell’architettura, con appositi plug in, possiamo ricavare sezioni per osservare, tra le tante cose, cedimenti strutturali; possiamo ancora navigare virtualmente nel modello e vedere, grazie alla mappatura delle immagini, ogni particolare da tutti i punti di vista. Ringraziamenti Si ringrazia la MicroGeo s.r.l., in particolare A. Radino E. Cabrucci, tutti i tecnici della RIEGL che hanno messo a disposizione le strumentazioni per questo evento tenutosi nella giornata del 17 maggio 2012.
Fig. 6 - RIEGL VZ 400
Abstract A demonstration event was recently held in Rome with the aim to inform professionals and researchers on recent innovations on instrumental survey related to the 3d laser scanner. The market of instrumentation for architectural survey offers many possibilities of choice. Today the major brands produce instruments that are more efficient and designed for specific areas of application, allowing the right choice in terms of performance and economy.
Parole chiave rilievo; architettura; strumenti; topografia; laser scanner
3d
Autore Mario Ciamba velio@davide.it arch. Ph.D. In Scienze della Rappresentazione e del Rilievo
31
REPORTS
Analisi dello stato dell'arte delle fonti informative di uso e copertura del suolo prodotte in Italia di Giuseppe Pulighe, Flavio Lupia, Silvia Vanino, Filiberto Altobelli, Michele Munafò, Sandro Cruciani
Il progetto ITALI (Integration of Territorial And Land Information) nasce per rispondere alle esigenze dell'Ufficio
Statistico dell'Unione Europea (Eurostat), con lo scopo di supportare, integrare e migliorare l’informazione statistica sulla copertura del suolo a livello nazionale correntemente prodotta dall’indagine europea LUCAS (Land Use/Cover Area frame Statistical survey).
I
l progetto è stato avviato nel 2013, avrà una durata complessiva di 18 mesi, ed è coordinato dall’Istituto Nazionale di Statistica (ISTAT), con la collaborazione dell’Istituto Nazionale di Economia Agraria (INEA), dell’Istituto Superiore per la Protezione e la Ricerca Ambientale (ISPRA), del Sistema Informativo Nazionale per lo sviluppo dell’agricoltura (SIN S.p.A.) e del Ministero delle politiche agricole, alimentari e forestali (Mipaaf). L’obiettivo principale del progetto ITALI consiste nella comparazione e integrazione del patrimonio informativo sulla copertura/uso del suolo presente in Italia a livello nazionale, al fine di produrre statistiche ufficiali, omogenee e periodicamente aggiornate sull’utilizzo del territorio e con dettaglio territoriale almeno regionale. La produzione di informazioni sulla copertura/uso del suolo aggiornate e di buona qualità è fondamentale per lo sviluppo di analisi di varia natura a livello territoriale. La possibilità di integrazione di banche dati differenti e la loro omogeneizzazione basata su una nomenclatura comune risponde poi alle esigenze di ricerca scientifica dei partner coinvolti che sono interessati all’utilizzo delle informazioni sulla copertura/ uso del suolo per finalità di analisi statistica. Gli obiettivi specifici del progetto sono:
• Analizzare e descrivere le fonti di dati a copertura nazionale su copertura/uso del suolo;
• Integrare le fonti di dati per produrre stime sulle superfici coerenti con la classificazione Eurostat;
• Condurre uno studio pilota per verificare e validare le stime sulle superfici;
• Proporre una metodologia per integrare le fonti di
dati con l’indagine LUCAS e valutare i costi di sostenibilità di una integrazione futura.
Il presente contributo riporta una disamina dettagliata delle principali caratteristiche delle banche dati di copertura e uso del suolo attualmente disponibili a livello italiano. Analisi e confronto tra le banche dati di copertura/ uso del suolo La ricognizione delle informazioni a livello nazionale sulle banche dati di copertura/uso del suolo disponibili è stata avviata nell’ambito del primo task di progetto ed ha consentito di individuare nove strati informativi (Tab. 1). Per cia-
32
scuna fonte di dati è stata compilata una scheda standard di rilevazione, in accordo con la Direttiva INSPIRE, contenente i principali metadati quali: sistema di classificazione, modalità di realizzazione, scala, accuratezza, copertura temporale, formato dei dati. L’analisi ha evidenziato che questi strati informativi hanno caratteristiche e finalità completamente differenti. Le varie tipologie di dati possono essere raggruppate in due grandi categorie:
• banche dati prodotte mediante campionamento di punti o aree;
• banche dati prodotte dall’analisi di immagini telerilevate.
Banca dati AGRIT La rilevazione AGRIT appartiene alla prima tipologia di dati ed è prodotta dalla società SIN S.p.A. su commissione del Ministero delle politiche agricole, alimentari e forestali (Mipaaf). Il campionamento delle informazioni avviene su una griglia regolare di punti, mentre la legenda ha una struttura gerarchica su due livelli per un totale di 86 classi, di cui 59 particolarmente dettagliate per le superfici agricole. Banca dati POPOLUS La rilevazione POPOLUS (Permanent Observerd POints for Land Use Statistics) è la base di campionamento del frame di rilevazione AGRIT e dispone di 22 classi. La superficie agricola comprende la superficie coltivata (seminativi e colture permanenti) e foraggere permanenti (prati permanenti, pascoli). Banca dati IUTI La rilevazione IUTI (Inventario dell’Uso delle Terre d’Italia), realizzata dal Ministero dell’ambiente e della tutela del territorio e del mare (MATTM) nell’ambito del registro nazionale dei serbatoi di carbonio, è un sistema di classificazione dell’uso del suolo di tipo campionario su griglia regolare di punti, uniformemente distribuiti su tutto il territorio nazionale secondo uno schema statistico sistematico non allineato. I punti vengono classificati a video mediante fotointerpretazione diacronica di ortofoto in bianco e nero ed a colori. Dispone di un sistema gerarchico a tre livelli per un totale di dieci classi.
GEOmedia n°2-2013
REPORTS Banca dati INFC La rilevazione INFC (Inventario Nazionale delle Foreste e dei Serbatoi di Carbonio) è coordinata e realizzata dal Corpo Forestale dello Stato con il sostegno scientifico e tecnico del CRA-MPF (Consiglio per la Ricerca e la Sperimentazione in Agricoltura - Unità di Ricerca per il Monitoraggio e la Pianificazione Forestale). È basata su un campionamento su griglia regolare di punti, con un sistema di classificazione campionario gerarchico a quattro livelli, e comprende due macrocategorie inventariali, otto categorie inventariali, 23 categorie forestali e 91 sottocategorie forestali. La classificazione in macrocategorie e categorie inventariali è il risultato di una prima fotointerpretazione a video e successiva verifica in campo. Al primo livello segue il sistema di nomenclatura Corine Land Cover. Banca dati Corine Land Cover Lo strato informativo Corine Land Cover (COoRdination of INformation on the Environment) è nato a livello europeo per il rilevamento e il monitoraggio delle caratteristiche di copertura e uso del territorio, con particolare attenzione alle esigenze di tutela ambientale. Il sistema di classificazione è di tipo misto di copertura e uso del suolo. La legenda ha una struttura gerarchica con cinque classi al primo livello, quindici classi al secondo livello e 44 classi al terzo livello. Per la realizzazione del progetto sono state utilizzate e classificate immagini satellitari (SPOT-4, SPOT-5, IRS) con l’ausilio di dati ancillari quali ortofoto, mappe topografiche e modelli digitali del terreno. Banca dati GMES – Copernicus Urban Atlas Lo strato informativo GMES (Global Monitoring for Environment and Security) Urban Atlas, realizzato nell’ambito del programma europeo GMES - Copernicus e coordinato dall’Agenzia Europea per l’Ambiente, fornisce una visione paneuropea sulla copertura e uso del suolo per le grandi aree urbane con più di 100.000 abitanti. È basato su un sistema gerarchico di classificazione a quattro livelli creato mediante classificazione di immagini satellitari ad altissima risoluzione. Distingue diciassette classi di copertura e uso del suolo, particolarmente dettagliate per le superfici artificiali, e tre classi per le aree naturali e semi-naturali. Banca dati GMES – Copernicus High Resolution Layer Lo strato informativo HRL (High resolution layer) fa parte del programma europeo GMES - Copernicus e fornisce specifiche informazioni sulla copertura del suolo di tipo complementare a quelle fornite dal progetto CORINE. È uno strato di tipo raster, è basato sulla classificazione di immagini satellitari e presenta cinque classi di copertura del suolo per i seguenti strati: grado di impermeabilità (impermeabilizzazione del suolo quali edifici, strade ecc.); aree forestali; prati; zone umide; corpi idrici. Banca dati Rete nazionale di monitoraggio dell’impermeabilizzazione e del consumo di suolo La rete nazionale di monitoraggio dell’impermeabilizzazione e del consumo di suolo e gestita dall’ISPRA, in collaborazione con il Sistema nazionale per la protezione dell’ambiente (ARPA/APPA) e ricostruisce l’andamento del consumo di suolo in Italia dal secondo dopoguerra ad oggi. È di tipo puntuale ed è basata su un sistema di classificazione a due livelli per un totale di 27 classi di copertura del suolo. Lo scopo principale di questi dati è quello di valutare nel tempo il consumo di suolo, mediante una metodologia di campionamento stratificato, che unisce la fotointerpretazione di ortofoto e carte topografiche storiche con dati telerilevati ad alta risoluzione.
visita il sito www.rivistageomedia.it
L’indagine LUCAS La rilevazione LUCAS - Land Use and Cover Area frame Survey (Decisione n. 1445/2000/EC del Parlamento Europeo del 22/05/2000) è un progetto paneuropeo condotto da Eurostat che consiste in una indagine statistica campionaria con il fine di raccogliere dati da utilizzare per produrre statistiche su scala europea sulla copertura e uso del suolo, nonché informazioni riguardo il paesaggio e la biodiversità. Questa esigenza di rilevazione nasce dalla necessità di analizzare le interazioni tra agricoltura, ambiente e paesaggio rurale, al fine di supportare la formulazione di politiche di gestione nel più ampio quadro delle politiche agricole e ambientali promosse dall’Unione Europea. Sulla base dell'esperienza acquisita durante la fase pilota (dal 2000 al 2007), che coinvolse inizialmente 15 Stati membri dell'Unione europea (la prima indagine si è svolta nel 2001), la nuova rilevazione LUCAS per il 2012 ha coinvolto tutti i 27 Stati Membri, per un numero totale di punti campione pari a 270.389, mentre per l’Italia sono stati campionati 20.013 punti. I punti oggetto di indagine, individuati con una precisa metodologia statistica, ricadono su tutte le tipologie di copertura del suolo quali seminativi, prati, aree boscate, aree edificate, infrastrutture di trasporto (Fig. 2). Il rilevatore si reca sui punti selezionati, li fotografa e identifica il tipo di copertura/uso del suolo, il tipo di irrigazione utilizzata ed alcuni elementi del paesaggio. I dati di copertura del suolo vengono quindi classificati secondo una nomenclatura armonizzata che prevede 95 classi fino al terzo livello gerarchico per i dati di copertura, e 49 classi fino al secondo livello gerarchico per i dati di uso del suolo. I dati campionari per i singoli paesi sono disponibili per il download al sito: http://epp.eurostat.ec.europa.eu/portal/page/portal/lucas/
Visualizzazione dell’uso del suolo in corrispondenza dei punti di rilevazione AGRIT e LUCAS (Fonte immagini Google Maps Street View)
Banca dati ISTAT Enumeration areas Lo strato informativo Enumeration areas, realizzato da ISTAT, è organizzato secondo un sistema gerarchico a 21 classi. I dati sono di tipo vettoriale poligonale e si basano sulla delimitazione di aree mediante fotointerpretazione di foto aeree. Il confronto tra le principali caratteristiche delle fonti di dati è stato realizzato analizzando le schede dei metadati mediante la compilazione di una tabella inventario (Tab. 1), che inquadra le principali caratteristiche di ciascuno strato informativo quali: sistema di classificazione, risoluzione e unità minima cartografabile, formato dei dati, copertura spaziale e temporale, sistema di coordinate. Dalla tabella si può notare che le fonti di dati raccolti differiscono notevolmente nelle loro caratteristiche principali. Infatti ognuno di questi è stato creato per diversi obiettivi e finalità, utilizzando differenti metodologie e dati di base. Ne risulta pertanto una disuniformità tra gli strati informativi relativamente ai sistemi di classificazione, nomenclature, risoluzione spaziale e temporali, qualità, accuratezza e sistemi di riferimento di coordinate. Tale situazione è determinata principalmente per l'assenza di una chiara distinzione tra uso e copertura del suolo, concetti che risultano, all’atto pratico, fortemente interconnessi.
33
REPORTS Strato informativo (gestore dei dati) AGRIT
Sistema di classificazione
Unità minima cartografabile
Scala/ risoluzione
2° livello
1 punto
55.000
Copertura temporale
Formato geometrico
Sistema di coordinate
punto
EPSG 3003,
vector punto
EPSG 3004 EPSG 3003,
vector punto
EPSG 3004
2012 (Mipaaf) POPULUS
86 classi 2° livello
3 m radius 1 punto
(Mipaaf) IUTI
22 classi 3° livello
3 m radius
(ISPRA) INFC
10 classi
punti 1.206.536 punti
0.5 ha
(CFS) Corine Land Cover (ISPRA) GMES – Copernicus Urban Atlas (ISPRA) GMES – Copernicus High Resolution Layer (ISPRA) Rete nazionale monitoraggio impermeabilizzazione e consumo di suolo (ISPRA) ISTAT Enumeration areas (ISTAT)
1.206.000 punti
4° livello 90 sottotipi forestali
1 punto
301.306
1 km grid
punti
3° livello
25 ha (cover)
2008
EPSG 4326 vector punto
2005
44 classi
EPSG 4326 vector poligono
1:100.000 4° livello per urbanizzato
2009
2006
EPSG 4326
5 ha (changes)
vector poligono
da 0.25 ha a 1 ha
1:10.000
2006
EPSG 3035 vector
17 classi 1° livello
2009 400 m2
20x20 m
raster
EPSG 4326
5 classi 2° livello
1:2.000; 1 m2
27 classi 21 classi (anno 2011)
120.000 punti 0.5 ha in aree urbane 1 ha - 25 ha in aree rurali
da 1:5.000 a 1:25.000
punto
dal 1954 al 2010
EPSG 4326 vector poligono
2011 (20052010 ortofoto AGEA)
EPSG 23032 vector
Tab. 1 – Caratteristiche principali delle fonti di dati
La copertura del suolo può essere definita come un’astrazione della copertura fisica e biofisica della superficie terrestre che comprende varie combinazioni e tipi di vegetazione naturale, suoli, rocce e corpi idrici nonché elementi di origine antropica come l’agricoltura e le aree edificate. L’uso del suolo invece si riferisce alla descrizione delle stesse aree in termini di funzione socio-economica, con collegamenti tra la copertura del suolo e le azioni/usideterminati dall'attività antropica. Quindi ogni sistema di classificazione sottolinea ed enfatizza diversi aspetti di copertura e uso del suolo, e fornisce informazioni fortemente legate alle esigenze e aspettative dei produttori e degli utilizzatori finali. La comparazione delle legende e dei sistemi di classificazione delle fonti di dati raccolte ha portato alla realizzazione di una matrice di contingenza, che descrive ed evidenzia come le fonti di dati raccolte si relazionano alla legenda LUCAS in termini di corrispondenze di classi di copertura e uso del suolo. Tale matrice verrà utilizzata nel prosieguo del progetto al fine di standardizzare e omogeneizzare le classi stesse, agevolando la trasformazione semantica e l’integrazione tra i diversi sistemi di classificazione. La matrice di contingenza è strutturata come una tabella dove le linee rappresentano le classi di copertura del suolo LUCAS e le colonne sono le classi dalle fonti di dati. Date k fonti di dati, x, y e z indicano le categorie di classe di copertura del suolo LUCAS mentre n indica il numero di classi in ogni classificazione.
34
Dati copertura del suolo x y … z
1 n1x n1y … n1z
2 n2x n2y … n2z
… … … … …
k nkx nky … nkz
LUCAS n= numero totale delle classi Le classi di copertura del suolo delle fonti dati vengono inserite nella cella della matrice quando c’è una corrispondenza con la corrispondente classe LUCAS. La procedura seguita per trovare questa corrispondenza consiste in una scomposizione analitica delle definizioni di classe ed un confronto semantico e di traduzione tra i diversi sistemi di classificazione/ nomenclature, che evidenzia la copertura e la conformità con la classificazione proposta da LUCAS. La relazione tra classi e nomenclatura LUCAS è stata fatta al più alto livello di dettaglio disponibile per ogni strato informativo. Una prima analisi dei sistemi di classificazione delle fonti di dati utilizzate mostra una non completa corrispondenza semantica di diverse classi di copertura del suolo con il sistema di classificazione LUCAS. Questo dipende dal fatto che, come evidenziato in precedenza, non esiste una chiara distinzione tra la copertura e uso del suolo, anche a causa delle diverse nomenclature e dei livelli di scala, il che porta necessariamente ad unire più classi e come conseguenza ad un certo grado di disformità e disallineamento tra le classi.
GEOmedia n°2-2013
REPORTS
Conclusioni e sviluppi futuri Le analisi effettuate, e in particolar modo il confronto semantico delle nomenclature, hanno evidenziato la possibilità di integrazione delle diverse fonti per la produzione di informazioni secondo la nomenclatura della rilevazione Eurostat LUCAS. Permangono tuttavia una serie di criticità legate alla diversa natura delle informazioni da integrare quali risoluzione spaziale e temporale, tipologia di rilevazione, corrispondenza non perfetta tra le voci delle legende. Nel prosieguo del progetto verranno pertanto studiate delle metodologie e delle procedure di integrazione tra le varie fonti di dati, per produrre delle stime precise ed accurate di copertura del suolo a livello nazionale, coerenti con la classificazione LUCAS.
Fig. 1 – Esempio di sovrapposizione di alcuni strati informativi (Fonte ortofoto WMS Regione Puglia: http:/ iws.sit.puglia.it/ecwp/ecw_wms.dll?)
Bibliografia • E C, (2011) - Mapping Guide for a European Urban Atlas. European Commission, European Union. http://www.eea.europa.eu/data-and-maps/ data/urban-atlas/mapping-guide/urban_atlas_2006_mapping_guide_ v2_final.pdf • EEA, (2011) - Guidelines For Verification Of High-Resolution Layers Produced Under Gmes/Copernicus Initial Operations (GIO) Land Monitoring 2011–2013. EEA, Copenhagen. • Gallego J., Bamps C., (2008) - Using CORINE land cover and the point survey LUCAS for area estimation. International Journal of Applied Earth Observations and Geoinformation, Volume 10, issue 4 (December, 2008), p. 467-475. ISSN: 0303-2434. • ISPRA, (2012a) - Annuario dei dati ambientali. ISPRA, Roma. • ISPRA, (2012b) - Qualità dell’ambiente urbano – VIII Rapporto. ISPRA, Roma. • Jaap Slootweg, Jean-Paul Hettelingh, Wil Tamis, Maarten van ’t Zelfde, (2005) - Harmonizing European land cover maps. In: European Critical Loads and Dynamic Modelling, CCE Status Report 2005. Editors: M. Posch, J. Slootweg and J.-P. Hettelingh. Netherlands Environmental Assessment Agency (MNP), Bilthoven 2005. • Marchetti M., Bertani R., Corona P., Valentini R., (2012). Cambiamenti di copertura forestale e dell’uso del suolo nell’inventario dell’uso delle terre in Italia. Forest@ 9: 170-184 http://www.sisef.it/forest@/ contents/?id=efor0696-009. • Munafò M., (2013) - Il monitoraggio del consumo di suolo in Italia. Ideambiente 62: 20-31, http://www.isprambiente.gov.it/files/ideambiente/ ideambiente_62.pdf.
Parole chiave copertura/uso del suolo, LUCAS, informazione statistica, banche dati
Autori Giuseppe Pulighe
pulighe@inea.it
Flavio Lupia
lupia@inea.it
Silvia Vanino vanino@inea.it Filiberto Altobelli altobelli@inea.it INEA - Istituto Nazionale di Economia Agraria, via Nomentana 41, 00161 Roma
Abstract Michele Munafò
The aim of ITALI (Integration of Territorial And Land Information) project is the support, integration and improvement of information about land cover data currently produced by LUCAS survey, in order to produce official statistics consistent and regularly updated. The contribution reports the results of the first phase focussed on collection of all the available land use/cover datasets for Italy. After collection the datasets were compared by compiling a summary form, in accordance to the INSPIRE Directive, in order to highlight the specific features of each layer. Finally, an analysis of the classification systems was performed.
visita il sito www.rivistageomedia.it
michele.munafo@isprambiente.it
ISPRA - Istituto Superiore per la Protezione e la Ricerca Ambientale, via V.Brancati 48, 00144 Roma Sandro Cruciani
sacrucia@istat.it
ISTAT - Istituto Nazionale di Statistica, Viale Oceano Pacifico 171, 00141 Roma SIN S.p.A. - Sistema Informativo Nazionale per lo sviluppo dell’agricoltura, via A.Salandra 13, 00187 Roma
35
REPORTS
Un tool Open Source per la ricerca dispersi in ambiente montano di Tiziano Cosso, Roberto Marzocchi e Danilo Repetto
G4MoRe, Gter-for Mountain Rescue, è un tool interamente sviluppato con prodotti Open Source e pensato come supporto alle attività di ricerca dispersi in ambiente montano, prodotto e supportato da Gter srl.
L’
utilizzo delle tecniche di gestione della cartografia digitale sta avendo larga diffusione negli ultimi anni anche in ragione della sempre più massiccia crescita delle fonti di dati digitali che ha reso indispensabile avere a disposizione software e applicativi che consentissero di gestire, elaborare ed archiviare tali dati sfruttandone appieno le potenzialità. Contestualmente, ed in particolare modo negli ultimi anni, proprio nell’ambito dei Geographic Information System (GIS) sono cresciuti in maniera vistosa strumenti Open Source, anche a seguito di direttive ministeriali e di spinte più o meno dirette affinché tali prodotti venissero presi in considerazione, specialmente da soggetti pubblici. In tale contesto si colloca lo sviluppo di questo tool che si pone l’obiettivo di portare le potenzialità degli strumenti GIS, la ricchezza degli Open data e la versatilità dei prodotti Open Source a servizio della cosiddetta mobilità lenta e soprattutto delle operazioni di ricerca dispersi in ambiente impervio. La storia Già nel 2006 in ambito universitario, come gruppo di ricerca del Laboratorio di Geodesia, Geomatica e GIS, interno alla facoltà di Ingegneria di Genova, facente capo al Prof. Domenico Sguerso, ci si era interessati all’argomento della mobilità lenta. In particolare era stato sviluppato un tool in ambiente Open Source mediante il software GIS-GRASS (Grass Development Team 2012), per la modellazione degli spostamenti delle persone in ambiente montano. Il lavoro, oggetto di una tesi di laurea dell’Ing. Andrea Cervetto, è stato poi ripreso nel 2008 per ulteriori messe a punto ed ottimizzazioni, ed è stato lo spunto per interessarsi ed approfondire le tematiche specificatamente inerenti le fasi di intervento della ricerca dispersi. Intorno alla fine del 2010 con la nascita di Gter srl (http:// www.gter.it), Spin-off del sopracitato laboratorio, si è deciso di affrontare una fase di sviluppo sperimentale che ha portato ad un primo prodotto messo a punto tra il 2010 e il 2011 nell’ambito della mobilità outdoor denominato G-PASTRO (Gter - Path Accessibility System Track Outliner). Partendo dai moduli GRASS sviluppati in ambito universitario facenti parte di un pacchetto denominato appunto P.A.S.T.R.O., sono stati rivisti i codici nell’ottica della correzione di bug,
36
ottimizzazione di calcolo, creazione di un’interfaccia grafica. Inoltre sono stati sviluppati specifici geoservizi secondo lo standard WPS (Web Processing Service) per l’utilizzo via web dei moduli stessi allo scopo di permetterne l’integrazione all’interno di webGIS per la gestione e valorizzazione delle reti sentieristiche. Il risultato è stato la predisposizione di una serie di funzionalità disponibili anche via web che, servendosi di algoritmi per la valutazione del cammino outdoor in base a disponibilità di sentieri, pendenze ed eventuali ostacoli sul terreno valutino l’accessibilità di sentieri e ripari in montagna, calcolino il migliore tragitto da un qualsiasi punto al sentiero, o tra due generici punti e infine valutino un’area potenzialmente raggiunta da una persona in un determinato periodo di tempo. Proprio a partire da quest’ultima funzionalità è stato infine avviato il progetto di ricerca applicata per sviluppare una soluzione che rappresentasse un supporto completo per le concitate operazioni di ricerca dispersi in ambiente montano, che ha portato allo sviluppo dell’applicativo denominato G4MoRe. Il living-lab Per l’implementazione di G4MoRe si è sin da subito cercato di creare un forte legame tra gli esponenti dell’offerta tecnologica e i cosiddetti end-user, reali utilizzatori del prodotto, in modo che fin dalla progettazione si potessero mettere a sistema le potenzialità degli strumenti tecnici e le specifiche esigenze dell’utilizzatore. Questa metodologia di sviluppo, definita Living Lab, richiede evidentemente maggiori sforzi da entrambe le parti rispetto ad un approccio tradizionale dove esponenti dell’offerta sviluppano un prodotto che, una volta ultimato, viene valutato ed eventualmente utilizzato in funzione delle reali esigenze. Tuttavia una soluzione di questo tipo, ancorché più complessa nella fase di sviluppo, consente di sfruttare al meglio le potenzialità dell’Open Source ed in particolare la versatilità degli strumenti a codice aperto. Da fine 2011 il Living Lab è stato concretizzato attraverso una serie di incontri e test effettuati con tecnici volontari esperti nel soccorso e nella ricerca di persone disperse. Quest’innovativo approccio di ricerca ha portato allo sviluppo di un prodotto completo, customizzato e modulare a supporto delle attività di ricerca dispersi.
GEOmedia n°2-2013
REPORTS Uno scenario di questo tipo consente all’utilizzatore di Completo, customizzato e modulare Completo perché G4MoRe racchiude all’interno di un uni- G4MoRe di poter usufruire di tutta la cartografia “ufficiaco prodotto tutte le funzionalità di base necessarie a gesti- le” che ritiene utile, ma dà anche la possibilità di integrare, re un intervento, che solitamente si trovano scompattate in qualora se ne ravvisi la necessità, con fonti di dati differenti diversi software ad-hoc. Infatti da un’unica interfaccia user- come appunto OSM. friendly si ha accesso alle funzionalità di gestione della cartografia, download e upload di dati GPS, gestionale delle La struttura informazioni logistiche, composizione e modifica squadre, G4MoRe è stato sin da subito pensato come un servizio analisi GIS, fornendo il valore aggiunto dato dal mettere web disponibile sui più comuni browser, affinché fosse uno a sistema tutte le funzioni utili durante le operazioni di ri- strumento facilmente utilizzabile da chiunque senza richiecerca. dere specifiche competenze in ambiente GIS. TecnicamenCustomizzato perché il progetto, da quando è iniziata la fase te il tool è pensato, progettato e sviluppato come un server di sviluppo sperimentale, è stato portato avanti ascoltando virtuale (Fig. 1), pronto per essere installato su singoli nole esigenze ed i pareri dei volontari che operativamente ef- tebook o reti di pc locali per quegli enti che gestiscono le fettuano le azioni di ricerca. Usufruire dei feedback di chi ha operazioni con campi base mobili, o in alternativa su veri e maturato anni di esperienza in questo settore ha permesso propri server fisici per quegli enti che gestiscono le operadi accoppiare le nostre zioni da sedi operative competenze tecnolocentralizzate e opporgiche e cartografiche, tunamente attrezzate. con le specifiche esiDella complessa strutgenze degli utenti, intura del software che si nescando sin da subito appoggia a un Databaun virtuoso processo di se Management System autotuning, garanzia di (DBMS) open source una customizzazione quale PostgreSQL con efficace. relativa estensione spaModulare perché la ziale PostGIS, traspare struttura del prodotto ben poco all’utilizzatore è progettata affinché finale che invece, in masingole funzionalità di niera molto essenziale, gestione del dato geoha accesso a due schegrafico possano essere de del browser con cui integrate o meno tra gestire rispettivamente loro a seconda delle gli aspetti cartografici e Fig. 1 – Schema di funzionamento di G4MoRe esigenze del singolo gli aspetti logistici e del utilizzatore. personale. Open data: una necessita’ ed una grande opportunita’ Il passaggio dalla cartografia tradizionale alla cartografia digitale, nelle attività di gestione degli interventi di ricerca dispersi in ambiente montano, pone fin da subito la questione delle basi di dati. Se è vero infatti che negli ultimi anni vi è stata una grande e rapida diffusione di dati digitali è altrettanto vero che tale sviluppo è avvenuto principalmente in ambito urbano. Ancora pochi, non particolarmente strutturati e capillarmente diffusi sono i dati digitali relativi alle reti sentieristiche e alle infrastrutture in ambiente montano. Le istituzioni, in particolar modo le Regioni, si stanno ponendo il problema con molteplici ed eterogenee iniziative. Tuttavia la scarsità di risorse rende questo processo piuttosto lento e ancora molte sono le lacune nella creazione di dataset completi e aggiornati. In quest’ambito abbiamo guardato con grande attenzione ad OpenStreetMap (OSM). Questa ottima sorgente di dati open, oltre a fornire una base sufficientemente completa, può consentire una gestione customizzata non solo del software, ma anche del dato, permettendo a chi fruirà del servizio di partecipare in prima persona alla creazione, controllo e, nel caso, modifica del dato stesso. Consapevoli dell’importanza dell’affidabilità, per quanto riguarda uno strumento che supporta fasi molto delicate della ricerca dispersi, G4MoRe è comunque del tutto aperto all’inserimento di dati cartografici di proprietà degli enti territoriali che a diverso titolo si occupano di cartografia e di ricerca dispersi, supportando tutti i tipi di formati raster e vettoriali gestiti dalle librerie GDAL e OGR, e quindi garantendo appieno l’interoperabilità.
visita il sito www.rivistageomedia.it
Funzionalità base Le funzionalità di G4MoRe rispondono innanzitutto alle 3 principali esigenze degli operatori di ricerca dispersi: • gestione agevole della cartografia digitale e di tutte le informazioni spaziali correlate all’intervento (luoghi di interesse, aree di ricerca, posizionamento squadre, etc.) • interazione con i devices mobili per il posizionamento (GPS portatili, smartphone, radio, etc.) • gestione ottimale delle squadre di ricerca, di tutte le informazioni relative al personale, ai mezzi, alla strumentazione, alle informazioni che progressivamente si aggiungono durante l’intervento. Si possono quindi visualizzare diversi strati cartografici combinandoli fra loro, sovrapponendoli, interrogandoli e modificando la scala di visualizzazione (Fig. 2). E’ possibile disegnare sulla cartografia le aree in cui mandare le squadre, esportarle e caricarle sui devices mobili così come è possibile caricare e scaricare le tracce GPS delle squadre per verificare l’area effettivamente coperta nel corso delle operazioni di ricerca; si possono localizzare in tempo quasi reale le squadre sul terreno note le loro coordinate. Non da ultimo si possono registrare informazioni anagrafiche dei dispersi e dei volontari impiegati durante le operazioni, gestire lo storico registrando la posizione e assegnazione delle squadre e le molteplici comunicazioni che giungono da enti, volontari e altri soggetti. La stretta correlazione fra informazioni anagrafiche e cartografiche è garantita dall’utilizzo di un database relazionale con estensione spaziale, capace di gestire al meglio una molteplicità di eterogenee informazioni caratterizzate da elementi sia alfanumerici che geografici.
37
REPORTS
Fig. 2 – Graphic User Interface
Funzionalità avanzate Oltre a quanto descritto nel paragrafo precedente, il fatto di disporre di un prodotto che sia costruito non solo come semplice visualizzatore, ma abbia alla base un motore GIS (GRASS 6.4.2), consente di effettuare analisi spaziali su dati raster e vettoriali; questa potenzialità costituisce un ulteriore valore aggiunto e apre le porte a numerose possibilità di customizzazione. In particolare la prima delle funzioni implementate attraverso un’analisi GIS si basa proprio sul tool descritto nel secondo paragrafo per la modellazione della mobilità del disperso. La funzione implementata consente, una volta individuato il punto e l’ora di ultimo avvistamento del disperso, di creare una mappa di curve isocrone che identificano l’area a più alta probabilità di ritrovamento del disperso (Fig. 3), valutate servendosi della regola di Naismith con le correzioni di Aitken (Aitken 1977) e Langmuir (Langmuir 1984) per la modellazione del cammino in aree impervie. Tale funzionalità, sebbene fornisca un risultato probabilistico, è validata per la modellazione della mobilità di escursionisti e, per quel che riguarda il comportamento dei dispersi, é stata già testata con buoni risultati durante le esercitazioni effettuate con i tecnici esperti in attività di soccorso. In questo contesto le attività di ricerca e sviluppo che si stanno portando avanti vanno nella direzione di rendere sempre più affidabile il modello matematico che ne sta alla base inserendo ulteriori informazioni comportamentali come la presenza di patologie, i vari livelli di allenamento, particolari abitudini del disperso. Oltre a questa funzione, sicuramente più innovativa, se ne sono inserite altre ad-hoc ritenute utili dagli end-user, come ad esempio il calcolo automatico della visibilità da e verso un punto, l’individuazione di scarpate o elisuperfici.
La demo online e gli sviluppi futuri Attualmente è disponibile una demo online accessibile dal nostro sito web (www.gter.it) utile per provarne tutte le funzionalità sebbene solo su un’area centrata sulla provincia di Genova. L’auspicio è che possa diventare uno strumento utile per efficientare sempre più le concitate operazioni di ricerca dispersi. Inoltre grazie alla sua natura modulare e open source pensiamo che possa facilmente trarre vantaggio da migliorie tecnologiche derivanti dalle esigenze eventualmente emerse durante l’uso in casi reali. Un esempio è sicuramente costituito dall’integrazione con servizi di localizzazione in tempo reale (es. Location Based Service) che grazie allo sviluppo delle reti mobili possa portare alla visualizzazione automatica in tempo reale della posizione delle squadre tramite dispositivi telefonici cui sono accoppiate in genere antenne GPS. Ringraziamenti Si ringrazia il Dott. Andrea Cervetto per l’attività di ricerca e sviluppo inerente le prime fasi di test. I tecnici esperti in attività di soccorso e ricerca dispersi per il supporto alle attività di living lab, la disponibilità data durante le esercitazioni pratiche e le importanti indicazioni date in fase di sviluppo.
Bibliografia • Aitken R. (1977). Wilderness areas in Scotland. Unpublished Ph.D. thesis. University of Aberdeen. • GRASS Development Team (2012) Geographic Resources Analysis Support System (GRASS) Software, Version 6.4.2., Open Source Geospatial Foundation. http://grass.osgeo.org • Langmuir E. (1984) Mountaincraft and leadership The Scottish Sports Council/MLTB. Cordee, Leicester. • https://sites.google.com/site/gter4more
Parole chiave GIS; Open Source; ricerca dispersi; Open Data; Geowebservice
Abstract G4MoRe, Gter-for Mountain Rescue, is a tool developed entirely with Open Source products and designed as support to research activitiesof missing people in the mountains, manufactured and supported by Gter srl.
Autori Tiziano Cosso tiziano.cosso@gter.it Ingegnere Roberto Marzocchi roberto.marzocchi@gter.it, Ingegnere Gter srl, Via Greto di Cornigliano 6R, 16152 Genova (GE) Danilo Repetto
repetto.danilo@gmail.com
Volontario nelle attività di ricerca dispersi. Fig. 3 – Aree a maggiore probabilità di ritrovamento del disperso
38
GEOmedia n°2-2013
REPORTS
visita il sito www.rivistageomedia.it
39
REPORTS
Direttiva INSPIRE in Italia: il re è nudo! di Mauro Salvemini E’ assolutamente fuori di dubbio che per l’Italia l’evento più importante della Conferenza INSPIRE 2013 conclusasi a Firenze il 27 giugno sia stata la interpellanza parlamentare urgente già annunciata il 18/06/13 al Ministero dell'Ambiente e della Tutela del Territorio e del Mare e presentata e discussa nell’aula di Montecitorio il giorno stesso della chiusura della conferenza.
L
a Direttiva INSPIRE è stata nominata più volte, in un’ora circa, per la prima volta nella storia della nostra Repubblica, il giorno 27 giugno u.s., da rappresentanti politici. Mentre alla conferenza per quattro giorni sfilavano le pratiche eccellenti sulle infrastrutture dei dati territoriali di tutti i paesi europei e nessun politico si è sentito in dovere di partecipare, l’argomento INSPIRE è stato nominato a Montecitorio solo per una interpellanza parlamentare. Se è vero che la direttiva INSPIRE è stata recepita, peraltro con un atto dovuto, è altrettanto vero che è stato prodotto il Decreto, che ne dovrebbe assicurare il funzionamento, con un sistema talmente complesso, farraginoso e sovradimensionato per competenze e per enti partecipanti, che non è stato ancora posto in essere. Ed è altrettanto vero che i governi che si sono succeduti dal 2002, anno nel quale si iniziò a parlare della iniziativa INSPIRE tra tre direzioni generali delle CE, e i governi italiani succeduti dal 2007, anno di ratifica della direttiva da parte del parlamento europeo, non hanno mai prestato la dovuta attenzione ad organizzare qualche iniziativa pubblica rilevante per condividere, approfondire, studiare la Direttiva e tutto quello che essa poteva rappresentare, confrontandosi con la Commissione Europea e gli altri stati membri che nel frattempo hanno sviluppato politiche ed azioni tecnico amministrative adeguate. L’Italia, in più di cinque anni, ha brillato per non avere nominato un numero adeguato di esperti nei gruppi di lavoro che hanno scritto le regole tecniche dei cosiddetti allegati di INSPIRE, quegli allegati che definiscono gli standard dei dati geografici che descrivono il territorio, l’ambiente e le infrastrutture. Successivamente quando gli allegati tecnici sono stati pronti, l’Italia ha però votato a favore dell’approvazione di tali standard. Vuol dire quindi che gli standard INSPIRE siano stati confrontati con quelli italiani e che siano compatibili? Purtroppo non c’è evidenza, almeno pubblica, di nessun documento che abbia trattato il tema e che ne dia una soluzione. E’ un aspetto da non sottovalutare perché ogni trasformazione di dati comporta costi aggiuntivi e adeguarsi a specifiche ratificate dalla CE e promosse da altri paesi può anche volere dire che alcune caratteristiche del nostro territorio e del nostro ambiente potrebbero non essere adeguatamente considerati. Amministrazioni che non colloquiano Ma torniamo alla interpellanza urgente di cui ho avuto notizia via Twitter a conferenza INSPIRE conclusa, ed alla Conferenza stessa INSPIRE 2013 a Firenze (visibile su youtube http://www.youtube.com/watch?v=2u9ng9OF088). La interpellanza parlamentare prende lo spunto da una oramai
40
annosa questione di uso di risorse finanziarie per rilevare i dati del territorio ( piano di telerilevamento nazionale, rilevamenti della agricoltura, rilevamento ambientale e geologico, etc.). Tali finanziamenti da svariati anni producono dati che non circolano e non vengono scambiati all’interno della pubblica amministrazione centrale. Non desidero entrare nel merito di tali appalti, affidamenti e produzione di dati, quello che interessa capire è perché dal 2002, anno di avvio della iniziativa INSPIRE, l’Italia non abbia fatto propri i cinque principi di INSPIRE che brevemente dicono: • che i dati vanno raccolti una sola volta e gestiti laddove
ciò può essere fatto in maniera più efficiente; • deve essere possibile combinare i dati provenienti da dif-
ferenti fonti e condividerli tra più utenti ed applicazioni; • deve essere possibile la condivisione di informazioni rac-
colte dai diversi livelli dell’amministrazione pubblica; • che l’informazione geografica necessaria per il buon go-
verno deve essere realizzata ed essere realmente accessibile; • deve essere facile individuare quale informazione geografica è disponibile e valutarne l’utilità. Serve proprio capire perché il governo, nella risposta all’interrogazione dello scorso 27/06/13 dipinge, devo dire con grande onestà, una situazione completamente all’opposto: ministeri che non si parlano, dati a pagamento e non disponibili, zone di territorio che non combaciano, cataloghi diversi, rilievi ripetuti ed altro ancora. Escluderei, a giustificazione della mancanza di attenzione ai principi di INSPIRE, la causa politica: non si tratta di destra o di sinistra, si tratta solo di dati, ed anche la giustificazione tecnica è difficile da avallare perché il concetto e la prassi di interoperabili-
GEOmedia n°2-2013
REPORTS
tà e condivisione ha radici scientifiche e tecniche anche in Italia dove infatti, ricordiamo, fu prodotto il SCP ( Sistema di Connettività Pubblica). Si può riportare quindi la causa di tutto questo al processo di attuazione di un coacervo di norme e leggi caratterizzate da un’endemica gracilità di impianto per la produzione e condivisione della cartografia in Italia, specie dopo l’attuazione del mandato costituzionale delle competenze territoriali alle regioni. Sta di fatto che INSPIRE arrivata all’attenzione della pubblica amministrazione italiana venne considerata un alieno e tale è rimasta. Eppure più volte organizzazioni non governative, prime tra tutte AMFM GIS Italia, ha tentato di richiamare negli anni l’attenzione degli organi preposti: portammo la questione all’attenzione dell’allora CNIPA con una audizione, il Ministero dell’Ambiente fu invitato a partecipare a diverse conferenze tecnico scientifiche organizzate da AMFM GIS Italia ed ASITA. Recentemente (2012) il seminario “INSPIRE, prepararsi all’atterraggio” è stato organizzato proprio da AMFM insieme con ISPRA che è il NCP (punto di contatto nazionale) ufficiale per la direttiva. Proprio il NCP (National Contact Point) è stato vissuto in modo particolare in Italia che è stata una delle ultime nazioni a metterlo a punto ed a pubblicarlo sul sito di INSPIRE. Mentre altri stati membri quale il Belgio creavano il NCP interfacciando utenti, ricerca ed accademia, rappresentanti dell’industria etc., in Italia ancora oggi chiunque, anche rappresentando una associazione, tenta di entrare in contatto con il NCP italiano si sente rispondere “ … questo NCP non svolge, al momento, attività di comunicazione verso singole persone fisiche e/o verso singole Strutture organizzative ricomprese nell’ambito di un più ampio Ente”. La difficile vita di INSPIRE in Italia Tirando conclusioni, solo parziali, la Direttiva INSPIRE ha avuto in Italia una vita difficile e si è dovuta adattare ad essere ignorata dalla pubblica amministrazione soprattutto centrale e dai politici. Un vero peccato perché in altri stati membri funzionari preparati e politici attenti a quello che veniva loro proposto hanno subito capito che INSPIRE si poteva coniugare con e-government, con servizi ai cittadini, con ottimizzazione e riuso dei dati, con interoperabilità, con risparmio energetico, gestione dei disastri, trasporti ed altro ancora. Le imprese italiane di informatica per il territorio non hanno svolto la “lobby” (una parola che non mi piace, ma che uso per brevità) del caso sin dall’inizio dell’iniziativa, ma solo recentemente sono state pronte a proporre prodotti che risolvessero problemi specifici della pubblica amministrazione, che nel frattempo sentiva e sente sempre di più l’impellenza di adeguarsi (pena procedure di infrazione e forse altro) a quanto definito dagli allegati tecnici di INSPIRE che, come detto prima, nel frattempo
visita il sito www.rivistageomedia.it
sono diventati legge. Il mondo dell’open source ha ovviamente reagito ed opera, ma ben si sa quali siano i vincoli di attuazione di tale approccio. Vale ricordare che la situazione era già stata considerata degna di attenzione nella scorsa legislatura quando nel marzo del 2012 fu presentato al Senato il Disegno di Legge “Delega al Governo per il riassetto delle strutture competenti in materia di gestione e fruizione dell’informazione geografica digitale, nonché per il più razionale utilizzo della stessa al fine dello sviluppo dei servizi connessi.” (http://leg16.senato.it/leg/16/BGT/ Schede_v3/Ddliter/testi/38150_testi.htm) Il Disegno di legge ottenne il supporto di rappresentanti politici di tutto l’arco costituzionale a dimostrazione di quanto sopra evidenziato che non sembra esserci in Italia un problema politico sui dati geografici. I problemi risiedono invece nella attuazione amministrativa e tecnica. Ad oggi dove INSPIRE ha più influenzato nella pubblica amministrazione centrale è il geoportale nazionale, ma esso non è la attuazione di INSPIRE né può diventarlo. Questo, in futuro, se si vorrà abbandonare la teoria tolemaica ampiamente mostrata nelle presentazioni fatte ad INSPIRE 2013, se ben progettato e gestito, potrebbe essere una componente dell’intera infrastruttura di dati territoriali italiana. INSPIRE ha anche influenzato il repertorio nazionale dei dati territoriali gestito dall’Agenzia per l’Italia Digitale sulla scorta della attuazione del codice per la informatizzazione della pubblica amministrazione e recenti decreti circa i dati cartografici che non cito per non appesantire il ragionamento. La risposta del Sottosegretario del Ministero delle infrastrutture e trasporti, ancorché in carica da pochissimo tempo, alla interpellanza dimostra quanto indietro stiamo sia politicamente che tecnicamente e quale difficoltà il governo abbia a navigare tali mari disseminati di isole misteriose ed a volte nemmeno mappate sulle quali vivono le amministrazioni che producono dati, indicono gare ed assegnano appalti, realizzano archivi e cataloghi, anche semplici geoservizi ignorando i principi di INSPIRE. Purtroppo, poiché l’attuale governo ed i suoi esponenti hanno ereditato questa situazione dai precedenti e nessuno si prende la responsabilità della questione, cerchiamo di ragionare su quali siano le cause e come poterle eliminare o correggere. Nonostante che il governo in carica ammetta che non ci sia condivisione ed interoperabilità tra diversi ministeri (Ministero Ambiente, Ministero Agricoltura, Ministero Ricerca ed altri ancora se si studiasse bene la questione), pur auspicando che si arrivi a realizzarla, di fatto è dimostrato come ancora non sia avvenuta, neppure tra enti centrali e Regioni che nel frattempo, avendo la competenza della gestione del territorio si sono dotate di dati e strumenti, molte di esse secondo gli standard INSPIRE. Nel frattempo infatti (dal 2002 e da 2007) INSPIRE in Europa cresceva, aumentava importanza, imponeva standard ed influenzava enti cartografici e governi di
41
REPORTS altri stati membri che oggi usano INSPIRE come una leva per le green infrastructure, per gli open data, per i servizi ai cittadini e per lo sviluppo della piccola e media impresa. Le frontiere del sapere si superano facilmente e con entusiasmo e quindi anche in Italia si hanno studiosi, sostenitori, entusiasti e sviluppatori della Direttiva: un numero cospicuo sono anche nelle regioni che hanno condiviso la appropriatezza di usare INSPIRE per le loro necessità. Proprio il comitato delle regioni (CISIS-CPSG) nel workshop, organizzato da AMFM GIS Italia durante la Conferenza INSPIRE, ha presentato lo studio di fattibilità del sistema federato delle infrastrutture regionali di dati territoriali. Tornando alla Conferenza di Firenze, dove alle timide e sommesse presentazioni italiane spesso ambigue e di difficile decodifica per chi non è italiano e del settore, durante la Conferenza INSPIRE 2013 hanno fatto da contraltare le presentazioni dei risultati raggiunti in particolare da Danimarca, Gran Bretagna, Germania, Finlandia. L’esempio degli altri Paesi In Danimarca il motto circa i dati è “Buoni dati di base per tutti – un driver per la crescita e per la efficienza”. Talmente vero che il Ministro della Economia ha deciso di finanziare la quota di bilancio della Agenzia Danese dei geodati proveniente dalla vendita al settore privato! I dati, per tutto il parlamento danese che ha votato a dicembre del 2012, sono un bene da usare per creare servizi e reddito. La liberalizzazione dei dati danesi sta portando non solo a non spendere sui dati, ma ad avere un ritorno di investimento dai dati geografici. Incredibile! Iniziarono tre anni fa pubblicando il data base di tutti gli indirizzi postali della Danimarca. Mi viene spontanea una domanda: che ne è dei dati geografici dei numeri civici rilevati durante il censimento della popolazione in Italia? Ritengo che dovremmo in qualità di società civile affrontare questo argomento. Passando alla Gran Bretagna, si sa che Ordinance Survey inglese è un ente robusto, con chiaro mandato di business ed a volte criticato dalle amministrazioni locali che ad esso si devono riferire per i dati cartografici. La Gran Bretagna è stata in grado di produrre un atto di indirizzo denominato Location Framework che chiaramente sancisce come rilevante per lo sviluppo del paese il dato geografico quale componente di tutte le informazioni della pubblica amministrazione ed investe su la localizzazione come componente della società contemporanea. Gli open data peraltro sono veramente aperti e disponibili. La Gran Bretagna, storicamente non schiva alla leadership internazionale, ha poi contribuito sostanzialmente a scrivere il documento di base sulla informazione geografica che verrà presentato e discusso tra pochi giorni nella terza riunione del Comitato di alto livello delle Nazioni Unite sulla gestione della informazione geografica proprio a Cambridge ( UK) in continuazione della Conferenza cartografica inglese. Definirei il tutto un ottimo gioco di squadra inglese! Che l’ informazione geografica sia oramai un tema ed una risorsa internazionale è dimostrato dal fatto che Google, Facebook, Waze ed altre compagnie di social network ci sono dentro e già puntano su geo--‐servizi. Quanta strada è stata fatta da quando Al Gore proponeva la Digital Earth facendo fare a Clinton una delle più belle leggi liberalizzando i dati segreti delle foto aeree ed in genere i dati geografici della pubblica amministrazione gettando così le basi della infrastruttura di dati territoriali degli USA. La partecipazione attiva dell’Italia al contesto internazionale delle Nazioni Unite su tale tema non può essere tralasciato. La Germania è lo stato federato per eccellenza in Europa. L’applicazione della direttiva INSPIRE è stata aiutata dalla
42
robusta architettura della GDI--‐DE responsabile dei dati cartografici, dipende dalle politiche di e--‐government, è stato realizzato un efficiente cook-book, possiede una architettura solida della quale il geoportale (sic!) fa parte appoggiandosi su di una robusta governance della IT . Ciò non di meno i colleghi tedeschi intendono migliorare i rapporti tra centro ed amministrazioni locali, progredire nell’efficienza del livello tecnico e migliorare nell’uso degli standard in generale nella pubblica amministrazione, che peraltro stanno già funzionando egregiamente per il 130mila metadati di dati geografici. Stanno poi puntando a partecipare al programma quinquennale, da 170 milioni di euro, ISA (Interoperability Solutions for public Administrations) (http://ec.europa.eu/isa/index_en.htm) lanciato nel 2010 dalla CE che si integrerà con INSPIRE. A proposito che si sta facendo in Italia per ISA ? Potrei continuare entrando nel merito della Olanda, della Finlandia e della Spagna che da anni ha una funzionante infrastruttura di dati territoriali nonché della Francia che grazie al suo istituto geografico nazionale sta facendo un interessante percorso di integrazione tra centro e periferia, ma mi fermo perché spero che il governo intenda al più presto formare un gruppo di saggi per lo sviluppo della informazione geografica. Al momento attuale, mentre gli altri stanno andando avanti, sembra che solo l’Italia non abbia avuto il tempo di soffermarsi sugli aspetti di interoperabilità, di uso, di sfruttamento dei dati geografici per i servizi economici e sociali e che le applicazioni siano rimaste relegate all’interno di specifici enti. Eppure di dati geografici in Italia ne sono stati prodotti tanti e se ne continuano a produrre; perché allora rimangono nei dischi di server inaccessibili, e non dico ai privati, ma anche ad altri enti con competenza sulle stesse zone di territorio? Forse non è opportuno andare a cercare il perché, ma occorre veramente cambiare direzione di marcia. La situazione non è più sostenibile. Da questo punto di vista l’interrogazione parlamentare ha messo in evidenza qualcosa di veramente strano, come non fosse già palese, e da inserire nel programma delle misure urgenti da prendere, tali che la pubblica amministrazione potrebbe subito attuare non tagliando fondi, ma impiegandoli in modo diverso e provocando un cospicuo ritorno di investimento. Misure urgenti da intraprendere Provo ad elencare alcune iniziative che potrebbero essere prese in questa ottica. 1 Per ottemperare ad INSPIRE l’Italia non necessita di ulteriori leggi e norme solo qualche modifica al decreto D. Lgs. 32/2010 in modo da poterlo trasformare da pletorico e farraginoso in operativo, agile, ed efficace. Sarebbe sufficiente analizzare come la Direttiva è stata realizzata in altri stati membri e poi adeguare il decreto alle nostre necessità. 2 Sono assolutamente da evitare ulteriori norme di standardizzazione e di regolamentazione. Ce ne sono già tante e la over standardizzazione è un pericolo reale condiviso da esponenti di autorevoli organi internazionali. 3 E’ necessario risolvere la relazione tra amministrazione centrale e amministrazioni subnazionali. Il CISIS_CPSG e lo stesso IGM hanno dato prova che la collaborazione è possibile. 4 E’ necessario che le amministrazioni pubbliche si dotino a tutti i livelli di competenze, che a seguito di adeguati e chiari piani, trasparenti e sostenibili siano in grado di ge-
GEOmedia n°2-2013
REPORTS stire e si impegnino ad usare la informazione geografica per il bene della collettività. 5 L’apertura dei dati geografici verso l’esterno, ancorché già di fatto normata dalle vigenti leggi sugli “open data” dovrebbe essere gestita in funzione di un più ampio atto di indirizzo che preveda il coinvolgimento del settore pubblico e privato e soprattutto della piccola e media impresa. Se qualcuno ancora pensasse che i dati geografici non siano prioritari, dovrebbe considerare con attenzione la circostanza che agli inizi del 2013 GOOGLE ha pubblicato un rapporto nel quale aveva fatto stimare l’impatto economico dei geo-servizi a livello mondiale. Ritengo che lo abbia fatto mentre investiva sulla nuova versione di GOOGLEMAP. Il rapporto parla di una cifra tra i 150 e 270 miliardi di US$ di entrate a livello mondiale ed un valore aggiunto lordo di 113 miliardi di US $. E’ quindi chiaro che la forbice tra paesi che stanno investendo sui i servizi dei dati geografici, su INSPIRE, su infrastrutture di dati territoriali e quelli che non lo stanno facendo si sta aprendo sempre di più. E noi? Su cosa investiamo? Rileviamo ancora dati per riempire petabyte di dischi? Ignoriamo le comunità ed i social network che ne producono tanti altri e non possono ottenere niente dalle nostre amministrazioni? Il divario tra il sistema Italia e gli altri stati membri tende ad aumentare, le cose procedono e la CE ha varato la iniziativa EULF ( European Location Framework ). Ci siamo e come? INSPIRE verrà applicata allo sviluppo delle macroregioni europee, e noi? E mi fermo qui. In conclusione il vestito sinora realizzato è proprio particolare: il re è nudo.
Parole chiave inspire, idt, informazione geografica
Abstract The present and historical complex Italian situation with regard to INSPIRE policy and governance is analysed. The institutional initiatives are discussed after the point of order presented by Italian party ( on June 27th) about the standard usage of geographic data within entire public administration. The article is proposing some specific inputs and solutions to be discussed for over passing the contingent situation.
Autori Mauro Salvemini
mauro.salvemini@uniroma1.it
Datum
11.34212343 44.34234593
Gauss-Boaga
WGS84 Effemeridi
ED50-UTM32
Cassini-Soldner
ETRS89
Latitudine
Longitudine
UTM50-32N
ELISSOIDE
6378137 635752.314
GEOIDE
GPS GNSS RTK APS-3 Facile,Completo,Preciso visita il sito www.rivistageomedia.it Surveysoft - Distributore per l’Italia dei Prodotti Altus-GPS , Microsurvey Software , RUIDE Stazioni Totali
43 www.surveysoft.it
REPORTS
GALILEO: la promessa che diventa realtà di Gianluca Pititto
Presso il Centro Spaziale di Telespazio al Fucino (l’ Aquila) il 24 Luglio scorso - alla presenza di alte autorità politiche, militari e civili - è stato fatto il punto sul progetto del GNSS civile europeo GALILEO ed è stata effettuata la prima dimostrazione pubblica ‘live’ delle capacità di fixing del sistema, che al momento conta solo su 4 dei 30 satelliti previsti per la costellazione completa. Il successo del test è stato superiore alle attese.
S
i può dire che ora ufficialmente si inizia a ‘toccare con mano’ la realtà del Progetto Galileo, il GNSS dell’ Unione Europea a gestione completamente civile. La Commissione Europea ha infatti promosso una dimostrazione pubblica presso il Centro Spaziale del Fucino di Telespazio con un test di determinazione di posizione sulla superficie terrestre – il punto scelto all’interno della base del Fucino, precisamente nella sala conferenze- utilizzando gli attuali 4 satelliti della costellazione e due ricevitori GNSS in grado di ricevere i segnali di Galileo. All’evento, ben organizzato dal personale della base del Fucino, hanno preso parte autorità politiche, militari ed un folto gruppo di testate giornalistiche, tra cui GEOmedia e RivistaGeomedia. La giornata ha visto la partecipazione, sia pur a distanza, del Presidente del Consiglio del Governo Italiano Enrico Letta, il quale con una lettera ha voluto sottolineare l’importanza strategica di Galileo per l’Europa e l’impulso che dalla sua realizzazione ne deriverà per l’industria spaziale italiana, alla cui crescita è particolarmente attenta la politica industriale dell’ attuale governo da lui presieduto. Alessandro Giordani a nome della Commissione Europea ha moderato la serie di interventi in programma. Il primo, in parte tecnico ed in parte istituzionale, è stato quello di Alessandro Pansa, CEO di Finmeccanica. Pansa ha ricordato con orgoglio il ruolo e l’impegno di Finmeccanica nelle attività spaziali, considerando lo Spazio un pilastro di rilevante importanza per il futuro del Gruppo. In questo senso è stato ricordato l’impegno di Finmeccanica sia sul piano nazionale, che su quello internazionale, in particolare con l’ istituzione della Space Alliance con la francese Thales. L’impegno di Finmeccanica in questo ambito è dunque convinto e garantito per gli anni a venire. Paul Flament, ancora della Commissione Europea, ha di seguito presentato una panoramica generale della architettura di Galileo. Una presentazione che ha inizialmente ripercorso anche la storia di Galileo, per giungere ad una descrizione sintetica dei vari segmenti che lo compongono, in particolare quello spaziale e di quello di terra. Il suo intervento ha preceduto quello di Enrico Saggese, Presidente dell’ Agenzia Spaziale Italiana (ASI). Saggese ha rimarcato il motto dell’evento, “Galileo: from promise to reality”, per sottolineare l’importanza del fatto che oggi, dopo tanti anni di un complesso percorso di studio ed implementazione, si sia giunti ad un primo risultato concreto e tangibile. Il Presidente dell’ ASI ha voluto evidenziare il ruolo chiave dell’ Italia in questo progetto. Tanto che proprio nel nostro paese, al Fucino in particolare, è stata realizzata una infrastruttura strategica per l’ intero sistema: uno dei due GCC - Galileo Control Center (il secondo è in Germania, presso la località di Oberpfaffehofen), vero e proprio centro nevralgi-
44
Illustrazione in Telespazio dei dati del primo fix ufficiale di GALILEO
co di gestione della costellazione di satelliti, sia per quanto riguarda il controllo delle orbite, sia per quanto riguarda l’upload dei segnali di navigazione. L’ Italia – è stato ricordatoha una lunga tradizione nella storia del progetto, con la forte presenza di istituzioni ed industria fin dai primi giorni della sua concezione. E l’ Italia - assieme a Francia, Germania e Gran Bretagna – ha garantito attraverso l’ ESA la più alta partecipazione alla fase iniziale del deployment (IOV – In Orbit Validation). Grazie anche questo impegno l’industria italiana, sotto il coordinamento dell’ ASI, ha assunto un ruolo chiave nella realizzazione della fase IOV. Ed anche da quando la CE ha preso il controllo diretto del programma, l’ Italia continua a contribuire fortemente allo sviluppo del sistema, in stretta collaborazione con gli altri paesi europei coinvolti. Una concreta evidenza di questa realtà è la nascita della italotedesca SpaceOpal (50%Telespazio - 50%DLR) per la realizzazione e gestione del cuore del sistema, ovvero dei due GCC, quello italiano del Fucino e quello di Oberpfaffehofen. Il GCC del Fucino ha visto la posa della “prima pietra” nel Settembre del 2007 e la sua inaugurazione nel Dicembre 2010 e rappresenta l’ emblema e la sostanza del grande contributo e della grande presenza dell’ Italia e della sua industria nel più grande progetto europeo di infrastruttura spaziale mai realizzato. Accanto al GCC del Fucino Saggese ha anche ricordato un’altro importante contributo italiano al progetto: il Galileo Time Validation Facility, con sede presso l’ INRiM di Torino, il cui fondamentale compito è quello di garantire la validazione dei riferimenti temporali utilizzati da Galileo e le correzioni giornaliere necessarie per mantenere il tempo di sistema della costellazione entro i limiti imposti dalle specifiche tecniche.
GEOmedia n°2-2013
REPORTS
Alla conferenza stampa, da sinistra: Enrico Saggese (Presidente ASI), Flavio Zanonato (Ministro dello Sviluppo Economico), Antonio Tajani (VicePresidente della Commissione Europea), Maria Chiara Carrozza (Ministro dell’ Università), Luigi Pasquali (CEO Telespazio)
La struttura del GCC del Fucino è stato successivamente presentato più nel dettaglio da Alessandra Farese di Telespazio, che in particolare ha approfondito i due principali compiti dei GCC: gestire la costellazione dei satelliti e controllare la generazione e la diffusione del segnale di navigazione. A seguire, il momento focale della giornata è stato l’illustrazione dei risultati del test di fixing con i segnali di Galileo provenienti dai 4 satelliti della costellazione attualmente in orbita (lanciati tra l’Ottobre del 2011 e l’Ottobre del 2012) ed elaborati da due ricevitori commerciali posti sul desk dei relatori: il tutto in leggera differita, a causa del ritardo con cui l’evento del Fucino è iniziato per problemi di traffico a Roma, problemi che hanno ritardato l’arrivo dei giornalisti. Lucio Migliozzi, Capo Operazioni di Telespazio, ha illustrato sullo schermo il momento del fix, con i quattro satelliti in vista sulla piana del Fucino (nella finestra in alto a sinistra, nella foto a corredo dell’ articolo) ed il cluster di misurazioni attorno al valore reale (nella finestra in basso a sinistra). In sintesi il risultato ha portato ad una misura di posizione sul piano orizzontale con una accuratezza di 2mt, risultato considerato ben oltre le aspettative, in quanto ottenuto in fase di validazione (IOV) e con soli 4 elementi di una costellazione che ne prevede a regime ben 30 (27 operativi più 3 di scorta). Al termine del test è stata la volta dell’intervento istituzionale del Vice Presidente della Commissione Europea Antonio Tajani, tra i principali sostenitori del progetto Galileo fin dalle sue origini. Tajani ha sottolineato l’importanza politica ed industriale del progetto, ricordando tra l’altro come Galileo rappresenti uno degli esempi di maggior successo e di fruttuosa collaborazione tra gli stati dell’ UE, spesso parzialmente divisi su molti altri fronti. In particolare, è stato sottolineato che Galileo offrirà l’opportunità non solo di aprire il mercato a nuovi servizi, ma soprattutto di svincolare l’ Europa dai sistemi preesistenti (GPS e GLONASS soprattutto). Fortemente innovativa, inoltre, la decisione comunitaria di demandare la sua gestione totalmente all’ ambito civile. “Galileo riveste un’importanza strategica per garantire l’indipendenza dell’Unione Europea in materia di navigazione satellitare” – ha dichiarato Tajani. Ed ha aggiunto: “Aiutando le imprese europee a mettere a punto nuovi prodotti e servizi darà un contributo significativo alla ripresa economica dell’Europa e consentirà di affrontare sfide impegnative legate a mobilità sostenibile, agricoltura intelligente e assistenza agli anziani”. All’intervento di Tajani hanno fatto seguito i contributi di due rappresentanti del Governo Italiano: Flavio Zanonato (Ministro dello Sviluppo Economico) e Maria Chiara Carrozza (Ministro per l’ Educazione, Università e Ricerca), i cui inter-
visita il sito www.rivistageomedia.it
venti hanno sottolineato –come già fatto da Enrico Letta la soddisfazione ed il sostegno del Governo Italiano per il traguardo raggiunto e soprattutto le grandi aspettative sui servizi innovativi che ci si attende una volta che la costellazione sarà a regime nel 2020. Tali servizi consentiranno di dare concretezza al lavoro intellettuale di tanti ricercatori, migliorando la qualità della vita ed offrendo nuove opportunità di lavoro ed investimenti di impresa. Gli interventi istituzionali hanno sostanzialmente chiuso l’incontro della giornata, lasciando però ancora spazio ad un incontro tecnico tra istituzioni e rappresentanti dell’industria sul tema dei servizi basati su Galileo e della loro sicurezza (con particolare riferimento ai sistemi PRS). Parallelamente si è tenuta una breve conferenza stampa ed una visita guidata al GCC di Telespazio. Nella conferenza stampa non sono mancati spunti interessanti – e talvolta moderatamente critici - di confronto tra giornalisti e rappresentanti delle istituzioni, come ad esempio le sollecitazioni poste dal nostro Renzo Carlucci al Ministro Carrozza sulla necessità in Italia di una formazione universitaria nell’ambito della Geomatica che sia all’altezza di quella già esistente in altri paesi europei. I 4 satelliti della costellazione Galileo diventeranno 18 entro il 2014 e per allora si prevede già la disponibilità dei primi servizi operativi. Il completamento della costellazione e la Full Operational Capability (FOC) sono previsti per il 2020 con l’immissione in orbita dell’ultimo dei 30 satelliti nominali.
Abstract On July 24 the European Commission has organized at the Fucino Space Center (Telespazio, L’Aquila – Italy) a public demonstration of the current capability of the Civil European GNSS Galileo for accurate determination of geographical position (fix). Galileo is currently in the process of deployment in the space around the Earth and only 4 satellite of the final constellation (30 satellites) are actually orbiting in space. With only these few satellites was possible to make a misurament affected by only 2 mt of error, a result beyond the most optimistic expectations with only 4 satellites operating. The event took place at the presence of high Italian and European authorities, civil and military, and even of a large press representation. Galileo will be fully operational in 2020.
Parole chiave galileo, gnss, gps, posizionamento satellitare
Autore Gianluca Pititto
gpititto@rivistageomedia.it
Rivistageomedia.it
45
OPEN DATA INTERVISTA Dati geografici aperti: istruzioni per l'uso - Free ebook dell’associazione OpenGeoData Italia di Associazione OpenGeoData Italia L'Associazione OpenGeoData Italia ha terminato l'impaginazione del suo primo e-book dal titolo "Dati geografici aperti: istruzioni per l'uso". Non sono mancati aggiornamenti dell'ultimo momento derivati dalle più recenti notizie. Tutto è stato raccolto in 114 pagine, dense di contenuti. Due articoli aprono il libro: un intervento introduttivo che affronta tutte le prinicipali tematiche dell'apertura dei dati geografici, scritto dal Presidente dell'Associazione Giovanni Biallo, ed un intervento dell'Agenzia per l'Italia Digitale, l'ente governativo in prima linea sul tema dell'Open Data.
La Carta degli Open Data sottoscritta dai paesi del G8 di Associazione OpenGeoData Italia
L’ Open Data Charter che i leader del G8 hanno sottoscritto il 18 giugno 2013 definisce cinque principi strategici che tutti i Paesi membri del G8 intendono adottare per ren-
46
Seguono una selezione delle più interessanti esperienze di pubblicazione di dati, una selezione di alcune esperienze di riuso dei dati aperti della Pubblica Amministrazione, realizzate da aziende private. Seguono gli interventi delle aziende del settore GIS che descrivono gli sviluppi del mercato geomatico derivati dall'apertura dei dati geografici. Infine in appendice sono riportati i riconoscimenti ad enti ed aziende conferiti dall'Associazione in occasione della Conferenza che si è tenuta a febbraio 2013, ed i risultati di un interessante sondaggio realizzato grazie alla collaborazione dei soci dell’Associazione.
L’ebook è scaricabile facilmente con il seguente shortlink www.rivistageomedia.it/38x3
dere il proprio patrimonio informativo pubblico aperto "by default", per incrementare la qualità e la quantità dei dati pubblicati, nonché le possibilità di riuso dei dati stessi. I membri del G8 hanno identificato 14 settori ad alto valore aggiunto per i quali è necessario rilasciare dati aperti. • Criminalità e Giustizia - statistiche sulla criminalità, sicurezza • Osservazione della Terra - meteorologia, clima, agricoltura, silvicoltura, caccia e pesca • Istruzione - scuole, performance, competenze informatiche • Energia e Ambiente - inquinamento, consumo di energia • Finanza e contratti - transazioni, contratti di affitto, bandi di gara, call for tender, bilanci degli enti locali, bilancio nazionale
• GEO - topografia, codici postali, cartografia nazionale, cartografia locale • Sviluppo globale - aiuti, sicurezza alimentare, attività estrattive, territorio • Responsabilità e democrazia di Governo - punti di contatto del Governo, risultati elettorali, legislazione, stipendi • Salute - ricette mediche, prestazioni • Scienza e Ricerca - genoma, attività di ricerca e didattica, risultati delle sperimentazioni • Statistica - statistiche nazionali, censimenti, infrastrutture, ricchezza, competenze • Mobilità sociale e welfare - casa, mutua e cassa integrazione • Trasporti e Infrastrutture - orari dei trasporti pubblici, access point, banda larga Vi riportiamo di seguito la il documento approvato tradotto in Italiano
GEOmedia n°5-2012
La Carta dei Dati Aperti del G8 Preambolo 1 Il mondo sta assistendo alla crescita di un movimento globale favorito dalla tecnologia e i social media, accresciuto dalle informazioni; esso rappresenta un enorme potenziale per creare governi e imprese più responsabili, sensibili ed efficaci, e per stimolare la crescita economica. 2 I dati aperti sono al centro di questo movimento globale. 3 L’accesso ai dati consente agli individui e alle organizzazioni di sviluppare nuove idee e innovazioni che possono migliorare le vite degli altri e aiutare a ridurre il flusso delle informazioni all’interno e tra gli Stati. Se i governi e le imprese raccolgono una grande quantità di dati, gli stessi non sempre condividono tali dati in modalità che siano facilmente reperibili, usabili o comprensibili dal pubblico. 4 Questa è un’opportunità persa. 5 Oggi, le persone si aspettano di poter accedere alle informazioni e ai servizi elettronicamente, quando e come lo desiderano. Ciò è sempre più vero anche per i dati a disposizione dei governi. Siamo giunti a un momento critico che preannuncia una nuova era nella quale gli individui possono utilizzare i dati aperti per generare intuizioni, idee e servizi e creare un mondo migliore per tutti. 6 Gli open data possono aumentare la trasparenza su ciò che fanno i governi e le imprese. La trasparenza aziendale aumenta la responsabilità d’impresa. Inoltre, la trasparenza accresce la consapevolezza dei modi in cui vengono usate le risorse naturali degli Stati, di come sono spesi i proventi dell’industria estrattiva e della compravendita e della gestione dei terreni. Tutto ciò promuove la responsabilità e la good governance, aumenta il dibattito pubblico e aiuta a combattere la corruzione. Anche la trasparenza dei dati sull’assistenza allo sviluppo del G8 è essenziale per la responsabilità. 7 Fornire l’accesso ai dati del governo può permettere agli individui, ai media, alla società civile e alle imprese di contribuire a risultati migliori nei servizi pubblici come la sanità, l’istruzione, la pubblica sicurezza, la protezione ambientale e la governance. I dati aperti possono realizzare ciò: • Mostrando come e dove vengono spesi fondi pubblici, fornendo forti incentivi per spendere tali fondi nel modo più efficiente; • Consentendo alle persone di fare scelte più consapevoli circa i servizi che ricevono e gli standard che devono aspettarsi;
innovativi per creare strumenti e prodotti utili che aiutano gli individui a navigare nella vita moderna più facilmente. Utilizzati in questo modo, i dati aperti sono un catalizzatore per l’innovazione nel settore privato, sostenendo la creazione di nuovi mercati, imprese e lavoro. Andando oltre il governo, questi benefici possono moltiplicarsi perché sempre più imprese adotteranno pratiche riguardanti i dati aperti e condivideranno i propri dati con il pubblico. 9 Noi, membri del G8, concordiamo sul fatto che i dati aperti sono una risorsa ancora non sfruttata con un enorme potenziale per incoraggiare la costruzione di società più forti e più interconnesse che soddisfino meglio i bisogni dei nostri cittadini e consentano all’innovazione e alla prosperità di fiorire. 10 Noi quindi accettiamo di seguire un gruppo di principi che saranno alla base dell’accesso ai, e del rilascio e ri-uso dei dati resi disponibili dai governi del G8. Essi sono: • Dati Aperti Automaticamente (By Default) • Qualità e Quantità • Usabilità per tutti • Rilascio dei Dati per una Governance Migliore • Rilascio dei Dati per l’Innovazione 11 Operando all’interno dei nostri contesti politici e giuridici, attueremo questi principi in linea con le best practice tecniche e i tempi previsti dai nostri piani d’azione nazionali. I membri del G8, entro la fine di quest’anno, svilupperanno dei piani d’azione, in vista dell’attuazione della Carta e dell’allegato tecnico entro la fine del 2015 al massimo. Controlleremo i progressi durante il nostro prossimo incontro nel 2014. 12 Riconosciamo inoltre che i benefici dei dati aperti possano e debbano essere estesi ai cittadini di tutti i Paesi. Nello spirito dell’apertura poniamo questa Carta dei Dati Aperti all’attenzione di altri Paesi, organizzazioni e iniziative multinazionali. Principio 1: Dati Aperti Automaticamente 13 Riconosciamo che l’accesso gratuito ai dati aperti, e il loro successivo ri-uso, sono di grande valore per la società e l’economia. 14 Accettiamo di orientare i nostri governi verso i dati aperti automaticamente. 15 Riconosciamo che il concetto di dati governativi è inteso nella sua più ampia accezione. Esso comprende i dati a disposizione degli organi governativi (amministrativi) nazionali, federali, locali o internazionali, o dal settore pubblico allargato.
in particolare riguardante la proprietà intellettuale, le informazioni sensibili e personali che va osservata. 17 Ci impegniamo: • a dar luogo all’aspettativa che tutti i dati amministrativi siano pubblicati apertamente e automaticamente, come previsto da questa Carta, e a riconoscere che ci sono ragioni legittime per le quali alcuni dati non possono essere rilasciati. Principio 2: Qualità e Quantità 18 Riconosciamo che i governi e il settore pubblico possiedono enormi quantità di informazioni che potrebbero essere d’interesse per i cittadini. 19 Riconosciamo anche che potrebbe essere necessario del tempo per preparare dati di alta qualità, e l’importanza di consultarsi a vicenda e con coloro che utilizzano i dati a livello nazionale o più ampio, per identificare i dati da rilasciare prioritariamente o da migliorare. 20 Ci impegniamo: • a rilasciare dati di alta qualità che siano tempestivi, esaurienti e accurati. Per quanto possibile i dati saranno in forma originale, non modificata e con il livello più puro possibile di granularità; • ad assicurare che le informazioni nei dati siano scritte in un linguaggio semplice e chiaro, nonostante questa Carta non richieda una traduzione in altre lingue; • a garantire che i dati siano pienamente descritti, così che i fruitori abbiano informazioni sufficienti per capirne i punti di forza e di debolezza, le limitazioni analitiche e i requisiti di sicurezza e come trattare i dati; e • a rilasciare i dati il prima possibile, consentire agli utenti di fornire commenti e continuare a effettuare revisioni per assicurare che siano ottenuti gli standard più elevati dei dati aperti. Principio 3: Usabilità per tutti 21 Accettiamo di rilasciare i dati in un modo che aiuti tutte le persone a ottenerli e riusarli. 22 Riconosciamo che i dati aperti debbano essere disponibili gratuitamente per incoraggiarne il più diffuso utilizzo. 23 Concordiamo sul fatto che quando i dati aperti sono rilasciati, ciò dovrebbe essere fatto senza barriere burocratiche o amministrative, come requisiti di accesso, che possono dissuadere le persone dall’accedere ai dati. 24 Ci impegniamo:
8 I dati aperti liberamente disponibili possono essere usati in modi
16 Riconosciamo che vi è una normativa nazionale e internazionale,
• a rilasciare i dati in formato aper-
to quando possibile, assicurando che i dati siano disponibili per il più alto numero di utenti per la più ampia varietà di propositi; e • a rilasciare quanti più dati possibile, e ove non sia momentaneamente possibile offrire accesso libero, a promuovere i benefici e a incoraggiare modi per agevolare l’accesso libero ai dati. In molti casi, ciò includerà il rilascio dei dati in formati multipli, così che essi possano essere trattati dai computer e compresi dalle persone. Principio 4: Rilascio dei Dati per una Governance Migliore 25 Riconosciamo che il rilascio dei dati aperti rafforza le nostre istituzioni democratiche e incoraggia una migliore formulazione delle politiche per soddisfare i isogni dei nostri cittadini. Ciò vale non solo per i nostri Paesi ma anche per il resto del mondo. 26 Riconosciamo anche che l’interesse nei dati aperti sta crescendo in altre organizzazioni e iniziative multilaterali. 27 Ci impegniamo: • a condividere le competenze tecniche e l’esperienza vicendevolmente e con altri Paesi del mondo, così che tutti possano cogliere i benefici dei dati aperti; e • a essere trasparenti sulle nostre modalità di raccolta dei dati, sugli standard e sui procedimenti di pubblicazione, documentando tutti i relativi processi online. Principio 5: Rilascio dei Dati per l’Innovazione 28 Riconoscendo l’importanza della diversità nello stimolare la creatività e l’innovazione, concordiamo sul fatto che maggiore è il numero degli individui e delle organizzazioni che usano i nostri dati, maggiore saranno i benefici sociali ed economici che verranno generati. Ciò vale per fini sia commerciali sia non-commerciali. 29 Ci impegniamo: • a lavorare per aumentare l’alfabetizzazione e incoraggiare ai soggetti, come gli sviluppatori di applicazioni e le organizzazioni della società civile che lavorano nel campo della promozione dei dati aperti, a dischiudere il valore dei dati aperti; • a dar vita a una generazione futura di data-innovatori (innovatori nel campo dei dati) rilasciando dati in formati leggibili al computer (machine-readable format).
Conoscere prima di visitare. Grazie a Trimble Indoor Mobile Mapping Solution, rilevare ambienti interni è più veloce e più facile che mai. • Rispondere alle minacce terroristiche • Prevenire le calamità naturali • Creare piani di evacuazione dei sistemi di trasporto • Creare piani di gestione delle emergenze
Informazioni precise sul layout delle strutture interne degli edifici e sulle zone circostanti permettono ai servizi di pronto intervento di agire in modo rapido, preciso ed efficace in caso di emergenza. Con Trimble Indoor Mobile Mapping Solution, una semplice passeggiata negli spazi interni è tutto ciò che serve per acquisire i dati spaziali. Mappe e modelli di migliaia di metri quadrati di spazi interni possono essere rilevati in minuti, interi edifici in un solo giorno
Visitate il nostro sito trimble.com/timms Scriveteci a land@applanix.com
ASSOCIAZIONI ASITA Partecipa all'esposizione tecnico-commerciale 2013! Quella organizzata dalla Federazione ASITA è la più vasta mostra tecnico-commerciale di “geomatica” italiana. Con stand e workshop tematici, l’esposizione, ad accesso gratuito, ha l’obiettivo di mettere in contatto attori e cultori del mondo della Geomatica. Scienziati e neofiti, docenti e studenti, tecnici e operatori, aziende di produzione e di servizi troveranno spazi e momenti di crescita culturale, di scambio di esperienze, di domande e di risposte. E’ l’occasione, unica e irrinunciabile, di una visione aggiornata e completa delle tecnologie per il territorio e l’ambiente, dalla Topografia alla Cartografia, dalla Fotogrammetria al Telerilevamento, dai Sistemi Informativi Geografici e Territoriali alla Geodesia, dalla Geologia all’Urbanistica. Settori merceologici: - Topografia - Geodesia - GPS - Laser a scansione - Batimetria - Telematica per le informazioni geografiche - GIS, sistemi informativi territoriali, infrastrutture di dati spaziali - Navigazione assistita, servizi alla mobilità - Aerofotogrammetria - Soluzioni hardware e software per la geomatica - Telerilevamento - Servizi di consulenza - Sistemi e servizi per l'acquisizione, il trattamento e l'archiviazione delle immagini - Stampa tecnica - Cartografia grafica, digitale e multimediale Si fa presente che la gestione dell'esposizione tecnico-commerciale è affidata alla Società GEO Eventi & Servizi srl che è unico fornitore ed organizzatore della Conferenza per conto della Federazione ASITA. I dati della Società sono i seguenti: GEO Eventi & Servizi srl Via Montebello 27 - 20121 Milano P. IVA – C.F. 04978710962
AM/FM Nell’ambito della Conferenza AMFM GIS Italia 2013 si svolgerà a Roma il 26 settembre presso la Facoltà di Architettura, piazza Borghese 9, il seminario in diretta streaming con interazione dal titolo: L'informazione geografica sale di scala. B.I.M. (Building Information Modeling ), infrastrutture a rete, sicurezza, 3D L’aspetto della scala è molto rilevante nella GI e nelle SDI. Si assiste oggi ad una sempre maggiore attenzione alla multiscalarità dei data base cartografici e la prassi ed i regolamenti in vigore in molti paesi collegano la informazione cartografica a quella specifica del singolo manufatto edilizio creando un continuum di dati e di funzioni. L’ OGC è data tempo impegnato sul tema del BIM , il settore del AEC ( Architecture Engineering Construction) ne fa un uso sempre più ampio e specializzato, le infrastrutture dei servizi a rete basano i loro sistemi informativi su una descrizione tridimensionale e dettagliata delle reti, la pubblica amministrazione definisce regole di utilizzo a riguardo e l’utente finale trae vantaggio dal potere usufruire di una descrizione del costruito che va dal territorio al particolare costruttivo. Si sta salendo di scala ed il processo è irreversibile. Si offrono nuove opportunità alle tecniche di gestione della sicurezza e di descrizione tridimensionale dei manufatti e dei contesti urbani. Il workshop organizzato da AMFM GIS Italia, ed aperto al pubblico gratuitamente, porterà all’attenzione della comunità italiana della informazione geografica gli aspetti collegati all’ingrandimento della scala di descrizione e definizione del dato geografico. Le relazioni saranno tenute da esperti italiani ed europei. Saranno presentati esempi di uso ottimale per vari settori applicativi ed in vari paesi , si tratterà degli aspetti della standardizzazione e multiscalarità, si affronteranno temi caldi quali la sicurezza delle reti in funzione della loro descrizione e funzionalità. Si presenteranno iniziative legislative europee sulla standardizzazione della misurazione degli edifici e le attuali direttive in essere relativamente ai dati geografici.Si tratterà il ruolo del 3D per la descrizione automatica di grandi modelli urbani e per la gestione di oggetti complessi. I leader delle soluzioni tecnologiche nel settore Autodesk, Esri , Intergraph e Sinergis avranno modo di discutere su soluzioni di metodo e proposte tecniche e soprattutto saranno a disposizione dei partecipanti al seminario per contatti specializzati nell’ambiente informale che AMFM da sempre garantisce nelle sue manifestazioni. Il seminario sarà trasmesso anche via diretta streaming con possibilità di interazione in modo tale da permettere a chi non possa essere presente di seguirne tutte le fasi da remoto ed interagire con i presenti in sala. email: info@amfm.it web: www.amfm.it twitter : @AMFM_GIS_ITALIA
11-13 NOVEMBER 2013 | PassENgER TERMiNaL aMsTERDaM (PTa) | aMsTERDaM, ThE NEThERLaNDs
Work better, faster, safer, smarter with new 3D technologies.
Maptek
Learn how at the leading conferences on 3D measurement and imaging. Covering end-to-end 3D, from data capture and processing to visualisation and delivery, SPAR Europe and European LiDAR Mapping Forum provide an objective look at the newest tools and workflows to drive efficiency, reduce timelines, save money, improve safety and mitigate risk. Join 3D experts from dozens of diverse industries for a deep-dive into various 3D technologies, including airborne LiDAR, terrestrial laser scanning, mobile mapping and the newest hand-held devices. Produced by:
Presented by:
TRACkS: New Technologies & Data Fusion | Civil Infrastructure | Land & Natural Resource Management | Process, Power & Utilities | Discrete Manufacturing | Building & Architecture | Digital Cultural Preservation | Forensics & Security Planning
30 september and save €100!
Register by
www.SPARPointGroup.com/Europe
2
CONFERENCEs
1
REgisTRaTiON FEE
AGENDA
2013 25-30 agosto2013 26th International Cartographic Conference Dresden, Germany http://HYPERLINK "http://www.icc2013. org/" \t "_blank" www.icc2013.org 2-6 settembre 2013 XXIVth International CIPA Symposium CIPA 2013 Symposium: Recording, Documentation and Cooperation for Cultural Heritage Strasbourg, France http://www.cipa2013.org/ 4-6 settembre 2013 UAV-g 2013 Conference Rostock, Germany http://www.uav-g.org/ 5-7 settembre 2013 EUGEO 2013 Congress Roma, Italia http://www.eugeo2013.com/
11-12 settembre 2013 Servizi in rete tour Padova http://serviziaretetour.eventbrite.it/ 17-22 settembre 2013 FOSS4G 2013 Conference Nottingham, UK http://2013.foss4g.org/ 18 - 20 settembre 2013 Congresso AICA 2013 Fisciano (Salerno) http://www.aica2013.it/ 26 sett 2013 Conferenza AMFM Gis Italia Roma, Italia www.amfm.it 26-27 settembre 2013 Smart Mobility World - ITN & Telemobility Torino, Italia http://www.telemobilityforum. com/tm/
1-3 Ottobre 2013 6-th International Conference “Earth from Space - the Most Effective Solutions” Moscow, Russia http://www.conference.scanex. ru/index.php/en/ 8-10 ottobre 2013 Intergeo 2013 Conference and Trade Fair for Geodesy, Geoinformation and Land Management Essen, Germany http://www.intergeo.de 16-18 ottobre 2013 Smart City Exibition Bologna, Italia http://www.smartcityexhibition.it/ 5-7 novembre 2013 XVII Conferenza Nazionale ASITA 2013 Riva del Garda, Italy http://www.asita.it/it/
11-13 novembre 2013 SPAR2013 & ELMF Passenger Terminal di Amsterdam (Olanda) http://www.sparpointgroup.com/ Europe/ 20 novembre 2013 GISDAY http://www.gisday.com/
Crisi o non crisi, continuiamo a crescere. Ma non è solo questione di fortuna. La crisi colpisce tutti, per carità. Ma la vita va avanti e – soprattutto per chi fa un lavoro molto specializzato, come noi – c’è sempre mercato. A patto di lavorare bene, s’intende. E di aver fatto in passato scelte corrette, sviluppando competenze che con il tempo crescono di valore. Da molti anni, investiamo costantemente in R&D studiando soluzioni innovative per semplificare l’uso delle applicazioni geospatial, creare interfacce sempre più intuitive e integrare in maniera trasparente i dati geo-spaziali nella filiera produttiva, migliorando in modo significativo la performance dei sistemi IT. Parallelamente, abbiamo messo a punto procedure che consentono di raggiungere l’eccellenza di prodotto nel rispetto dei tempi e del budget, con un livello qualitativo sempre certificato. Inoltre, abbiamo percorso prima di altri la strada del software open source, liberando i nostri clienti da molte rigidità tecnologiche e garantendo la massima qualità a costi competitivi Grazie a tutto questo, siamo riusciti a competere con successo in Russia, Kosovo, Romania, Turchia, Siria, Cipro, i Caraibi. GESP Srl MILANO - BOLOGNA - TORINO http://w w w.gesp.it - gespsr l@gesp.it
E oggi affrontiamo nuove sfide in un contesto sempre più globale e allargato: attualmente, i nostri programmatori e i nostri tecnici sono attivi in quattro continenti e una parte consistente del nostro fatturato proviene da clienti esteri. Continuiamo a crescere, sia in temini economici, sia in termini dimensionali. I nostri collaboratori aumentano, abbiamo aperto nuove sedi e stiamo entrando in mercati che richiedono applicazioni geospatial sempre più evolute, come i trasporti, le telecomunicazioni, l’ambiente e i beni culturali. Insomma, crisi o non crisi, continuiamo a perseguire il nostro obiettivo di fondo: confermare il trend che negli ultimi anni ci ha permesso di diventare una tra le principali realtà italiane nel settore del GIS. Non solo grazie alla buona sorte.
VENTO FREDDO. TERRENO SCIVOLOSO. UN SALTO DI 30 METRI. IN POSTI COME QUESTI SIAMO TOTALMENTE A NOSTRO AGIO. Non importa dove si sta lavorando, il nuovo ricevitore Trimble R10 GNSS misura più velocemente e più facilmente che mai. Trimble R10 utilizza una bolla elettronica per una maggiore precisione e garanzia di qualità, mentre il suo più leggero, design più ergonomico rende quei lunghi giorni sul campo molto più facile. Inoltre, offre una lunga serie di nuove tecnologie delle quali presto non potrete più fare a meno. Il nuovo ricevitore Trimble R10. Perché non sei solo fuori a misurare confini, tu li stai spingendo. Guard ail nuovo Trimble R10 su trimble.com/ R10showcase.
© 2012, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi commerciali di Trimble Navigation Limited, registrati negli. Stati Uniti e in altri paesi. Tutti gli altri sono marchi dei rispettivi proprietari. SUR-208-IT
La Prima MultiStation al mondo Quando hai solo un istante per prendere la giusta decisione, prestazioni ed affidabilità sono fondamentali. La nostra MultiStation Leica Nova MS50 unisce in un modo unico e nuovo le ultime tecnologie nel campo di misure con Stazione Totale, delle immagini digitali e della scansione laser 3D per creare una soluzione completa in grado di completare l’intero flusso di lavoro, dall’acquisizione alla visualizzazione del dato, dalla fase decisionale a quella di consegna del lavoro. co www.leica-geosystems.it/nova
Leica Geosystems S.p.A. Via Codognino, 10 26854 Cornegliano Laudense (LO) surveying@leica-geosystems.it