Rivista bimestrale - anno XVIII - Numero 5/2014 Sped. in abb. postale 70% - Filiale di Roma
La prima rivista italiana di geomatica e geografia intelligente
www.rivistageomedia.it
N°5 2014
energia del mare come valutarla ?
All'in
ter no inser to Spec iale U AV per l a geom atica
ALGORITMI SPAZIALI E RISCHIO IDRAULICO
UN MODELLO DI ANALISI DELLA PEREQUAZIONE CATASTALE
MONITORAGGIO E INDIVIDUAZIONE DI AREE POTENZIALMENTE INQUINATE
GUEST PAPER: ISTAT DATA UTILIZATION TO ENHANCE LANDSAT 8 IMAGES
SOLUZIONI INTEGRATE GIS - TELERILEVAMENTO - FOTOGRAMMETRIA Nell’ambito delle strategie del gruppo Hexagon AB, la rete commerciale e i prodotti di ERDAS sono stati incorporati in Intergraph, estendendone l’offerta e la capacità di veicolare i prodotti sul mercato attraverso un referenziato canale di distribuzione, la società Planetek Italia. Il nuovo portafoglio di soluzioni è oggi perfettamente in grado di integrare GIS, Telerilevamento e Fotogrammetria, coprendo l’intero ciclo di vita del dato: Acquisizione, Elaborazione, Gestione e Distribuzione. La nuova offerta di Intergraph fornisce una soluzione globale “GeoSpatial” a 360°: la connessione nativa e l’integrazione di complesse elaborazioni ed analisi (vector, raster e video), permette di trarre il massimo vantaggio dalle molpeplici sorgenti dell’informazione geografica, realizzando così sistemi di “REAL TIME DYNAMIC GIS”.
geospatial.intergraph.com/2013
© 2013 Intergraph Corporation. Intergraph is part of Hexagon. All rights reserved. Intergraph and the Intergraph logo are registered trademarks of Intergraph Corporation or its subsidiaries in the United States and in other countries.
Mare-matica www.rivistageomedia.it
GEOmedia, bimestrale, è la prima rivista italiana di geomatica. Da oltre 15 anni pubblica argomenti collegati alle tecnologie dei processi di acquisizione, analisi e interpretazione dei dati, in particolare strumentali, relativi alla superficie terrestre. In questo settore GEOmedia affronta temi culturali e tecnologici per l’operatività degli addetti ai settori dei sistemi informativi geografici e del catasto, della fotogrammetria e cartografia, della geodesia e topografia, del telerilevamento aereo e spaziale, con un approccio tecnico-scientifico e divulgativo. Direttore RENZO CARLUCCI direttore@rivistageomedia.it Comitato editoriale Fabrizio Bernardini, Luigi Colombo, Mattia Crespi, Luigi Di Prinzio, Michele Dussi, Michele Fasolo, Beniamino Murgante, Mauro Salvemini, Domenico Santarsiero, Donato Tufillaro Direttore Responsabile FULVIO BERNARDINI fbernardini@rivistageomedia.it Redazione redazione@rivistageomedia.it SANDRA LEONARDI sleonardi@rivistageomedia.it GIANLUCA PITITTO gpititto@rivistageomedia.it Marketing e Distribuzione ALFONSO QUAGLIONE marketing@rivistageomedia.it Diffusione e Amministrazione TATIANA IASILLO diffusione@rivistageomedia.it Progetto grafico e impaginazione DANIELE CARLUCCI dcarlucci@rivistageomedia.it MediaGEO soc. coop. Via Palestro, 95 00185 Roma Tel. 06.62279612 Fax. 06.62209510 info@rivistageomedia.it ISSN 1128-8132 Reg. Trib. di Roma N° 243/2003 del 14.05.03 Stampa: SPADAMEDIA srl VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA) Editore: mediaGEO soc. coop. Condizioni di abbonamento La quota annuale di abbonamento alla rivista è di 45,00. Il prezzo di ciascun fascicolo compreso nell’abbonamento è di 9,00. Il prezzo di ciascun fascicolo arretrato è di 12,00. I prezzi indicati si intendono Iva inclusa. L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo. La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo. Numero chiuso in redazione il 15 Dicembre 2014. Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la riproduzione anche parziale del contenuto di questo numero della Rivista in qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore. Rivista fondata da Domenico Santarsiero.
Su un recente numero di Coordinates, importante rivista internazionale del nostro settore, il professore di geodinamica dell’Università di Stoccolma, Nils-Axel Mörner, ha smentito le asserzioni del suo collega John Hannah, professore emerito di geodesia alla University di Otago in Nuova Zelanda, sostenendo che nel corso degli ultimi 150 anni il livello del mare non è aumentato in modo significativo e non ci si dovrebbe aspettare che ciò avvenga nel corso dei prossimi 100 anni. L’interesse per la controversia, superata la naturale apprensione che un’idea di innalzamento costante del livello del mare può creare, porterebbe interessanti quesiti a livello geomatico e per primo il calcolo altimetrico, la questione dell’origine convenzionale delle altezze, la cosiddetta quota zero. I sistemi di riferimento per la quota, utilizzati per la mappatura topografica e per i modelli digitali del terreno nella costruzione di infrastrutture costiere di ingegneria sono in genere riferiti al livello medio del mare. I confini catastali costieri sono anche definiti con riferimento al “datum” del livello del mare. In fin dei conti, se non c'è un costante aumento del livello del mare, a parte i danni derivati dalle tempeste e dai normali processi di erosione costiera, che hanno prevalso nel corso degli ultimi due millenni, non ci dovrebbero essere neanche problemi di variazioni costiere con inondazioni di terre a lungo termine. Il prof. Hannah sostiene che gli Oceani globalmente sono aumentati ad un tasso lineare di circa 1,8 mm all’anno nel corso del 20° secolo, basandosi su dati altimetrici satellitari e altre fonti. Ritiene inoltre che anche se rimangono discussioni e perplessità sul fatto che quest’aumento sia permanente, o rifletta invece qualche andamento oceanico periodico, o se vi sia stata un’accelerazione del tasso d’innalzamento del livello del mare nel corso degli ultimi decenni, i migliori scenari futuri indicano un probabile aumento del livello globale compreso tra 0,26 m e 0,82 per il periodo 2081-2100. Il prof. Nils-Axel Mörner invece, contesta le analisi derivate dalle misurazioni altimetriche satellitari con le osservazioni dirette, facendo notare che ci sono fenomeni di subsidenza in molte zone, come ad esempio quello conosciuto di 2,3 mm all’anno di Venezia. Nella disputa si innestano più sfide per le generazioni future se viene considerato che le Nazioni Unite indicano come problema più importante legato all'ambiente globale la relazione riguardante l'allineamento della “governance” del territorio con le sfide della sostenibilità globale. Se il cambiamento climatico di origine antropica è una finzione o, in effetti, presentasse poche minacce per il mondo del futuro, allora la sfida della sostenibilità globale diventerebbe meno imminente, dando alla specie umana più tempo per affrontare alcuni dei suoi problemi ambientali profondi. Al di là di chi abbia ragione nel dibattito, Coordinates sembrerebbe averlo sollevato senza lasciare nell’anonimato, consueto alla gran partte della letteratura attuale, la contraddizione teorica evidente, o senza volerne misconoscere la fonte, scaturita dalla capacità e potenza di calcolo analitico. Tuttavia anche l’opinionismo corrente propone ancora una volta un modello matematico! Computer contro computer.
Buona lettura, Renzo Carlucci
Conserva il piacere di sfogliare GEOmedia, sottoscrivi l'abbonamento! www.mediageo.it/abbonamenti
SOMMARIO 5 - 2014 FOCUS
6
La Geomatica per la valutazione della risorsa Energia dal Mare: progettazione e sviluppo del DSS-Web GIS “Waves Energy” di Maurizio Pollino, Luigi La Porta e Emanuela Caiaffa
10 NUOVE TECNOLOGIE SPAZIALI PER LA GESTIONE DEL
RISCHIO IDRAULICO NELLA PIANIFICAZIONE TERRITORIALE
di Laura Bassan e Gianfranco Pozzer
REPORTS
16 LA PEREQUAZIONE CATASTALE: UN MODELLO DI ANALISI
20 Integrazione fra ARCGIS e EPANET2 per la modellazione
di Bruno Monti
18
QUALCHE RIFLESSIONE SULL’INTERAZIONE FRA UNIVERSITÀ E INDUSTRIA NEL SETTORE OTTICO-MECCANICO di Attilio Selvini
idraulica delle reti
di Mario Scandura
36 PROGETTO MIAPI - MONITORAGGIO E INDIVIDUAZIONE DELLE
AREE POTENZIALMENTE INQUINATE
di Laura Petriglia, Christian Peloso e Salvatore Costabile
GUEST PAPER
42 ISTAT DATA UTILIZATION TO ENHANCE LANDSAT 8 IMAGES
CLASSIFICATION PROCESS by Stefano Mugnoli and Raffaella Chiocchini
SPECIALE UAV 24 Valutazioni metriche di piattaforme apr per rilievi e modellazioni
3D
di Mauro Lo Brutto, Alessandra Garraffa e Paolo Meli
Inserzionisti Aerrobotix CGT Codevintec Crisel Flytop Geomax Intergraph
46 14 52 32 41 31 2
Microgeo Planetek Sinergis Sistemi Territoriali Teorema Trimble
30 4 15 29 50 51
ALTRE RUBRICHE In copertina un'immagine acquisita dal satellite Landsat-8 che mostra le strutture sottomarine del Great Bahamas Bank. Si può chiaramente osservare dove le acque superficiali scendono in profondità all'interno di un'area scura nota come Tongue of the Ocean. La fossa ha avuto origine durante l'ultima Era Glaciale, quando il territorio era ancora al di sopra del livello del mare e per questo esposto all'erosione determinata dal drenaggio delle acque piovane. Una volta che l'Era Glaciale ebbe fine si verificò di conseguenza lo scioglimento dello strato di ghiaccio globale: il livello del mare si innalzò e le acque inondarono la fossa.
31 MERCATO 41 RECENSIONE 47 GI IN EUROPE 48 SMART CITIES 50 AGENDA
FOCUS
La Geomatica per la valutazione della risorsa Energia dal Mare: progettazione e sviluppo del DSS-WebGIS “Waves Energy” di Maurizio Pollino, Luigi La Porta e Emanuela Caiaffa
Le tecnologie GIS sono in grado di fornire un utile strumento per la stima della risorsa energia dal mare, valutando sia se questa energia è sfruttabile, sia gli impatti sulle realtà sociali ed ambientali presenti in mare aperto e/o nell’ambiente costiero.
Il DSS-WebGIS “Waves Energy” costituisce uno strumento per la rappresentazione dei dati e delle informazioni territoriali, la loro condivisione con utenti esterni è un valido supporto alla pianificazione delle nuove installazioni, al sistema previsionale ed alla gestione delle infrastrutture esistenti.
N
ell’ambito delle attività relative al progetto “Ricerca di Sistema Elettrico”, frutto di un accordo programmatico tra il Ministero dello Sviluppo Economico e l’ENEA, è stata sviluppata un’applicazione web di tipo GIS-based, denominata “Waves Energy”. Concepita per la condivisione e fruizione di dati geografici di tipo marino e costiero, tale applicazione si configura come uno strumento per la stima della risorsa energia dal mare.
Fig. 2 - Interfaccia del WebGIS “Waves Energy”.
Il WebGIS è raggiungibile all’indirizzo: http://utmea.enea.it/energiadalmare/. L’applicazione è stata realizzata ricorrendo ad ambienti di sviluppo di tipo free/open source (FOSS), che comprendono un insieme di soluzioni applicative adatte agli scopi suddetti ed implementabili nel contesto di in una piattaforma ben integrata e di agevole utilizzo. Questa soluzione ha permesso di pubblicare su Web le informazioni geospaziali di interesse (mappe te-
matiche e layer di tipo marino e costiero), secondo gli standard previsti dall’Open Geospatial Consortium (OGC-www.opengeospatial.org/), mediante una serie di specifiche funzionalità per la visualizzazione e la consultazione delle mappe tematiche in un framework concepito su misura per l’applicazione “Waves Energy”. OBIETTIVI DEL LAVORO Il WebGIS “Waves Energy” è stato progettato ed implementato con l’obiettivo di archiviare e gestire dati geografici e territoriali relativi alle aree marine e costiere di interesse e, quindi, fornire supporto nella stima della risorsa energia dal mare, valutando sia se questa energia è sfruttabile, sia gli impatti sulle realtà sociali ed ambientali presenti in mare aperto e/o nell’ambiente costiero. I dati geospaziali di base e le mappe elaborate sono stati archiviati e gestiti in un repository, strutturato ad hoc. In tal modo, il WebGIS costituisce la naturale interfaccia geografica del Sistema di Supporto alle Decisioni (DSS) previsto nel progetto: le informazioni territoriali di base e le mappe ela-
Fig. 1 - Schema architetturale dell’applicazione WebGIS “Waves Energy”.
6
GEOmedia n°5-2014
FOCUS borate possono essere visualizzate ed interrogate via web, tramite un comune browser internet o tramite dispositivi mobili (ad esempio, i tablet), ed in tal modo i principali risultati prodotti sono stati resi fruibili in maniera open ed accessibili on-line. Gli obiettivi specifici del DSSWebGIS “Waves Energy” sono: 4Delineare e caratterizzare il territorio marino e costiero oggetto di studio ed analisi; 4Supportare l’analisi integrata delle aree di interesse, congiuntamente all’individuazione di specifici indicatori ambientali, per le fasi connesse alla progettazione di nuovi impianti; 4Fornire supporto al sistema di previsione e monitoraggio; 4Condividere dati, mappe e informazioni mediante il Web. Tali funzionalità hanno richiesto una gestione avanzata ed integrata di: 4dati geo-spaziali di base necessari alla caratterizzazione del territorio marino e costiero di interesse, nelle sue diverse componenti naturali ed infrastrutturali; 4dati geo-spaziali elaborati a supporto della gestione, della pianificazione, della previsione meteomarina, etc. Tra i vantaggi legati all’utilizzo della tecnologia WebGIS vi sono: 4la condivisione globale di informazioni geografiche e dati geospaziali; 4la facilità d’uso da parte dell’utente (il WebGIS è utilizzabile attraverso i comuni browser internet); 4la diffusione in rete e la capacità di raggiungere una platea più vasta di fruitori.
Fig. 3 - Forecasting: Sovrapposizione GIS delle mappe tematiche relative all’altezza ed alla direzione delle onde, con relativo grafico orario giornaliero.
dei dati di base, nonché per la loro elaborazione geo-statistica. In questo contesto, un ruolo fondamentale è quello svolto dai dati provenienti dalle simulazioni effettuate con i modelli numerici oceanografici (modello WAM su tutto il bacino del Mediterraneo): tali dati, prodotti sotto forma di file in formato NetCDF (Network Common Data Form- http://www. unidata.ucar.edu/software/netcdf/ ), tramite opportune elaborazioni, sono stati trasformati in un formato GIS compatibile (Esri shapefile, .shp) e resi disponibili per le successive fasi operative. Quindi, per implementare adeguatamente il WebGIS in oggetto, è stata adottata un’architettura Client-Server per l’interscambio dei dati geospaziali attraverso il Web, avvalendosi di pacchetti software FOSS e conferendo al tutto caratteristiche di originalità e versatilità applicativa.
L’architettura logica del WebGIS è riportata nella Figura 1 e si articola nella seguente catena operativa: 4Repository Dati -> Web Server (GeoServer) -> Libreria (OpenLayers) -> Map Viewer (WebGIS) Il Repository Dati individua l’area di archiviazione che contiene l’insieme dei dati da utilizzare (in formato GIS) e che consentono l’accesso unicamente agli apparati definiti fisicamente a livello della Storage Area Network, in modo da garantire l’assoluta integrità e coerenza degli stessi. Per Web Server si intende l’insieme hardware/software che consente al sistema di organizzare le informazioni e renderle fruibili alla rete. Nel caso in oggetto si è scelto di utilizzare GeoServer (http://geoserver.org/display/ GEOS/Welcome).
Fondamentale, pertanto, diviene l’utilizzo di tale approccio GIS come strumento di supporto ai processi decisionali e di pianificazione, ossia come componente di un sistema più articolato e complesso quale il summenzionato DSS, a supporto dell’utilizzo della risorsa energia dal mare. METODOLOGIA E ARCHITETTURA DELL’APPLICAZIONE DSS-WEBGIS “WAVES ENERGY” Una fondamentale fase preliminare ha visto il ricorso a procedure ed algoritmi GIS di analisi spaziale (geoprocessing), per l’elaborazione, l’omogeneizzazione e l’organizzazione visita il sito www.rivistageomedia.it
Fig. 4 - Mappe di forecasting: subset l’area di interesse della costa sarda occidentale.
7
FOCUS Esso è un consolidato applicativo server open source, che svolge la funzione di nodo nell’infrastruttura SDI (Spatial Data Infrastructure) implementata e permette di condividere e gestire (secondo differenti privilegi di accesso) gli strati informativi archiviati nel proprio repository. Inoltre, supporta l’interoperabilità (legge e gestisce vari formati di dati raster e vettoriali). In considerazione di queste caratteristiche Geoserver è stato sfruttato per gestire i layers (mappe tematiche, strati informativi di base, etc.) archiviati nella banca dati geospaziale realizzata nel corso delle attività e per la loro successiva pubblicazione in rete secondo gli open standard previsti dall’Open Geospatial Consortium (OGC), quali - ad esempio - il Web Map Service (WMS- http://www. opengeospatial.org/standards/wms). OpenLayers (http://www.openlayers. org/) è una libreria JavaScript di tipo Open Source per visualizzare mappe interattive nei browser web. OpenLayers offre una cosiddetta Application Programming Interface (API) per poter accedere a diverse fonti di informazioni cartografiche in Internet come: WMS, WFS, mappe di tipo commerciale (Google Maps, Bing, etc.), diversi formati vettoriali, mappe del progetto OpenStreetMap, etc. Per quanto riguarda l’utilizzo del WebGIS, l’utente (non necessariamente dotato di specifiche conoscenze GIS) attraverso un normale browser web può visualizzare le mappe che rappresentano i risultati prodotti nell’ambito delle attività progettuali. In particolare, per la visualizzazione dei dati di interesse, si è fatto ricorso allo standard WMS, per
Fig. 6 - Tematismo dei valori medi di energia nel decennio di osservazione (2001-2010) e relativi grafici per le coste della Sicilia.
mezzo di un approccio di tipo mapserver che consente di produrre mappe tematiche di dati georeferenziati e rispondere a query di base sul contenuto delle mappe stesse. FUNZIONALITÀ DELL’APPLICAZIONE “WAVES ENERGY” L’applicazione “Waves Energy” rende disponibili varie funzionalità di base tipiche dei WebGIS, come zoom, pan, trasparenza, misure lineari ed areali, etc. (Figura 2). Inoltre, cliccando su un punto qualsiasi del layer selezionato, vengono mostrate le informazioni o gli attributi quantitativi relativi al punto prescelto (inquiry). I dati esposti dal WebGIS possono essere raggruppati, in base alle loro caratteristiche e specifiche, in tre di-
Fig. 5 - Mappa tematica dell’energia delle onde ricavata dai dati climatologici (2001-2010).
8
stinte tipologie: a) Previsioni (“Forecasting”) b) Serie storiche (“Climatology”) c) Strati informativi di base (“Other Layers”) I primi, disponibili per tutto il Mediterraneo (con risoluzione spaziale circa 3 km, 1/32 di grado), forniscono la previsione a 5 giorni, ad intervalli orari, delle seguenti grandezze fisiche: Energia delle onde (Wave Energy); Altezza delle onde (Wave Height), Direzione delle onde (Wave Direction), Periodo (Wave Period). Ad esempio, per gli strati informativi di tipo previsionale del moto ondoso (altezza, direzione, etc.), selezionando un punto d’interesse sulla mappa è possibile ottenere uno specifico grafico che mostra l’andamento temporale delle variabili selezionate nel corso dei successivi cinque giorni, ad intervalli orari (Figura 3). Inoltre, questi stessi dati sono disponibili e visualizzabili in maggior dettaglio per alcune sotto-aree di interesse (Figura 4). I dati indicati al precedente punto b), invece, sono ricavati da serie storiche e sono relativi al potenziale energetico da onde e contengono i valori medi di energia in kW/m nel periodo 20012010, suddivisi anche per periodi trimestrali (Figura 5). Tali layer tematici sono, ovviamente, raggruppati alla voce “Climatology” dell’applicazione WebGIS. In particolare nel WebGIS sono stati inseriti anche i dati per tutto il Mediterraneo e lungo le coste italiane per una fascia di 12 Km (Figura 6). Nella terza categoria, infine, sono rag-
GEOmedia n°5-2014
FOCUS
Fig. 7 - Visualizzazione delle Aree Marine Protette in Italia (fonte dato GIS: SINANET) e dei principali porti italiani. Tematizzazione della batimetria (fonte: GEBCO) e della distanza dalla costa.
gruppati tutta una serie di dati geospaziali ed informazioni territoriali/ ambientali di base, quali informazioni tematiche accessorie, a complemento delle precedenti per un migliore inquadramento geografico e tematico. Le più importanti sono: Batimetria del Mediterraneo (fonte: GEBCO - General Bathymetric Chart of the Oceans: http://www.gebco.net/ data_and_products/gridded_bathymetry_data/); Subset della Batimetria compresa tra 0 e 200 m; Fasce di distanza dalla costa: 0-25 km e 25-50 km (layer ricavati appositamente dai dati GEBCO); Porti principali; Aree Marine Protette Italiane (fonte: SINANET) come mostrato nella Figura 7. CONCLUSIONI È universalmente riconosciuta la capacità delle mappe digitali di offrire una visione d’insieme di fenomeni ambientali, contribuendo attraverso opportune descrizioni e tematizzazioni alla comprensione degli stessi, nonché alle relazioni che li legano tra loro e con altre entità compresenti. Le attività descritte nel presente studio si sono concretizzate nello sviluppo di una specifica applicazione DSSWebGIS, finalizzata alla pubblicazione delle cosiddette mappe/layer tematici di previsione (forecasting) e di serie storiche climatiche (climatology) elaborate, nonché nella realizzazione di una condivisione in rete delle informazioni geospaziali utilizzate e di quelle prodotte. Le mappe tematiche prodotte sono in grado non solo di mostrare una serie di informazioni e dati di interesse, ma anche di rappresentare uno strumento a supporto delle politiche di gestione e monitoraggio legate all’utilizzo della risorsa energia dal mare.
visita il sito www.rivistageomedia.it
RINGRAZIAMENTI Le attività descritte nel presente articolo rappresentano uno dei risultati conseguiti nell’ambito del Progetto “Ricerca di Sistema Elettrico” (Piano Annuale di Realizzazione 2013-2014), promosso dall’Accordo di Programma tra il Ministero dello Sviluppo Economico e l’ENEA (Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile). Gli autori desiderano ringraziare tutti i colleghi con cui hanno condiviso lo svolgimento delle suddette attività ed, in particolare, Gianmaria Sannino (referente ENEA per le attività progettuali), Adriana Carillo ed Emanuele Lombardi.
BIBLIOGRAFIA - Caiaffa E., Borfecchia F., Carillo A., La Porta L., Pollino M., Liberti L., Sannino G.: “Tecnologie GIS per la valutazione della risorsa energia dal mare”, Atti della 17.ma Conferenza Nazionale ASITA, Riva del Garda 5-7 Novembre 2013 - Caiaffa E. et al.: “Energia dal mare: modelli numerici e GIS per la valutazione 2013del potenziale energetico”. GEOmedia, 15(6), 2012 - Bargagli, A. Carillo, V. Ruggiero, P. Lanucara, G. Sannino, “Modello di onde per l’area mediterranea” http://www.enea.it/it/Ricerca_sviluppo/ricerca-di-sistema-elettrico/correnti-marine - Zambresky L. and Ewing J.A.: “The WAM model - a third generation ocean wave prediction model”, J. Phys. Ocean. 18, 1775 – 1810, 1988 - Janssen P. and Bidlot J.R.: “ECMWF Wave Model Operational - implementation 9 April 2002”, IFS Documentation Cy25R1 PAROLE CHIAVE
energie rinnovabili; GIS; energia dal mare; sviluppo sostenibile; supporto alle decisioni
ABSTRACT GIS methodologies and technologies are able to provide useful tools for the assessment of sea-waves energy potential, by evaluating both the exploitability of such resource, both the environmental/social impacts in open sea and/or in the coastal areas. The DSS-WebGIS application developed (called "Waves Energy") is a tool for providing and publishing different geospatial data, sharing information with a wide range of external user, in order to support specific tasks, such as forecasting, new installations planning and existing infrastructures management. AUTORI Maurizio Pollino maurizio.pollino@enea.it Luigi La Porta luigi.laporta@enea.it Emanuela Caiaffa emanuela.caiaffa@enea.it ENEA UTMEA - Centro Ricerche della Casaccia, Via Anguillarese, 301, 00123, Roma
9
FOCUS
NUOVE TECNOLOGIE SPAZIALI PER LA GESTIONE DEL RISCHIO IDRAULICO NELLA
PIANIFICAZIONE TERRITORIALE di Laura Bassan e Gianfranco Pozzer
Lo scopo dello studio è quello di dimostrare, come e quanto, l'urbanizzazione e l'impermeabilizzazione del suolo possono cambiare le prestazioni idrauliche di una data geomorfologia. il territorio dell'ex
Consorzio di Bonifica Medio Astico Bacchiglione; un
test specifico è stato effettuato al
Comune di Thiene in Provincia di Vicenza.
L’
ausilio di un apposito algoritmo spaziale ha permesso di testare la correlazione tra variazioni di uso del suolo e coefficienti di deflusso. Il test, eseguito a scala di bacino idraulico, è stato effettuato con l’uso del GIS nel comprensorio dell’ex Consorzio di Bonifica Medio Astico Bacchiglione. Il modello statistico consente di correlare, per pattern d’uso territoriale, i coefficienti di deflusso alla morfologia del terreno. In associazione alle funzioni di direzione ed accumulo (hydrology tools di ArcGIS), la metodologia restituisce le dinamiche di deflusso superficiale e la stima degli impatti idraulici per variazione d’uso rispetto a due date di riferimento (1954 e 2006). I risultati possono orientare le politiche di riqualificazione e restauro territoriale in un periodo di crescenti criticità. OBIETTIVI DEL CASO STUDIO Azioni antropiche ed eventi naturali contribuiscono alla definizione contestuale di rischio. Gli effetti derivanti dalla relazione fra le due componenti sono spesso gestiti in modo settoriale. Nel calcolo del rischio idraulico, ad esempio, si tende a privilegiare la dimensione idrogeologica, con una gestione parziale del territorio. Ciò si evince in particolare dalla lettura dei quadri conoscitivi di pianificazione territoriale e dalla carenza di modelli empirici sulle relazioni tra dimensione idraulica e dinamiche di contesto (cambiamenti climatici, morfologie insediative, inquinamento, deforesta-
10
L'area di analisi comprende
zione, ecc.). Mappe istituzionali, come quelle fornite dal Piano Stralcio per l’Assetto Idrogeologico (PAI), si limitano ad una valutazione delle dinamiche di bacino, nonostante studi empirici evidenzino la correlazione esistente tra coefficienti di deflusso delle acque, processi di urbanizzazione e di uso del suolo (Bassan e Pozzer, 2011 e Fig. 1 - Localizzazione del comprensorio dell’ex Consorzio di 2013; EPA, 2009; Pistocchi, Bonifica Medio Astico Bacchiglione su modello hillshade da 2001, Van Der Plog et al., DTM (passo 25 m) della provincia di Vicenza. 2002). Questa correlazione è influenzata dall’intensificarsi del ci- co, idraulico, ecologico e insediativo, clo idrologico globale, con picchi di consente di riconoscere gradienti di piena più elevati, ma di durata più vulnerabilità ed esposizione. Le due breve (Huntington, 2006). Il concetto componenti del rischio sono variabili di rischio richiede un aggiornamen- di stato e possono essere trattate in to, affiancando le informazioni cor- un modello di analisi multiscalare e renti sull’idraulica alle caratteristiche multitemporale assieme alla pericogeomorfologiche e di uso del suolo losità (stressor). Il prodotto logico fra rappresentate con innovative tecno- le tre componenti consente una raplogie di remote sensing e analisi dei presentazione integrata e continua dati spaziali in ambiente GIS. Tale del rischio, con l’evidenza degli usi approccio dimostra come le nuove maggiormente impattanti e la misutecnologie di gestione del territorio razione della salute idraulica del tercontribuiscano a perfezionare i qua- ritorio (monitoraggio). L’obiettivo è dri conoscitivi e gli scenari di trasfor- contestualizzare e parametrizzare il rischio idraulico in ambienti diversamazione. ArcGIS consente l’impiego di un algo- mente urbanizzati, allo scopo di forritmo di correlazione e associazione nire le conoscenze necessarie per la tra tipi di uso del suolo e funzioni di messa in atto di strategie di valutaziodirezione e accumulo dell’acqua, con ne del danno, di compensazione, ma lo scopo di stimare, in aree campione, anche di adattamento e mitigazione. i livelli incrementali di impermeabilizzazione e i relativi impatti idraulici. La correlazione, forzata su scala idraulica, ed in associazione ai pesi delle variabili ambientali di tipo morfologiGEOmedia n°5-2014
FOCUS NUOVE TECNOLOGIE PER LA GESTIONE DEL RISCHIO IDRAULICO L’esperienza qui discussa evidenzia l’efficacia del dato multifonte per una corretta modellizzazione del rischio idraulico nella pianificazione territoriale. Affinché l’algoritmo restituisca un modello di analisi affidabile, è necessario che i quadri conoscitivi siano aggiornati con approcci di lettura transcalare e multitemporale. Nella costruzione di un modello conoscitivo innovativo, l’uso della sensoristica, integrata a diverse tecnologie di rete (wireless, cablata, ecc.), permette di conoscere le dinamiche territoriali sia sulla base di misure e rilievi sistematici o occasionali, sia sulla base di opinioni. Il territorio diventa così un generatore di informazione. Ciò tende ad irrobustire strategie di pianificazione e forme di auto-organizzazione in ottica Smart City, migliorando la comunicazione e la trasparenza delle informazioni tra soggetti, tra oggetti (internet delle cose) e tra entrambi i gruppi. In un contesto ICT, da anni in costante sviluppo, anche l’intera società può divenire intermediaria di informazioni, producendo risposte real time al susseguirsi temporale degli eventi (p.es. Sterling, 2006). Ciò permette una meno deterministica definizione del rischio e una caratterizzazione sociale della interoperabilità. AREA DI STUDIO Il test è stato eseguito nel comprensorio dell’ex Consorzio di Bonifica Medio Astico Bacchiglione (Provincia di Vicenza), ora parte del Consorzio di Bonifica Alta Pianura Veneta (Figura 1). Le motivazioni che hanno condotto alla scelta dell’area di studio sono:
1) la
costante e continua criticità idraulica che interessa il territorio vicentino (alluvione 2010 ed esondazioni recenti); 2) la disponibilità di materiali ed informazioni derivanti da analisi e monitoraggi sulla compatibilità idraulica nel territorio di competenza dell’ex Direzione Distretto Bacino Idrografico Brenta e Bacchiglione – Genio Civile di Vicenza, ora Sezione Bacino idrografico Brenta-Bacchiglione – Sezione di Vicenza, per gli anni 2007 e 2008; 3) le caratteristiche di bacino idraulico dell’ex territorio consortile. Un affondo è stato eseguito per il Comune di Thiene (VI).
visita il sito www.rivistageomedia.it
ALGORITMO SPAZIALE PER L’ANALISI DEL RISCHIO IDRAULICO: METODOLOGIA Con apposito algoritmo è possibile stimare l’impatto che la pressione antropica esercita sul regime idraulico del territorio campione. La funzione utilizzata per la stima degli impatti è la seguente:
Fig. 2 Funzione di direzione per l’ex Consorzio di Bonifica Medio Astico Bacchiglione a partire da DTM passo 5 m.
idraulici è la seguente:
con P, coefficiente di deflusso calibrato sul profilo d’uso del suolo, compresi la tipologia di terreno, l’armatura eco-sistemica (naturale e artificiale) e il contesto di riferimento (clima, geografia, fragilità ecc.). Il suffisso u indica l’uso del suolo in İ. Nello specifico i seguenti parametri indicano: P= coefficiente di deflusso associato ad aree impermeabili (0,9 - per la stima dei coefficienti di deflusso sull’intero range si veda l’allegato A della Dgr n. 2948 (Regione del Veneto) del 6 ottobre 2009 “Valutazione di compatibilità idraulica per la redazione degli strumenti urbanistici. Modalità operative e indicazioni tecniche”), P°= coefficiente di deflusso associato ad aree permeabili (0,2), F= accumulo di flusso calcolato su modello digitale del terreno ad alta precisione (DTM con passo di griglia 5 m), Fu= accumulo di flusso correlato all’uso del suolo (DBCS 2006 della Regione del Veneto, topologicamente corretto in scala 1:10000). Il valore assegnato a P è strategico, in quanto la sua correlazione con l’accumulo di flusso F restituisce gli impatti idraulici φİ. Il valore di tale correlazione indica la % di pioggia che si trasforma in deflusso superficiale (range da 0,2 a 0,9). Il procedimento, calibrato a scala di bacino, è cumulativo. Per eseguire correttamente l’associazione sono necessari alcuni passaggi in ambiente GIS. Il metodo prevede, in primo luogo, di forzare il sistema idrografico del Quadro Conoscitivo della Regione del Veneto sul DTM. Attraverso lo strumento hydrology tools (ArcMap) vengono eseguite le funzioni di direzione (Figura 2) e accumulo dell’acqua. Il processo viene considerato in territorio non urbanizzato (DTM non pesato, impatto 0) e in territorio urbanizzato (DTM pesato, con impatto non nullo). Il peso è dato dai coefficienti di deflusso calibrati a seconda degli usi del suolo, o gra-
do di impermeabilizzazione (DBCS 2006), e dalle diverse tipologie di terreno (Carta delle litologie e Carta dei suoli del Quadro Conoscitivo della Regione del Veneto). A partire dai risultati, la stima viene effettuata con raster calculator, generando l’impatto idrologico dell’impermeabilizzazione φİ nella unità spaziale İ (Figura 3). L’analisi consente non solo di quantificare il rischio, ma di capire quali usi abbiano modificato maggiormente l’equilibrio idraulico con effetti su esposizione e vulnerabilità. Ciò facilita l’attivazione di azioni di contenimento entro livelli di rischio accettabili. CASO STUDIO: COMUNE DI THIENE (VI) Il test si basa sullo sviluppo di riprese aerofotogrammetriche e ortofoto di-
Fig. 3 - Impatti sul sistema idraulico relativi all’uso del suolo all’anno 2006 (DBCS 2006): comprensorio dell’ex Consorzio di Bonifica Medio Astico Bacchiglione.
11
FOCUS
Fig. 4 - Comune di Thiene: impatti sul sistema idraulico relativi all’uso del suolo per gli anni 1954 e 2006.
gitali per l’analisi multiscalare e multitemporale delle dinamiche di uso del suolo (Fotogrammi GAI 1954-1955, ortorettificati e sottoposti ad una successiva operazione di mosaicatura; Ortofoto IT2000 NR, 2006-2007). Con questa analisi è possibile individuare come gli usi del territorio siano variati nel corso degli ultimi cinquant’anni. Il metodo consente una visione sistemica del bacino e mette in luce come i cambiamenti di uso del suolo siano determinanti per gli impatti sul sistema idraulico. Gli impatti dell’urbanizzato, riferiti al 1954 e al 2006, sono stati calcolati utilizzando per l’anno 1954 i fotogrammi del volo GAI, per il 2006 il DBCS e le ortofoto (Figura 4). Per meglio evidenziare le differenze tra le due annate (1954-2006) i coefficienti di deflusso sono stati standardizzati, in modo da renderli con-
frontabili. I risultati mostrano come il coefficiente di deflusso medio sia aumentato nel cinquantennio di riferimento, segnalando un notevole peggioramento della salute idraulica (Figura 5). Per l’anno 1954 era pari a 0,38, mentre nel 2006 è salito a 0,58. La Figura 6 mostra la variazione nella distribuzione dei pixel, rispetto ai coefficienti di deflusso, per le due annate. Dalla lettura comparata dei grafici, si può notare come il coefficiente 0,4, il più frequente nell’anno 1954, sia calato enormemente nell’anno 2006. Aumenta invece il coefficiente 0,8, trascurabile per la prima annata. Questo spiega il passaggio da una distribuzione unimodale per il 1954 ad una bimodale per il 2006. Gli usi che maggiormente hanno contribuito al cambiamento sono stati il tessuto urbano discontinuo denso, la rete
Fig. 5 - Variazione netta (2006-1954) dei coefficienti di deflusso, e quindi degli impatti, dall’anno 1954 all’anno 2006. Lo 0 indica assenza di cambiamento, mentre gli altri valori indicano la variazione (differenza) del coefficiente nel periodo.
12
infrastrutturale e le aree industriali e commerciali. I cambiamenti tra le due annate hanno causato una riduzione delle aree permeabili (agricole) di circa il 30%. La figura 7 specifica le variazioni per usi commerciali e produttivi. Queste variazioni d’uso, causando consumo di suolo e crescente impermeabilizzazione, sottraggono vie di fuga all’acqua meteorica, con incremento dell’onda di piena e della portata del corpo idrico ricevente. Aree industriali e commerciali, essendo nella loro quasi totalità impermeabili, rendono difficile la realizzazione di opere di compensazione idraulica per filtrazione, anche in presenza di schemi di drenaggio. Per ripristinare un grado di permeabilità accettabile è necessario operare non solo in termini di uso del suolo, ma anche di copertura (p.es. riduzione del volume idrico in rete attraverso strategie di invaso, drenaggio, riciclo e riuso). Nelle aree ad uso residenziale, invece, la gestione dei deflussi superficiali sembra più governabile. Ciò è dovuto ad un innesto morfologico più frammentario. I due casi sono identificabili in Figura 8. RILETTURA DEGLI IMPATTI ATTRAVERSO NEIGHBORHOOD STATISTICS Con l’aiuto di neighborhood statistics gli impatti al 2006 sono stati standardizzati. Ciò ha consentito di elaborare una cartografia per aree a diversa criticità idraulica (Figura 8) che potrebbe condurre ad una specifica del PAI su scala comunale e qualificare eventuali piani delle acque. La zonizzazione indica, in caso di eventi pluviometrici di una certa intensità, dove e con che grado di pericolosità si potrebbero verificare situazioni di allagamento. La mappa mostra in modo dinamico le difficoltà idrauliche di un certo territorio in relazione al suo bacino di appartenenza. Al variare di uno dei parametri usati nel modello la cartografia riproduce in tempo reale il cambiamento avvenuto. Le politiche di mitigazione del rischio idraulico, costruite con l’ausilio della zonizzazione, possono essere trattate anche in un’ottica di adattamento ai cambiamenti climatici. CONCLUSIONI Il contributo mette in evidenza come l’uso delle nuove tecnologie possa fornire elementi utili per la valutazione dei processi di urbanizzazione in termini di variazioni del rischio e per la costruzione di scenari a supporto della pianificazione e del governo
GEOmedia n°5-2014
FOCUS del territorio. L’algoritmo utilizzato contribuisce alla costruzione di un sistema delle conoscenze territoriali che permette di contestualizzare il rischio idraulico. La zonizzazione agevola la comunicazione di una problematica diversamente percepita dalle comunità. Anche il non esperto può diventare consapevole e parte critica nelle decisioni territoriali.
Fig. 6 - Distribuzione di frequenza dei pixel classificati per coefficienti di deflusso (impatti idraulici), 1954 e 2006.
AMBITO DEL LAVORO Il lavoro restituisce parte di un’attività di ricerca iniziata con la redazione della tesi di Laurea specialistica in Pianificazione della città e del territorio, Università IUAV di Venezia, 2011 (relatori: proff. Domenico Patassini e Antonio Rusconi) e proseguita con attività di formazione e consulenza. Le fasi successive prevedono di estendere i test nei comuni del pedemonte vicentino, perfezionando un indice di impatto relativo da utilizzare nei processi di riequilibrio idraulico (invarianza idraulica) dei bacini di appartenenza. Si prevede un’applicazione della metodologia agli impatti idraulici dell’Autostrada Pedemontana Veneta (APV). Il monitoraggio dei fattori che influenzano P è determinante.
Fig. 7 - Aree industriali e commerciali al 2006 e ripartizione al 1954.
Fig. 8 – Riclassificazione areale degli impatti al 2006: esempi di probabili criticità nel Comune di Thiene, a) – aree residenziali, b) – aree industriali.
visita il sito www.rivistageomedia.it
13
FOCUS
RINGRAZIAMENTI Il lavoro è stato discusso e sviluppato con il contributo e la review del prof. Domenico Patassini (Università Iuav di Venezia). Per la collaborazione, la messa a disposizione delle banche dati territoriali della Regione Veneto e per gli importanti supporti tecnicoscientifici, si ringraziano l’ing. Maurizio De Gennaro (direttore della Sezione Pianificazione Territoriale Strategica e Cartografia, Regione del Veneto) e l’arch. Sandro Baldan (Posizione Organizzativa “Pianificazione e coordinamento Piani Provinciali”, Sezione Pianificazione Territoriale Strategica e Cartografia, Regione del Veneto).
14
BIBLIOGRAFIA Australian Government, Departement of Climate Change and Energy Efficiency (2010), Climate Change adaptation actions for local government Bassan L., Pozzer G. (2011), Vincolo di invarianza idraulica e pianificazione del territorio: prove di zonizzazione in provincia di Vicenza, in La Loggia G., Paletti A., Becciu G., Freni G., Sanfilippo U. (a cura di), Acqua e Città 2011 - Pianificazione, Protezione e Gestione, Milano: Centro Studi Idraulica Urbana, pp. 75-76 Bassan L., Pozzer G. (2013), Invarianza idraulica e consumo di suolo: prove di zonizzazione per la mitigazione del rischio idraulico e l’adattamento dei processi di piano in Italia e Germania, in Musco F., Zanchini F. (a cura di), Le città cambiano il clima, Venezia: Corila, pp. 28-34 Compagnia Generale Ripreseaeree di Parma – CGR (2007), Ortofoto IT2000 NR 2006-2007 (Concessione della Regione del Veneto) EPA (2009), Land-Use Scenarios: National-Scale Housing-Density Scenarios Consistent with Climate Change Storylines Huntington T.G. (2006), Evidence for intensification of the global water cycle: Review and synthesis, in Journal of Hydrology, volume 319,1-4, pp. 83-95 Istituto Geografico Militare (IGMI) di Firenze (1955), Fotogrammi GAI 1954-1955 (Concessione della Regione del Veneto) Pistocchi A. (2001), La valutazione idrologica dei piani urbanistici: un metodo semplificato per l’invarianza idraulica dei piani regolativi generali, in Ingegneria Ambientale, volume XXX, 7/8, pp 407- 413 Regione del Veneto, Quadro Conoscitivo L.R. 11/2004 Regione del Veneto, Servizio Cartografico, Segreteria Regionale al Territorio (2002), Repertorio aerofotogrammetrico del Veneto,Parma: Grafiche STEP Regione del Veneto (2007), DBCS Copertura del suolo della Regione Veneto progetto GSE Land – Urban- Atlas: utilizzo delle banche dati territoriali del SIT della Regione Veneto, 2006 Schreider S.Y., Smith D.I., Jakeman A.J. (2000), Climate change impacts on urban flooding, Climatic Change, 47, pp. 91-115 Sterling B. (2006), La forma del futuro, Milano: Apogeo Van Der Plog R., Machulla R. et al. (2002), Changes in land use and the growing number of flash floods in Germany, in Steenvoorden J., Claessen F., Willems J. (ed. by), Agricultural Effects on Ground and Surface Waters: Research at the Edge of Science and Society, Wallingford: IAHS Press, pp. 317-322
PAROLE CHIAVE Tecnologie spaziali; gestione
del rischio idraulico;
pianificazione territoriale
ABSTRACT The aim of the study is to show, how and how much, urbanization and soil sealing can change the hydraulic performance of a given geomorphology. The analysis area includes the territory of the ex Consortium for Land Reclamation Medio Astico Bacchiglione; a specific test was performed to Municipality of Thiene (Province of Vicenza). Thanks to a dedicated spatial algorithm developed with ArcGis it was possible to correlate, per pattern of land use, the runoff coefficients at the digital terrain model (DTM). The implementation of the functions of direction and accumulation (hydrology tools), has allowed to study the behaviour of the superficial runoff and to evaluate the hydrological impacts per use change, of two reference periods (1954 and 2006). The test generates the risk mapping. Areas at different vulnerability and exposure are identified with tool focal statistics. Referred to them are the spatial planning strategies on watershed scale. The algorithm in GIS environment allows to manage flood risk with multiscale and multitemporal analysis of the dynamics of land use, and to estimate the incremental levels of soil sealing and cumulative impacts. Hazard and risk are managed with a complete overview of the problem; it allows to check, in time, the uses at high impact and the health risk. The obtained results support the urban regeneration policies and the territorial development. AUTORE Laura Bassan laurabassan84@gmail.com Urbanista, consulente in Sistemi Informativi Territoriali e Nuove tecnologie. Gianfranco Pozzer gianfranco.pozzer@gmail.com Urbanista, dottorando di ricerca in Architettura, città e design, curriculum Nuove tecnologie per il territorio, la città e l’ambiente, Università IUAV di Venezia; già collaboratore presso la Regione del Veneto – Sezione Pianificazione Territoriale Strategica e Cartografia.
GEOmedia n°5-2014
REPORTS
LA PEREQUAZIONE CATASTALE: UN MODELLO DI ANALISI di Bruno Monti
Il progetto restituisce il grado di qualità del classamento catastale cittadino determinato dall’indice di scostamento tra il classamento reale rispetto al
classamento atteso.
L’elaborazione è stata eseguita sull’intero stock edilizio
catastale ordinario (categoria
I
A0* e C0*) composto da circa 1.200.000 unità
l presente studio ha lo scopo di verificare e quantificare lo scostamento tra il valore fiscale delle singole unità immobiliari urbane (UIU) e il campionamento (OMI) del più probabile valore commerciale delle medesime unità. La determinazione e la quantificazione dello scostamento determina di fatto il grado di qualità e di attendibilità valutativa dello stock edilizio catastale ricadente entro i limiti del territorio milanese. Probabilmente le attuali istanze e studi di rivisitazione globale del tema catastale, iscrivibili alla voce “Riforma del Catasto”, sottoporranno le logiche e gli apparati normativi di supporto a una totale e drastica elaborazione, sganciandosi dall’attuale concetto di stima parametrica (vani, mq., mc.) alla stima per mq. commerciali legando, con ciò, al dimensionamento dell’unità il più probabile valore commerciale che ad oggi è rilevato dall’Osservatorio del Mercato Immobiliare (OMI) in capo all’Ufficio del Territorio dell’Agenzia dell’Entrate. Il compendio restituisce una fotografia sul classamento catastale cittadino, non
Fig. 1 - Le 55 microzone OMI.
16
immobiliari urbane.
rilevando le ampie e profonde trasformazioni urbane che nell’ultimo decennio hanno contribuito ad amplificare il superamento dei limiti delle microzone attuali e portando alla ribalta la necessità di intervenire in modo puntuale sulla completa riorganizzazione delle microzone catastali e, in taluni casi, anche al superamento delle stesse. Tale necessità scaturisce dalla forte dipendenza che l’erario statale, da una parte, e il plafond tributario comunale, dall’altra, rilevano sullo stock edilizio catastale e il suo collegamento con la perequazione fiscale per la corretta applicazione sotto l’egida dell’equità e della corretta valorizzazione immobiliare. Tale studio mette in evidenza gli ambiti territoriali, le categorie catastali e i classamenti che sono indice di sperequazione fiscale determinata dal valore di scostamento crescente o decrescente della relazione tra valori fiscali e valori economici estimativi. Al fine di poter disporre di una mappatura delle valorizzazioni commerciali l’Osservatorio del Mercato Immobiliare, in capo all’Agenzia delle Entrate – Ufficio del Territorio (ex Agenzia del Territorio), ha suddiviso la città in 55 ambiti di caratteristiche omogenee (Microzone – fig. 1) e per ogni ambito ha determinato statisticamente i valori commerciali delle singole unità immobiliari distinguendole per tipologia e rifiniture. L’Osservatorio del Mercato Immobiliare, attraverso il campionamento delle transazioni immobiliari intercorse in un ambito territoriale omogeneo (Microzone) determina i valori minimi e massimi delle diverse tipologie edilizie che compongono lo stock edilizio cittadino. Questi valori sono pubblicati semestral-
mente e contribuiscono a monitorare il mercato immobiliare di riferimento restituendo una fotografia sull’andamento delle valorizzazioni economiche delle unità immobiliari della città. Il Valore Commerciale è calcolato a mq., si è reso, quindi, necessario attribuire ad ogni singola Unità Immobiliare Urbana la relativa superficie applicando i dettami del D.P.R. 23 marzo 1998 n. 138 “Regolamento per la revisione delle zone censuarie e delle tariffe d’estimo in esecuzione alla Legge 662/96”. La determinazione, invece, del valore fiscale delle singole unità immobiliari urbane (Categorie Ordinarie) segue un mero calcolo di coefficiente di rivalutazione che variano a seconda della Categoria Catastale e della relativa Classe attribuita in sede di accatastamento e/o variazione. La metodologia applicata, al presente studio, è conforme alle direttive utilizzate dall’Agenzia delle Entrate – Ufficio del Territorio e prevede sostanzialmente per alcune tipologie di unità immobiliari la determinazione di un indice soglia di normo classamento oltre il quale si determina il sovra o il sotto classamento della medesima unità. Il valore dell’indice soglia è il rapporto esistente tra il Valore Commerciale, calcolato secondo i valori OMI della relativa Microzona, e il Valore Catastale della medesima Unità Immobiliare Urbana, calcolato applicando i coefficienti di rivalutazione appropriati. L’indice soglia di tale rapporto è 3 (tre), ovvero per il mantenimento del concetto perequativo il Valore Commerciale è il triplo del Valore Catastale (fig. 2). Questa metodologia si applica per le Unità Immobiliari Urbane ricadenti nelle Categorie che si possono definire abitative (A02, A03, A04, A05, A06, A07 e A08) mentre per le altre Unità Immobiliari Urbane, che identificano altre tipologie edilizie (es. uffici, negozi, box, magazzini, ecc.), la determinazione dello scostamento si rileva con altra metodologia: ovvero si confrontano i classamenti (attribuzione della classe) tra il reale accatastamento presente nel Censuario Catastale e il classamento atteso per quel ambito territoriale determinato con i parametri di riferi-
GEOmedia n°5-2014
REPORTS
Fig. 2 - Comparazione tra valori di mercato e valori catastali.
mento al Secondo Semestre del 2004 (Legge 311/2004, art. 1, comma 339 “Disposizioni per la formazione del Bilancio annuale e pluriennale dello Stato – Legge Finanziaria 2005”). Lo scostamento identifica, quindi, quante sono le classi di differenza e quindi una diversa applicazione della tariffa d’estimo di riferimento, maggiore è la diversificazione del classamento e maggiore è la determinazione del differenziale tra il Valore Catastale Effettivo e il Valore Catastale Atteso. Calcolo del Valore secondo i parametri OMI, con la seguente formula: VALOMIUIU = [SUDPR] * [VALOMI] Dove: 4VALOMIUIU è il valore OMI calcolato al secondo semestre 2004 4SUDPR è la superficie calcolata ai sensi del DPR 138/98 4VALOMI è il valore al mq. determinato dalla Microzona di riferimento Per un valore complessivo di Euro 156.637.253.572,00 per un valore medio Euro 217.460,53 per una superficie complessiva 62.004.960,01 mq. e una superficie media uiu di 86,08 mq. Il valore catastale viene determinato sulle stesse uiu valide con la seguente formula:
VALCATUIU = [RENDITA] * 1,05 * 100 Dove: 4VALCATUIU è il valore catastale rivalutato 4RENDITA è la consistenza per la tariffa d’estimo riferita alla classe e categoria catastale 41,05 è il coefficiente di rivalutazione ai fini ICI 4100 è il coefficiente di rivalutazione per la determinazione dell’imponibile catastale all’attualità Per un valore complessivo di Euro 54.152.762.428,70 per un valore medio Euro 75.180,63 per una superficie complessiva 62.004.960,01 mq. e una superficie media uiu di 86,08 mq. Risulta evidente la portata della capacità elaborativa necessaria a valorizzare lo studio con la componente territoriale, per poter analizzare e individuare gli ambiti urbani di maggior scostamento e portatori di forti disallineamenti con il concetto di perequazione. Solo, quindi, con l’utilizzo massivo di strumenti geografici (GIS) di analisi massive si è potuto corredare lo studio con diverse metodologie di rappresentazione e restituzione aumentando notevolmente la qualità informativa che una rappresentazione tradizionale tabellare non è in grado di ottenere. Il SIT del Comune
di Milano, in carico presso la Direzione Centrale Entrate e Lotta all’Evasione, in stretta collaborazione con il Servizio Polo Catastale, ha elaborato il vasto set informativo al fine di dotare l’Amministrazione di uno strumento per la verifica cittadina e di dettaglio del grado di qualità del Classamento dello stock edilizio catastale urbano. I risultati dell’elaborazione possono essere letti con molteplici angoli di analisi che riguardano le singole categorie, i singoli fogli, le singole microzone o più in generale l’opportunità di creare un ranking di intervento rispetto alla ricostruzione della perequazione relativamente al classamento atteso e quindi intervenire su quelle microzone che scontano un forte valore di scostamento tra le unità immobiliari urbane sovra o sotto classate e le unità immobiliari urbane normo classate. I risultati di seguito riportati sono confezionati su compressione della categoria catastale ma l’elaborazione riguarda le singole unità immobiliari urbane mappate su sistema geografico di analisi e può, all’occorrenza, essere restituito sul singolo foglio catastale o sul singolo mappale di riferimento per l’analisi contestuale del fabbricato oggetto di verifica. In conclusione i risultati hanno riportato che si dovesse operare sulle tre microzone di maggior complessità dell’indice di scostamento si otterrebbe una diminuzione della sperequazione fiscale di più del 20% dell’intero valore cittadino. ABSTRACT This project provides the degree of quality class transfer cadastral citizen determined by the index of deviation between the actual class transfer with respect to the expected class transfer. The processing was performed on the entire building stock cadastral ordinary (category A0 * and * C0) composed of about 1.2 million urban housing units. Determining, for individual building urban index and relative offset value could return a model for analyzing massive and detail useful for defining the local tax policies and interventions aimed at achieving the fiscal equalization. Plays, therefore, particular interest is the geographical distribution of the index and the opportunity to represent the data for local areas diversified: the building, the building complex, the block, the neighborhood, the area of decentralization or areas chosen independently. PAROLE CHIAVE Catasto; perequazione; edilizio catastale; indice
classamento;
stock
di scostamento del
classamento catastale
Fig. 3 - Dettaglio dei risultati.
visita il sito www.rivistageomedia.it
AUTORI Bruno Monti bruno.monti@comune.milano.it Responsabile SIT e Toponomastica Comune di Milano
17
REPORTS
QUALCHE RIFLESSIONE SULL’INTERAZIONE FRA UNIVERSITÀ E INDUSTRIA NEL SETTORE OTTICO-MECCANICO di Attilio Selvini
Nel ventesimo secolo l’industria ottico-meccanica italiana ha
raggiunto, nel settore civile, primati a livello mondiale certamente indiscutibili
(1), (2). Però il supporto fornito dalle università è stato
modesto, assai modesto
(3), a differenza di quanto per esempio era
accaduto nello stesso periodo in
I
l contributo italiano alle tre grandi aziende del settore (Filotecnica Salmoiraghi, Ottico Meccanica Italiana, Officine Galileo) mi pare che si sia limitato a qualche suggerimento: si veda la corrispondenza fra Cassinis e Umberto Nistri in (3), oltre a qualche studio sulle prestazioni strumentali (5), (6). Bisogna giungere agli anni Settanta, perché si trovi una vera e propria intensa collaborazione, però limitata alle Officine Galileo e al Politecnico di Torino, per opera di Giuseppe Inghilleri che vi era preside della Facoltà di Ingegneria (3) e che progettò e fece costruire sotto la sua direzione, il restitutore analitico DS (Digital Stereoplotter): si veda in (7). Qualche invero modestissima collaborazione fu prestata alla Salmoiraghi da Corrado Mazzon del Politecnico di Milano, soprattutto per il miglioramento di alcuni strumenti topografici; Lorenzo Lanza, professore negli Istituti tecnici, fece costruire (purtroppo fuori tempo: si era già nell’epoca dei distanziometri elettrottici) sempre dalla Salmoiraghi una stadia auto - riduttrice per tacheometri (3) e Clemente Bonfigli (3) progettò uno stereodendrometro analitico per la misura rapida dell’altezza degli alberi (era professore nella Facoltà di Agraria dell’Università di Milano). Margherita Piazzolla Beloch costruì un prototipo di misuratore del “vertice di piramide” e nulla più. Comunque l’unica interazione fra ricerca e industria fu quella citata fra Inghilleri e Galileo. Le tre aziende sopra citate dovettero provvedere internamente alla progettazione, al progresso e al rinnovamento della propria pro-
18
Germania (4). Vediamo di parlarne.
duzione. Per fortuna nel caso delle due imprese di fotogrammetria il fondatore della prima e il consulente della seconda, rispettivamente Nistri e Santoni (quest’ultimo aveva lungamente lavorato all’Istituto Geografico Militare di Firenze) erano inventori eccezionali e quindi potevano fare a meno di consigli e aiuti esterni. In Salmoiraghi, oltre alla spinta e alle intuizioni del titolare, già allievo di Ignazio Porro, vi fu anche qui l’opera di studiosi interni d’eccezione come l’ottico e cultore d’astronomia Domenico Argentieri (3) e più oltre quella di Raffaello Bruscaglioni, solo per citare i maggiori. Per il resto, poco o nulla dal mondo universitario, generalmente rinchiuso in se stesso e più rivolto alla ricerca, ma non di tipo strumentale: basterà a tal fine ricordare i molti e pregevoli lavori di Cassinis, di Marussi, di Boaga, di Morelli, di Ballarin fra gli altri; più tardi quelli di Solaini, Cunietti, Togliatti, Inghilleri, Dequal, Galetto, Monti …. sulle applicazioni della fotogrammetria e su alcune tecniche topografiche. Ciò anche per il fatto che le industrie avevano messo a disposizione in vario modo, compreso il comodato e la donazione, i loro più importanti strumenti soprattutto ai due Politecnici (a Milano vi furono il primo APc, un TA3 e un Photomapper della OMI, lo Steosimplex, gli Sterocartografi IV e V di Galileo, teodoliti e livelli della Salmoiraghi). Ben diversa fu la vicenda che riguarda la nota e centenaria Carl Zeiss tedesca e le università di quel Paese: traggo molte notizie dal lavoro citato in (4), con particolare riguardo al periodo del secondo dopoguerra, anche se già dagli
Fig. 1 - L'ortofotoproiettore GZ1.
anni Venti, fra l’azienda e le università tedesche, i legami erano importanti. Ricostruita la Carl Zeiss fra le mille difficoltà causate dal tracollo del Terzo Reich (8), l’interazione fra università e azienda fu stretta e continua. La progettazione e la costruzione di uno dei primi strumenti per la formazione di ortofotocarte, vide in primo piano Erwin Gigas, dottore “honoris causa” dell’Università di Hannover, membro della Commissione Geodetica Tedesca, dello U.S. Coast and Geodetic Survey e della Deutsche Gesellschaft für Kartographie oltre che professore nel Politecnico di Berlino. Scrive Dirk Hobbie in (4) a tale proposito letteralmente quanto segue: “… Si deve alle pressioni di Erwin Gigas, al tempo direttore dell’Istituto di Geodesia Applicata (IFAG) di Francoforte sul Meno, la spinta al lavoro presso Carl Zeiss in Oberkochen”. Il “lavoro” riguardava per l’appunto la formazione dell’ortofotoproiettore GZ1 (Gigas-Zeiss mod. 1), che per la prima volta scindeva l’operazione in due parti con due strumenti diversi (in precedenza, i pochi apparati di quel tipo erano unici, comprendendo sia l’esplorazione del modello che la formazione dell’immagine rettificata). La formazione dei profili veniva invece qui affidata al restitutore Stereoplanigrafo C8 (poi sostituito dal Planimat D2) mentre l’ortofoto usciva dal GZ1. Per opera di Gigas il GZ1 venne provvisto di un interpola-
GEOmedia n°5-2014
REPORTS tore ottico che evitava le vistose e fastidiose “rotture” fra due strisce contigue, non solo: la descrizione altimetrica si otteneva non con le consuete “dropped lines”, richiedenti ulteriore intervento del disegnatore, bensì direttamente per curve di livello tramite il dispositivo HLZ (HöhenLinienZeichner). Il GZ1 con accessori (qui in Fig. 1) venne acquistato in due esemplari dalla nostra CGR di Parma e dalla EIRA fiorentina. Va ricordato che Erwin Gigas aveva già progettato e fatto costruire nel 1953, il teodolite astronomico a registrazione fotografica, dalla casa tedesca Askania: un esemplare, qui in fig. 2, si trova presso il Politecnico di Milano (9). A Kurt Schwidefsky che dal 1951 al 1960 fu professore all’università di Karlsruhe, si deve nel 1952 la costruzione del raddrizzatore SEG 5, successore di altri strumenti dell’anteguerra, poi munito di un dispositivo computerizzato per l’orientamento del fotogramma da cui trarre l’immagine raddrizzata e quindi metrica (Fig. 3). Schwidefsky era stato nominato professore all’università di Dresda nel 1943, ma non vi aveva preso posto perché impegnato presso Zeiss ad Jena; fu poi membro onorario della ISPRS, che più tardi istituì una medaglia – premio a suo nome. Richard Finsterwalder, del Politecnico di Monaco di Baviera lavorò assiduamente per la Carl Zeiss, così come si deve a Gottfried Konecny dell’università di Hannover il suggerimento ed i consigli per la costruzione della “Metric Camera”, durati dal 1974 al 1979, che poi culminarono con il famoso volo a quota 250 km del 1983. In Fig. 4 il “Logo” della Metric Camera. Konecny, che ebbe ottimi rapporti con la nostra Giovanna Togliatti, era nato il 17 giugno 1930 in Cecoslovacchia, a Troppau, in quella che era la famosa zona dei Sudeti, inglobata per volere di Hitler nel grande Reich nel 1938: era
Fig. 2 - Il teodolite astronomico Gigas-Askania.
visita il sito www.rivistageomedia.it
quindi un “Volkdeutscher”, che ricoprì nel dopoguerra importanti cariche sia in Germania che all’estero: fu fra l’altro presidente della ISPR, proprio quando Giovanna Togliatti ne era tesoriere. Non va dimenticato che ben tre dirigenti della Carl Zeiss di Oberkochen furono nominati professori onorari da tre importanti università tedesche; sono tuttora viventi e chi scrive ebbe rapporti d’amicizia (e di lavoro) con tutti loro. Hans Karstens Meier, a capo della divisione fotogrammetria e topografia, divenne professore e tenne il corso di navigazione aerea all’università di Stoccarda, nell’Istituto allora diretto da Friedrich Ackermann (che collaborò direttamente con Zeiss: per molti anni la classica “Photogrammetrische Woche” fu diretta proprio da Ackermann e Meier). Reiner Schwebel, dirigente della parte strumentale di restituzione, fu professore dell’università di Monaco di Baviera, mentre Dirk Hobbie, il costruttore dell’ortofotoproiettore analitico Orthocomp, lo fu dell’università di Hannover. Va ricordato che, vincitore di concorso all’università di Monaco di Baviera, Hobbie rinunciò al posto, che venne occupato poi da Heinrich Ebner (altro ottimo amico del presente autore, che venne invitato alla festa di addio per il suo collocamento a riposo) perché Hobbie non volle lasciare la Zeiss. Altre figure di spicco legate al mondo universitario lavorarono per la Carl Zeiss, prima e dopo la seconda guerra mondiale; ricorderò fra gli altri Carl Pulfrich, Otto von Gruber, Eduard Oskar Messter, Walter Bauersfeld, Walter Brucklacher. Non va poi dimenticato che le università tedesche sostennero anche le altre minori aziende tedesche che producevano strumenti topografici: ricordo quindi, oltre alla già menzionata Askania di Berlino, la Ertel di Monaco di Baviera, la Fennel e la Breithaupt di Kassel. Queste aziende possono essere paragonate alle minori italiane Saibene di Milano, Allemano di Torino, Sbisà di Firenze, nessuna delle quali però ebbe mai aiuti dal nostro mondo universitario. Tutte le nostre aziende sopra ricordate sono scomparse da diversi decenni (10); mentre quelle tedesche sono pur sempre in buona salute. La Carl Zeiss, dopo la riunificazione che ha visto Jena e Oberckochen nuovamente sotto la scudo della “Zeiss Stiftung”, ha ceduto le proprie divisioni di topografia e fotogrammetria rispettivamente alle multinazionali Trimble e Intergraph, che continuano a produrre anche in Germania strumenti di tutto rispetto e ancora col sostegno delle università sia tedesche che U.S.A.
Fig. 3 - Il raddrizzatore SEG 5. Fig. 4 - Si nota, nel Logo, la camera Zeiss speciale sullo “Shuttle”.
BIBLIOGRAFIA 1) E. Santoni Selected Work. Tipolito Nuova Grafica Fiorentina, Firenze, 1971. 2) A. Selvini A mezzo secolo dalla scomparsa di Umberto Nistri, GeoMedia, Roma, n° 1/2012. 3) A. Selvini Appunti per una storia delle topografia in Italia nel XX secolo. Maggioli ed., Rimini, 2012. 4) D. Hobbie Die Entwicklung photogrammetrischer Verfahren, und Instrumente bei Carl Zeiss in Oberkochen. Deutsche Geodätische Kommission, 2009. 5) L. Solaini Der Photomultiplo Nistri. Photogrammetrie, n°4/41. 6) G. Cassinis Il Fotocartografo Nistri. Rivista del Catasto e dei Servizi tecnici Erariali, Roma, n° 2/38. 7) G. Inghilleri Theorie of the DS Analitycal Stereocomparator. Reston, Virginia (USA), 1980. 8) H. Armin Nur der Name war geblieben. Deutsche Verlags-Anstalt, 1989. 9) C. Monti, A.Selvini Strumenti topografici e metodi operativi fra Settecento e Novecento. Maggioli ed., Rimini, 2013. 10) A. Selvini C’era una volta l’industria ottico meccanica italiana. Rivista del Dip. del Territorio, Roma, n°3/2009. ABSTRACT In the twentieth century the Italian opticalmechanical industry reached, in the civil sector, primates worldwide certainly indisputable. However, the support provided by universities was modest, very modest, unlike what had happened for example in the same period in Germany. PAROLE CHIAVE Industria ottico-meccanica pografici; storia
italiana; strumenti to-
AUTORE Attilio Selvini attilio.selvini@polimi.it Politecnico di Milano
19
REPORTS
INTEGRAZIONE FRA ARCGIS E EPANET2 PER LA MODELLAZIONE IDRAULICA DELLE RETI di Mario Scandura
acoSet è un’azienda che SvoLge iL Servizio idrico neLL’area pedemontana Sud-occidentaLe deLL’etna, Servendo
20 comuni conSorziati ed aLtri 4
con forniture aLL’ingroSSo, per un totaLe di oLtre
90.000 utenze. Le reti,
tutte interconneSSe, Si SviLuppano in un territorio compreSo fra Le quote
200 e 950 m S.L.m. ed eSteSo per circa 50 km Su una Superficie di
oLtre
350 km2, che utiLizzano Le acque di due Sorgenti e di circa una
quindicina di campi pozzi, con oLtre
60 Serbatoi di accumuLo e di compenSo.
N
egli ultimi anni l’azienda ha fatto effettuare, nei comuni serviti, il rilievo geometrico e strumentale delle reti idriche, con la schedatura di tutti i pozzetti ed i relativi pezzi speciali. Inoltre è stato affidato alla società che effettua la lettura periodica dei contatori, l’incarico di provvedere anche alla localizzazione degli stessi mediante GPS e di effettuare le foto degli armadietti aperti che li contengono. Pertanto, essendo giunti a disporre dei dati completi e certi delle reti idriche e delle utenze servite, si è potuto procedere allo loro organizzazione in tabelle nel geodatabase Oracle 11g del SIT, integrandoli con gli altri dati aziendali relativi a produzione e consumi. Per i contatori non rilevati si è provveduto all’integrazione con il posizionamento realizzato tramite geocodifica semiautomatica degli indirizzi di installazione, presenti nel database gestionale Hydronet. Quindi, disponendo per la prima volta di grafi completi e collaudati delle reti e della geolocalizzazione dei consumi, si è potuto procedere all’analisi, progettazione e realizzazione di una applicazione che potesse permettere ai tecnici dell’Azienda di simulare il funzionamento di una rete direttamente dal SIT, senza dover apprendere complicate metodiche informatiche, ma che, con l’introduzione di pochi parametri e di due soli comandi, esporta verso Epanet ed importa da Epanet i dati.
20
Fig. 1 - La rete di distribuzione del Comune di Adamo.
LE REGOLE DELLA MODELLAZIONE IDRAULICA Per effettuare la simulazione idraulica di una rete sono necessari una serie di dati organizzati secondo quanto richiesto dal software di modellistica. Questi dati sono le singole condotte corredate dalle informazioni su diametro, materiale, scabrezza, nodo origine e nodo destinazione; i nodi, ovvero gli apparati connessi dalle condotte (presenti generalmente nei pozzetti) con particolare attenzione alle valvole, saracinesche e ai cosiddetti “Nodi Erogazione” cui fanno capo le capillari che collegano i contatori utenza, ed i serbatoi. Non sono state considerate le pompe in quanto non presenti all’interno delle reti di distribuzione. Tutti gli oggetti che partecipano alla rete da modellare devono essere connessi geometricamente in un grafo di archi e nodi. Il prototipo Si è quindi deciso di realizzare un primo prototipo relativo alle reti di un comune significativo e che mostrava delle criticità non meglio identificate. Questo prototipo è stato realizzato con le informazioni relative al comune di Adrano, nel quale la rete è divisa in due grossi distretti che fanno capo rispettivamente al Serbatoio Alto ed ai Serbatoi Bassi (figura 1). Dati utilizzati I contatori rilevati in tutto il territorio comunale sono risultati 13.035, di questi, nell’anno 2012, non hanno misurato alcun consumo 2.335.
Il consumo conturato, sempre nel 2012 da questi contatori è stato di 1.578.808 mc, pari ad un valore di 50,06 l/s. Sono risultati serviti dalla rete Alta 1772 contatori per un consumo conturato annuo di 226.711 mc pari a 7,80 l/s (non hanno misurato alcun consumo 360 contatori). Attestati sulla rete bassa sono risultati 9797 contatori per un consumo annuo di 1.285.162 mc, pari a un’erogazione di 41,60 l/s (non hanno misurato alcun consumo 1975 contatori). Dal totale dei contatori risultano altri 1466 contatori che sono serviti direttamente o dalla condotta principale (Maniace e Ciapparazzo) e dalla fine del raddoppio della condotta Ciapparazzo. Le due reti che fanno capo ai serbatoi di Adrano hanno uno sviluppo complessivo di 65100 metri, escluse le condotte di diametro inferiore ai 50 mm, e sono stati individuati ed aperti 1144 pozzetti. Il rilievo è stato caricato nelle tabelle del SIT come grafo di archi e nodi totalmente interconnessi. Il serbatoio alto è alimentato dalla condotta Ciapparazzo e dalla fornitura effettuata dal pozzo S.E.D.A, i serbatoi bassi sono alimentati sempre dalla Ciapparazzo, dalla Maniace e dalla fornitura del pozzo Floresta. Software I software utilizzati sono stati: Arcgis Desktop 10.1 Advanced Edition, Arcgis for Server 10.1 Enterprise Edition, Oracle 11g, Epanet 2, e MatLab.
GEOmedia n°5-2014
REPORTS
IL PROGETTO L’ipotesi di lavoro era quella di trasferire i dati delle reti presenti nel SIT, al software di modellazione, fare girare il modello, effettuando le dovute calibrazioni e quindi reimportare il risultato della modellazione (portate e pressioni) nel SIT, nelle tabelle delle condotte (archi) e degli apparati (nodi), in modo che il personale addetto alla distribuzione avesse dei parametri di confronto per una migliore gestione, e gli ingegneri avessero dei dati puntuali per lavorare all’ottimizzazione delle reti stesse. Tabelle SIT e dati per modellazione Il primo problema che si è presentato è stato quello di individuare quei tratti di condotta e quei nodi che non si dovevano passare al sw di modellazione, senza dover duplicare tabelle o cancellare oggetti. Si è così inserito un nuovo campo denominato EPA con un flag a 0 se da non trasferire, a 1 se da modellare. Quindi si è proceduto ad una verifica di congruità dei dati al fine di correggere eventuali nodi isolati o archi non connessi. Si è aggiunto un ulteriore campo denominato RETE_CODICE ad entrambe le tabelle delle condotte e dei nodi al fine di caratterizzare gli oggetti con un indicatore di appartenenza ad una rete piuttosto che ad un’altra e per i nodi di confine (appartenenti ad entrambe le reti) si è definito un terzo codice. Tutti gli altri campi sono rimasti invariati da come popolati nelle fasi di rilievo idrico. In considerazione del fatto che i dati necessari ad EPANET sono molto meno di quelli presenti nelle tabelle si è definita una griglia di filtraggio delle tabelle per far pervenire al software di modellazione esclusivamente dati utili. I nodi erogazione Uno dei problemi che si è presentato e si è dovuto affrontare è stato quello di definire i nodi erogazione ed assegnare ad essi un valore coerente. Dal rilievo dei pozzetti sono risultati presenti 3611 nodi e di questi 3423 da passare al modello. Di questi ultimi 622 erano caratterizzati dalla presenza di 1 o più allacci di condotte di diametro inferiore ai 50 mm., perciò si è stabilito di definire questi nodi come nodi erogazione e, creato il campo EROGAZIONE nella tabella dei nodi, lo si è valorizzato con 1 se presenti allacci, con 0 se presenti solo apparecchiature. Il passo successivo è stato quello di assegnare un valore ai nodi erogazione. Disponendo del rilievo georeferenvisita il sito www.rivistageomedia.it
Fig. 2 - Relazione spaziale tra singoli poligoni ed i contatori che ricadevano al loro interno.
ziato dei contatori, si è prima effettuata una estrazione, dal DB gestionale, dei consumi conturati e letti nei 4 trimestri del 2012, quindi si è assegnato a ciascun contatore localizzato nel SIT il consumo totale misurato nell’anno 2012. Non disponendo di informazioni sufficienti sulle capillari si dovevano assegnare i contatori ai nodi erogazione con un metodo automatico ma possibilmente realistico. Poligoni di Thiessen ed erogazione Si è deciso perciò di calcolare i poligoni di Thiessen relativi ai 622 nodi erogazione. Il metodo dei poligoni di Thiessen permette di suddividere geometricamente lo spazio in zone di pertinenza di ogni punto. A ciascuno di essi viene attribuita un’area che si trova più vicina a esso che a qualunque degli altri punti. Lo spazio viene così suddiviso da una serie di linee che sono equidistanti dai due punti a esse più vicini. Il risultato sarà, pertanto, una serie di poligoni, tanti quanti sono i punti, all’interno dei quali si troverà solo un punto (il nodo erogazione). I poligoni di Thiessen risultano utili
per avere un modello teorico della configurazione delle zone di influenza e delle aree di erogazione relative ai singoli nodi. In questo modo, lungi dal voler ricostruire la realtà, si cerca di individuare le porzioni di territorio che sono più facilmente servite da un certo tratto di rete piuttosto che da un’altro. Il paesaggio che si ottiene con questo metodo è un modello ideale e astratto della realtà; le suddivisioni vengono infatti tracciate come se il territorio fosse perfettamente uguale e omogeneo. Comunque, trattandosi di grandi numeri, il risultato può considerasi assolutamente accettabile. Effettuata questa suddivisione, si è proceduto a calcolare la relazione spaziale tra i singoli poligoni ed i contatori che ricadevano al loro interno, creando due nuovi campi nella tabella dei nodi N_CONTATORI e CONSUMO_ANNUO che venivano così popolati automaticamente dalla somma dei contatori presenti e dalla somma dei relativi consumi. Ora si poteva assegnare un consumo ad ogni singolo nodo erogazione (figure 2 e 3).
Fig. 3 - Thiessen.
21
REPORTS Completamento tabelle Infine si creavano i due ultimi campi nella tabella dei nodi, quelli delle coordinate X e Y, necessari ad EPANET per ricostruire il modello geometrico della rete. Nella tabella dei serbatoi si creavano i campi coordinate X e Y, e della portata media in erogazione. L’intera procedura è stata automatizzata con una procedura in Python il cui schema è rappresentato nella figura sovrastante. EPANET Dopo queste operazioni i dati delle condotte, dei nodi e dei serbatoi erano diventati compatibili ed utilizzabili da EPANET. Questo software, realizzato dal Ministero dell’Ambiente degli Stati Uniti, è distribuito gratuitamente, ed è considerato come uno dei migliori strumenti di modellazione idraulica disponibili. Il trasferimento dei dati avviene tramite selezione della rete da modellare (archi, poi nodi, poi serbatoi) dopo filtraggio in base ai campi EPA, CODICE_RETE ed esportazione in formato tabellare *.dbf. I files DBF che vengono presi in carico da una procedura esterna stand-alone scritta con MatLab che esegue una trasformazione di formato, creando il file di input per Epanet. Per quanto riguarda valvole e saracinesche, Epanet le considera come archi, mentre nel GIS sono rappresentate come nodi. Al fine di non stravolgere la metodologia di rappresentazione di tali apparati in ambiente GIS, si è optato di effettuare la trasformazione da nodi in archi, per questi apparati, nella procedura MatLab di trascodifica di formato. Lanciato Epanet e caricato il file prodotto, si può eseguire immediatamente la modellazione, e quindi in base ai risultati ottenuti decidere se effettuare calibrazioni o modifiche sullo STATUS e sul SETTING delle valvole, e quindi rilanciare la modellazione idraulica (figura 3).
Fig. 5 - Modello della rete di Adrano.
La simulazione idraulica Ottenuto un risultato soddisfacente, l’utente provvede ad esportare da Epanet, in un file CSV, i risultati ottenuti, che verrà importato nel SIT che lo utilizzerà, tramite una join, esclusivamente per aggiornare coi dati di pressione, portata e degli stati delle valvole, le tabelle degli archi e nodi modellati. Questi nuovi valori sono consultabili, come qualsiasi altra informazione SIT cliccando sull’oggetto, e in parte sono già visibili come etichette degli oggetti stessi. Lo stato delle valvole può essere definito sia nel SIT (desktop o web application) che in EPANET, e comunque i dati risulteranno sempre sincronizzati. CONCLUSIONI Il lavoro effettuato con questo prototipo è stato immediatamente verificato sul campo ed ha permesso di modificare il funzionamento della rete con immediato beneficio per il servizio. Quindi si è voluto procedere alla modellazione delle 4 reti del comune di Belpasso ed è stato così possibile identificare rapidamente due aree critiche e porre rimedio al servizio e risparmiare circa 7 l/s.
Fig. 4 - EPANET 2, software per la modellazione idraulica.
22
Attualmente questo sistema di interscambio funziona perfettamente in ambiente Desktop, si è gia iniziato a trasferire queste procedure in ambiente ArcGIS Server con risultati incoraggianti. I prossimi passi dovranno portare ad interagire con la modellazione idraulica in ambiente Web, utilizzando una web-application realizzata per ArcGIS for Flex. RINGRAZIAMENTI Si ringraziano l’ing. Pasquale Cutore dell’Acoset, per il fattivo contributo relativo alle tecniche di modellazione idraulica e alla verifica dei riscontri teorici sul campo; ed Adriana Triolo con Francesco Contraffatto, laureandi in Ingegneria Idraulica all’Università di Catania e stagisti in Acoset, per il prezioso contributo nella realizzazione della procedura in MatLab e nel debugging di tutte le procedure.
PAROLE CHIAVE Reti idriche; modellazione;sit ABSTRACT Reached the knowledge of networks and consumption, both geolocated, the need has arisen to verify, through simulations, the behavior and efficiency of the water distribution system. The idea was to integrate the SIT, platform ArcGIS 10.1, the modeling software EPANET2. By analyzing the needs of Epanet you modified the data model of pipelines and equipment, in order to make them compatible, and have addressed the main problems arising from these analyzes. The identification and corroboration of delivery nodes to determine the value of the application of the network, and the management of valves and gate valves in the SIT that are represented as point features, while in Epanet are treated as strings. For the determination of the application, the absence of data of the capillaries, it is proceeded in an empirical creating polygons of Thyessen related to the nodes dispensing, and "capturing" the counters pertaining to each polygon and then summing the relative consumptions, taken by the management system . For valves it is made of a procedure in the import software in Epanet that turns the nodes into arcs, and in the export of SIT return to the pressure values upstream and downstream populate various fields of the table on time of the valves. AUTORE Mario Scandura scandura@inwind.it ACOSET SPA
GEOmedia n°5-2014
C E LE P S la geIoA m U
r pe
ati ca
AV
Supplemento a GEOmedia numero 5-2014 - Direzione, Redazione, Marketing e Stampa da mediaGEO soc.coop www.mediageo.it info@mediageo.it - Roma 2014
IN S ST AC ERT CA O BI LE
UNA NUOVA REALTA' TRA FOTOGRAMMETRIA E TOPOGRAFIA
F ly N o v e x
FlyNovex è un sistema multi-rotore APR (Aeromobile a Pilotaggio Remoto) della FlyTop. Progettato per il rilievo del territorio, il precision farming, il monitoraggio ambientale, il supporto alle situazioni d'emergenza, i rilievi strutturali, le indagini sui beni culturali e l'ausilio durante l'attività giornalistica o di produzione cinematografica, è in grado di trasportare molti sensori differenti come ad esempio fotocamere, videocamere, termocamere, camere iper-spettrali, multi-spettrali o sensori Lidar.
Valutazioni
metriche
di piattaforme
APR
per
rilievi e modellazioni
3D
SPECIALE UAV
VALUTAZIONI METRICHE DI PIATTAFORME APR PER RILIEVI E MODELLAZIONI 3D di Mauro Lo Brutto, Alessandra Garraffa e Paolo Meli
L’articolo descrive le esperienze condotte per la valutazione metrica di blocchi aerei acquisiti con differenti sistemi
APR
utilizzati nell’ambito del rilievo di
BB.CC. Il lavoro è stato svolto
su due siti che differiscono per estensione e caratteristiche morfologiche utilizzando due diverse piattaforme
APR, un
sistema multi-rotore e un sistema
ad ala fissa.
Fig. 1 - Quadricottero md4-200 della microdrones.
I
l rilievo di Beni Culturali, come siti archeologici o centri storici, che si sviluppano su aree di estensioni variabili, anche dell’ordine di qualche chilometro quadrato, è sempre stato abbastanza problematico per la mancanza di strumenti adeguati che permettono di colmare il gap tra i classici rilievi fotogrammetrici aerei e i rilievi terrestri (topografici, fotogrammetrici o laser scanner). Recentemente questo gap è stato colmato dallo sviluppo dei sistemi APR (Aeromobili a Pilotaggio Remoto) che consentono sia di eseguire rilievi aerei a bassa quota, generalmente in un range compreso tra i 20 e i 200 metri, sia l’acquisizione di dati metrici e qualitativi di dettaglio (Eisenbeiss & Sauerbierl, 2011). Gli APR, noti anche con l’acronimo UAV (Unmanned Aerial
24
Vehicles) e sviluppati inizialmente per applicazioni militari, sono ormai molto diffusi in ambito civile ed in particolare nel settore del rilievo architettonico ed archeologico grazie alla possibilità di ottenere immagini dell’area di interesse con numerosi vantaggi quali: rapidità nell’esecuzione del rilievo aereo, possibilità di mappare aree difficilmente accessibili, risoluzione delle immagini maggiore rispetto a quella ottenibile dalla tradizionale fotogrammetria aerea (anche con pixel < 1 cm), costi contenuti delle fasi di acquisizione, disponibilità di diversi software user-friendly e low-cost per il processamento delle immagini. In particolare, l’attività condotta nell’ambito del rilievo architettonico ed archeologico è principalmente rivolta verso la realizzazione di modelli 3D
con elevati livelli di dettaglio e ortofoto con risoluzione geometriche centimetriche (o in alcuni casi anche sub-centimetriche) e scale nominali tipiche del rilievo architettonico (1:100 ÷ 1:200). Il flusso di lavoro adottato per questa tipologia di rilievi è abbastanza standardizzato e prevede sostanzialmente tre fasi: 4 pianificazione del volo 4acquisizione delle immagini 4calcolo degli orientamenti, delle nuvole di punti 3D e delle ortofoto. Ciascuna fase presenta problematiche e caratteristiche proprie che dipendono da vari fattori. La prima fase del rilievo consiste nella progettazione di un volo programmato attraverso l’uso dei rispettivi software di gestione dei velivoli.
Questo approccio, particolarmente utile per mantenere le corrette geometrie di presa durante il rilievo fotogrammetrico, risulta abbastanza semplice nel caso di prese nadirali (dove è possibile mantenere gli stessi criteri della fotogrammetria aerea), un po’ più problematico per schemi con prese inclinate e/o convergenti. In quest’ultimo caso, la realizzazione del progetto non sempre è agevole per la mancanza di funzioni adeguate nei software di gestione dei voli; inoltre, a causa della bassa affidabilità del posizionamento eseguito con il GPS di cui sono dotati gli APR, il piano di volo potrebbe non essere seguito in maniera corretta. I parametri che influenzano maggiormente le scelte di pianificazione del volo sono l’autonomia e il payload del sistema APR.
GEOmedia n°5-2014
SPECIALE UAV
Fig. 2 - Velivolo Swinglet CAM della Sensefly.
Questi due parametri sono fra di loro strettamente correlati; il primo condiziona l’estensione dell’area da rilevare, il secondo la tipologia del sensore da utilizzare. L’acquisizione delle immagini è principalmente influenzata dalla morfologia del sito, dalla vicinanza di “pericoli” per il volo, dalla stabilità della piattaforma in condizioni metereologiche non ottimali e dalla disponibilità di spazi per l’atterraggio (per sistemi APR ad ala fissa). Infine, il processamento delle immagini è condizionato dalla notevole irregolarità dei blocchi fotogrammetrici, dall’elevato numero di immagini (spesso maggiore di 100) in genere necessarie per una completa copertura delle aree di studio, dalle qualità e caratteristiche radiometriche delle immagini, dalle problematiche di calibrazione delle camere
Fig. 3 – Il tempio di Iside.
visita il sito www.rivistageomedia.it
per uso fotogrammetrico e dal numero, disposizione e precisione dei punti di appoggio. Le problematiche sul processamento delle immagini sono state quelle maggiormente indagate nel corso degli ultimi anni grazie anche al sempre più frequente utilizzo di software derivanti dalla Computer Vision in ambito fotogrammetrico. Diverse ricerche sono state effettuate soprattutto verificando e/o confrontando i risultati ottenuti con software della Computer Vision, che utilizzano l’approccio Structure from Motion (SfM), rispetto ai classici programmi fotogrammetrici (Verhoeven et al., 2011; Lo Brutto et al., 2012). Soltanto pochi esempi sono riportati circa la qualità dell’accuratezza metrica in relazione all’uso delle tecniche della SfM rispetto differenti configurazioni del blocco fotogrammetrico (Nocerino et
al., 2013; Lo Brutto et al., 2014). Non è ancora chiaro se l’uso di configurazioni di blocchi più stabili potrebbe migliorare l’accuratezza e l’affidabilità dei risultati per le immagini acquisite da sistemi APR e processate attraverso un approccio proprio della CV. L’obbiettivo della ricerca è stato quello di effettuare una prima valutazione sulle potenzialità metriche delle piattaforme APR nel campo del rilievo dei beni culturali attraverso l’analisi di alcuni dataset che riprendono due aree con forte valenza turistica e culturale e che differiscono per estensione e caratteristiche morfologiche: la prima è un’area di piccola estensione, situata all’interno del Parco Archeologico e Paesaggistico della Valle dei Templi di Agrigento e relativa alla zona del Tempio di Iside; la seconda presenta un’estensione abbastanza ampia e racchiude il Cretto di Gibellina vicino Trapani. I differenti dataset sono stati ottenuti utilizzando due diversi APR: un quadricottero md4-200 della microdrones per l’area all’interno della Valle dei Templi (fig. 1) e un velivolo ad ala fissa Swinglet CAM della Sensefly per il Cretto di Gibellina (fig. 2). I due velivoli, pur appartenendo alla stessa grande categoria dei micro UAV e pur avendo campi di applicazione simili, si differenziano per operatività, autonomia di volo, quota
di volo, modalità di acquisizione: il quadricottero, come tutti i multi-rotori, ha resistenza al vento inferiore, può volare a quote di volo anche molto basse (10-20 metri) ed ha una maggiore flessibilità in fase di acquisizione in quanto consente di effettuare prese sia nadirali che inclinate grazie alla possibilità di ruotare la camera; il velivolo ad ala fissa ha maggiore resistenza al vento, vola a quote sempre superiori ai 100 metri (in genere 140160 metri) e consente l’esecuzione soltanto di prese nadirali secondo il classico schema di fotogrammetria aerea. Ma l’elemento più interessante che li contraddistingue è relativo alla tipologia di prodotti ottenibili: rilievi a grandissima scala (nel nostro caso pixel 1 o 2 cm) per il quadricottero md4-200 della microdrones, rilievi a grande scala (nel nostro caso pixel circa 5 cm) di aree anche estese qualche chilometro quadrato per l’APR ad ala fissa. Entrambi i velivoli sono dotati di camere digitali compatte; in particolare, il quadricottero md4-200 è dotato di una camera Pentax Optio RZ18 da 16 Megapixel con un obiettivo a zoom variabile da 4.5 mm a 81 mm mentre il drone planante Swinglet CAM è equipaggiato con una camera Canon IXUS 125 HS da 16 Megapixel e obiettivo a zoom variabile da 4.3 mm a 21.5 mm.
Fig. 4 – Il “Cretto di Gibellina”.
25
SPECIALE UAV IL RILIEVO UAV Il Tempio di Iside è tra i siti meno conosciuti e meno frequentati dai turisti dell’intero Parco Archeologico della Valle dei Templi di Agrigento ed è costituito da un’area solo parzialmente scavata. Il Tempio era costituito da un podio e da un triportico che delimitava una piazza; all’interno si trovava una cella preceduta da un pronao e seguita da un avancorpo su podio accessibile mediante due rampe laterali. Il triportico era caratterizzato da sessantadue colonne e due mezze colonne terminali oggi ancora parzialmente visibili (fig. 3). Il “Cretto di Gibellina” è un’opera dell’artista Alberto Burri realizzata tra il 1984 e il 1989 nel posto in cui una volta era situata la città di Gibellina distrutta dal terremoto della Valle del Belice nel 1968. Quest’opera è una tra i maggiori esempi della cosiddetta “land-art”. L’artista, la cui idea era quella di creare un luogo della memoria, ha coperto con una colata di cemento le rovine della città in modo da formare tanti “blocchi” che riproducono le vecchie strade della città; i blocchi sono costituiti da muri di cemento armato alti circa 1.60 m e sono separati da “viali” larghi circa 2-3 metri. Complessivamente l’opera, rimasta in parte incompiuta rispetto al progetto originario, si estende su un’area di circa 300 m x 270 m e ha un dislivello di circa 100 m (fig. 4). Per il rilievo delle zone di studio sono stati progettati due voli con strisciate orientate lungo direzioni perpendicolari, approssimativamente coincidenti con le direzioni Nord-Sud ed Est-Ovest; in questo modo è stato possibile effettuare diversi test in relazione alle configurazioni geometriche dei voli. Tutte le riprese sono state progettate imponendo un
26
classico schema di prese fotogrammetriche aeree (prese nadirali) con un ricoprimento longitudinale pari all’80% e un ricoprimento trasversale pari al 70% e all’80% rispettivamente per il rilievo dell’area del Tempio di Iside e per il “Cretto di Gibellina”. Tutti i voli sono stati eseguiti in modalità automatica seguendo il piano di volo realizzato in fase di progettazione del rilievo e impostando le camere in modalità wide (minima distanza focale) e messa a fuoco a infinito. Per i voli sul Tempio di Iside è stata programmata una ripresa con scatti eseguiti in corrispondenza dei waypoint calcolati in fase di progettazione, imponendo che, per ottenere una minima ridondanza dei dati, venissero scattate due immagini per ciascun waypoint. Complessivamente per l’intera area, che presenta un’estensione di circa 0.57 ha, sono stati realizzati due voli (uno Nord-Sud e l’altro Est-Ovest) con quote relative di volo pari a circa 71 metri per la ripresa Nord-Sud e a circa 65 metri per quella Est-Ovest, ottenendo rispettivamente dimensioni medie del pixel a terra (Ground Sample
a)
Tab. 5 - Parametri di volo.
Distance – GSD) di circa 1.9 cm e di circa 1.6 cm. Per il rilievo del "Cretto di Gibellina" sono stati eseguiti due voli (Nord-Sud ed Est-Ovest) da una quota di volo di circa 160 metri predisponendo uno scatto ogni 3 secondi; in questo modo è stato possibile ottenere il ricoprimento trasversale previsto e un GSD di circa 5 cm. La tabella 5 riassume le caratteristiche principali dei voli. Contestualmente alla ripresa nelle due aree sono stati posizionati e rilevati topograficamente dei target opportunamente dimensionati in funzione delle relative altezze dei voli (di dimensioni pari a 20 cm x 20 cm per le zone del Parco Archeologico di Agrigento pari a 40 cm x 30 cm per il Cretto di Gibellina); i target sono stati utilizzati in parte come Ground Control Point (GCP) ed in parte come Check Point (CP). Le coordinate dei target, rife-
rite al sistema di riferimento UTM-WGS84 ETRF2000, sono state determinate tramite un rilievo RTK utilizzando una stazione master posizionata all’interno delle aree di rilievo. Come evidenziato in precedenza, a causa dell’irregolarità dei blocchi e al numero molto elevato di immagini, il numero, la disposizione e la precisione delle coordinate dei target rappresentano aspetti da valutare con attenzione in questo tipo di rilievi. Per quanto riguarda il numero e la disposizione dei target si è cercato di coprire in maniera omogena le aree di interesse utilizzando 18 target (10 GCP e 8 CP) per il Tempio di Iside e 24 target (16 GCP e 8 CP) per il Cretto di Gibellina. Come è noto i rilievi in modalità RTK prevedono precisioni nell’ordine di qualche centimetro; per avere però una stima più precisa dell’accuratezza delle coordinate dei punti di appog-
b)
Fig. 5 - Differenti configurazioni dei blocchi utilizzati per il dataset del Tempio di Iside: Blocco Est-Ovest (a); Blocco Nord-Sud (b).
GEOmedia n°5-2014
SPECIALE UAV gio, si è scelto di misurare le coordinate dei target del dataset del Tempio di Iside due volte in due giorni differenti. Il risultato del confronto tra le coordinate dei due rilievi ha consentito di calcolare uno s.q.m. pari a ±1.2 cm sia in planimetria che in altimetria, con errori massimi soprattutto in quota anche nell’ordine dei 4 cm. Tale verifica, anche se statisticamente non rigorosa, da un’idea più realistica delle accuratezze dei punti di appoggio e delle precisioni massime che è possibile aspettarsi dal rilievo fotogrammetrico. I diversi blocchi fotogrammetrici acquisiti sono stati utilizzati per effettuare alcune iniziali valutazioni sulla precisione metrica dell’orientamento delle immagini in relazione alle diverse configurazioni geometriche del blocco e sull’accuratezza in quota dei modelli 3D calcolati. Il processamento delle immagini è stato effettuato con il software Photoscan Professional Edition della Agisoft. Tale software è probabilmente il programma di CV più noto e più utilizzato in applicazioni fotogrammetriche terrestri e da APR e prevede una sequenza di operazioni totalmente automatiche per l’orientamento delle immagini, il calcolo del modello 3D e la generazione dell’ortofoto, utilizzando procedure di SfM e dense image matching. Durante il processo di orientamento (definito allineamento) PhotoScan stima sia i parametri di orientamento interno della camera (distanza principale, posizione del principale punto, coefficienti di distorsione) sia i parametri di orientamento esterno per ogni immagine e produce una nuvola di punti sparsi. Successivamente è possibile calcolare una dense point cloud o una mesh dell’oggetto per ottenere un modello 3D fotorealistico. Il programma consente visita il sito www.rivistageomedia.it
a)
b)
Fig. 6 - Differenti configurazioni dei blocchi utilizzati per il dataset del “Cretto di Gibellina”: Blocco Est-Ovest (a); Blocco Nord-Sud (b).
l’impostazione di un numero limitato di parametri per il controllo delle operazioni di calcolo (criterio di selezione delle coppie di immagini per la correlazione, numero massimo di punti per immagine, accuratezza dell’allineamento) e l’utilizzo di GCP e CP. I GCP possono essere utilizzati anche per “ottimizzare” i parametri di orientamento interno ed esterno tramite una procedura di bundle adjustment che consente di compensare la deformazione non-lineare del blocco fotogrammetrico e di migliorare la stima dei parametri di orientamento interno della camera. Le verifiche effettuate hanno previsto la valutazione dei residui dei GCP e dei CP su differenti configurazioni dei blocchi fotogrammetrici: • Blocco Est-Ovest • Blocco Nord-Sud • Blocco Est-Ovest con strisciate trasversali al bordo • Blocco Nord-Sud con strisciate trasversali al bordo • Blocco complessivo con le riprese Est-Ovest e Nord-Sud I voli relativi alle due aree di studio sono stati processati e valutati separatamente in relazione al diverso velivolo utilizzato. Per tutti i dataset considerati la procedura di orientamento è stata eseguita prevedendo una fase di “allineamento” in modalità high e una fase
di “ottimizzazione” dei parametri di orientamento interno ed esterno successiva alla collimazione dei GCP e dei CP. Sulla base dei risultati del rilievo topografico, l’accuratezza dei GCP è stata settata pari ad 1 cm. Per i CP sono state ottenute accuratezze planimetriche ed altimetriche nell’ordine di circa ±1.5 cm e di circa ±3.0 cm per il dataset del Tempio di Iside (Tabella 6) e nell’ordine di circa ±3.0 cm e di circa ±5.0 cm per il dataset del “Cretto di Gibellina” (Tabella 7). Come previsto i residui ottenuti per GCP e CP hanno più o meno la stessa accuratezza del rilievo topografico; inoltre i residui ottenuti in Z sono sempre risultati maggiori. Dai risultati ottenuti è possibile notare che non ci sono evidenti miglioramenti sui residui utilizzando configurazioni teoricamente più stabili. In entrambi i dataset, infatti, l’aggiunta di strisciate trasversali nei
blocchi Est-Ovest e NordSud non crea un miglioramento nei risultati, anzi, gli scarti quadratici medi in X, Y e Z sono quasi gli stessi, se non peggiori (per esempio, nel dataset del "Cretto di Gibellina" lo scarto quadratico medio della coordinata Z nella configurazione che prevede il Blocco NS + strisciate trasversali è maggiore di 1 cm rispetto al corrispondente valore del solo Blocco NS). Ciò potrebbe sembrare in contraddizione con il classico approccio fotogrammetrico che generalmente considera le strisciate trasversali utili per limitare e controllare la deformazione del blocco fotogrammetrico. Anche aumentando la ridondanza delle misure fotogrammetriche e considerando l’insieme delle immagini disponibili per ogni dataset (Blocco complessivo con le riprese Est-Ovest e Nord-Sud) non si ottiene un miglioramento sostanziale dei risultati.
Tab. 6 - Parametri statistici dell’orientamento delle immagini per il dataset del Tempio di Iside.
27
SPECIALE UAV
Tab. 7 - Parametri statistici dell’orientamento delle immagini per il dataset del “Cretto di Gibellina”.
VALUTAZIONE METRICA MODELLO 3D Ulteriori valutazioni sono state condotte anche per verificare le procedure di dense image matching implementate in PhotoScan per calcolare i modelli 3D. Tale verifica è stata fatta considerando soltanto i dataset di tre blocchi fotogrammetrici, Blocco EO, Blocco NS e il Blocco complessivo con le riprese Est-Ovest e NordSud. Per questi blocchi sono state calcolate point cloud con parametri di risoluzione “High” e “Ultra High”, che permettono di ottenere modelli 3D di estremo dettaglio, con risoluzioni che variano da 2.5 cm a 3.5 cm per il Tempio di Iside e da 7 cm a 8 cm per il "Cretto di Gibellina". La precisione metrica in quota dei modelli 3D è stata valutata
calcolando la differenza tra il valore in Z di alcuni punti di controllo uniformemente distribuiti nelle aree di interesse (376 punti nell’area del Tempio di Iside e 274 punti nell’area del “Cretto di Gibellina”), acquisiti tramite un rilievo RTK, e il corrispondente valore interpolato dalle point cloud ottenute da PhotoScan. Le differenze calcolate mostrano per i dati del Tempio di Iside una distribuzione dei residui simile in tutti i blocchi considerati con residui maggiori nella parte a nord dove si evidenziano differenze in quota anche di 20 cm (fig. 8); i valori di s.q.m. variano da ±0.079 m (Blocco EO) a ±0.086 m (Blocco NS). Per il dataset del "Cretto di Gibellina", nel confronto tra i residui del Blocco EO e del Blocco EO+NS vi è una
a)
concentrazione di differenze negative principalmente nelle zone centrali, mentre nel confronto tra i residui del Blocco NS la distribuzione delle deviazioni risulta più omogenea (fig. 9). I valori degli s.q.m. variano da ±0.050 m (Blocco NS) a ±0.097 m (Blocco EO+NS). Tutti i residui verticali calcolati sono risultati mediamente maggiori rispetto a quelli determinati nei check point utilizzati durante la fase di orientamento, nonostante tutti i punti di controllo siano stati individuati in aree pianeggianti o in aree con pendenza costante per minimizzare gli effetti dell’interpolazione nel calcolo della quota dal modello 3D. Questo risultato evidenzia come la stima della precisione effettuata per l’orientamento non possa essere considerata anche valida per le ricostruzioni 3D derivate dalle procedure di dense image matching. CONCLUSIONI Il lavoro presentato mostra alcuni primi risultati sulla valutazione metrica di rilievi eseguiti da APR. In particolare, le verifiche eseguite sul calcolo degli orientamenti non evidenziano alcuna riduzione degli scarti sui CP utilizzando blocchi fotogrammetrici
geometricamente più stabili. L’elevata ridondanza delle misurazioni (in media ogni punto ha nei casi considerati almeno 8-10 proiezioni) e l’elevato numero di punti di legame per ogni immagine (nell’ordine di 2000-4000 punti per immagine) potrebbero rendere superfluo l’uso di configurazioni geometriche di presa aerea più ridondanti tipiche della fotogrammetria aerea “tradizionale”. Inoltre, le ricostruzioni 3D calcolate, pur possedendo un livello di dettaglio molto alto, non sempre hanno accuratezze compatibili con quelle ottenute dalle procedure di orientamento, e, come si evince dalle rappresentazioni grafiche dei residui verticali, potrebbero presentare delle leggere deformazioni non evidenziabili da un semplice controllo qualitativo. RINGRAZIAMENTI Si ringrazia l’ente “Parco Archeologico e Paesaggistico della Valle dei Templi di Agrigento” per la disponibilità concessa ad accedere nelle aree oggetto dei rilievi e il Consorzio Ticonzero e la Menci Software srl per l’esecuzione dei voli nelle due aree di studio.
c)
b)
Fig. 7 - Rappresentazione grafica dei residui verticali (in m) calcolati dalla nuvola di punti 3D per il Tempio di Iside: Blocco Est-Ovest(a); Blocco Nord-Sud (b); Blocco Est-Ovest + Blocco Nord-Sud (c).
28
GEOmedia n°5-2014
SPECIALE UAV
a)
c)
b)
Fig. 8 - Rappresentazione grafica dei residui verticali (in m) calcolati dalla nuvola di punti 3D per il “Cretto di Gibellina”: Blocco Est-Ovest (a); Blocco Nord-Sud (b); Blocco Est-Ovest + Blocco Nord-Sud (c).
BIBLIOGRAFIA • Eisenbeiss, H., &Sauerbier, M., 2011. Investigation of UAV systems and flight modes for photogrammetric applications. The Photogrammetric Record, 26(136), pp. 400-421. • Lo Brutto, M., Borruso, A., D’Argenio, A., 2012. UAV Systems for photogrammetric data acquisition of archaeological sites. Journal of Heritage in the Digital Era, 1, Supplement 1, pp. 7-13. • Lo Brutto, M., Garraffa, A., Meli, P., 2014. UAV platforms for cultural heritage survey: first results. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume II-5, pp. 227-234. • Verhoeven, G., Doneus, M., Briese, C., Vermeulen, F., 2011. Mapping by matching: a computer vision-based approach to fast and accurate georeferencing of archaeological aerial photographs, Journal of Archaeological Science, 39(7), pp. 2060-2070. • Nocerino, E., Menna, F., Remondino, F., Saleri, R., 2013. Accuracy and block deformation analysis in automatic UAV and Terrestrial photogrammetry – Lesson learnt. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. II-5/W1, pp. 203-208. PAROLE CHIAVE Fotogrammetria; APR; Computer Vision; Modellazione 3D
ABSTRACT The paper describes the work conducted for the metric evaluation of areal blocks acquired using different APR systems for Cultural Heritage surveys. The work was carried out on two sites whit different extent and morphology. Two different APR systems (a multi-rotor and a fixed- wing) were used AUTORI Mauro Lo Brutto mauro.lobrutto@unipa.it Alessandra Garraffa alessandra.garraffa@unipa.it Paola Meli paola.meli@unipa.it Dipartimento di Ingegneria Civile, Ambientale, Aerospaziale e dei Materiali (DICAM), Università di Palermo
be different
S O L U Z I O N I U AV I N T E G R AT E P E R I L R I L I E V O
C A R AT T E R I S T I C H E
C A R AT T E R I S T I C H E • Multirotori quadricotteri/esacotteri anche con eliche contrapposte
• Peso al decollo: 2 kg • Motore: Brushless, potenza 500W
• Struttura full carbon/alluminio
• Autonomia di volo: 30 minuti
• Payload da 300 gr ad oltre 6 kg
• Quota di volo rilievi: 70 mt
• Camera mount con pan, tilt e sistema di smorzamento tilt e roll
• Velocità: 40/70 km/h • Resistenza al vento: fino a 30 km/h
• Autostabilizzazione e posizionamento gps
• Condizioni ambientali operative: -10 °C/+ 45°C
• Radiocomando con video real-time • Elevata stabilità ed estrema maneggevolezza • GPS differenziale a bordo, come opzione upgradabile in futuro
• Fpv: 5,8 Ghz fino a 2 Km • Volo assistito con modalità “cruise” • Reset della missione
SOLUZIONI
CAMERA SYSTEM
www.microgeo.it
LIDAR SYSTEM
INFRARED SYSTEM
Via Petrarca, 42 • 50013 Campi Bisenzio • Firenze • Italy Tel. +39 055 8954766 • Fax +39 055 8952483 info@microgeo.it www.microgeo.it
6/d - 60 6/ 600 01 15 Fa Falc con ona arra M M..ma m (AN AN)) 6 - Fax ax 071 71..9 916 165263 52 5 263 63 oma max x--po posi siti tio on nin ing g..it it sitio ittNoi ioni io oning niing n ngnon ..iit pretendiamo siittio on niing in ng g.c com m//iit
MERCATO
che
i nostri strumenti
funzionino ovunque...
....ma promettiamo che lavorino quando tu lavori.
www.geomax-positioning.it
GEOMAX SRL Via G. Marconi 86/d - 60015 Falconara M.ma (AN) tel. 071.9173386 - fax 071.9165263 mail vendite@geomax-positioning.it visita il sito www.rivistageomedia.it store.geomax-positioning.com/it
Un nuovo software che consente di produrre rapidamente modelli di edifici 3D I ricercatori della University of Twente hanno sviluppato un software che consente agli utenti di produrre rapidamente modelli 3D di edifici a costo molto ridotto. I modelli 3D così realizzati sono utilizzati ad esempio per la navigazione, corsi di formazione, pianificazione urbana e sicurezza, manutenzione, costruzione e installazione di pannelli solari. Il software può generare automaticamente il 95% dei modelli di edifici 3D dettagliati, riducendo così i costi di produzione e i tempi. Il software è basato su una ricerca condotta da Biao Xiong, che ha ottenuto il dottorato presso la Facoltà di Geo-Information Science and Earth Observation (ITC) il 5 dicembre scorso. Il software è già in uso per la fornitura di mappe 3D. Xiong ha sviluppato un software che permette agli utenti di generare automaticamente il 95% dei modelli di edifici 3D utilizzando dati laser. Il restante 5% della modellazione è un lavoro manuale realizzato efficientemente. I modelli degli edifici sono molto dettagliati. Xiong: "Il software può essere utilizzato da un vasto pubblico come Comuni e Agenzie Catastali, ma le aziende possono anche trovare interessanti situazioni come quella di un costruttore di tetti che può basare la sua offerta sul modello 3D di un tetto. Anche per aziende come... Google questo software è molto interessante. Google ha già le mappe 3D a sua disposizione, ma è molto costoso e per generare quelle mappe richiede tempo, non sono aggiornate, e aggiornando costantemente l'intera collezione ci vorrebbe troppo tempo. Tuttavia, con il nostro metodo, è possibile aggiornare automaticamente le mappe per il 95%. Ci vuole solo una settimana per produrre un modello 3D di tutta la città di Enschede con il mio portatile. Ci vogliono, ovviamente, più persone e computer per fare un modello 3D dell'intera nazione dei Paesi Bassi, cosa che comunque dovrebbe essere realizzabile entro un mese. I costi di produzione sono molto più bassi rispetto ai metodi attuali, in quanto la maggior parte del lavoro è fatto automaticamente. "Insieme a quattro colleghi, Xiong ha lanciato una start-up chiamata Dipper. Per generare i modelli 3D, il software fa uso di dati laser (LiDAR), che sono le misure acquisite da un elicottero o un aeroplano (come quelli che si trovano nella Actueel Hoogtebestand Nederland, AHN2, la collezione aggiornata di dati di altezza nei Paesi Bassi). Questo dato è disponibile gratuitamente. Gli edifici vengono ricostruiti dalle nuvole di punti di dati LiDAR. Parti del tetto vengono anche rilevate utilizzando questa tecnica. Poi, gli elementi base delle costruzioni sono riconosciute analizzando la ricostruzione dei tetti. Gli elementi sono poi modellati in un intero edificio. Se un errore viene scoperto nella costruzione del tetto, viene corretto automaticamente grazie alla capacità del software di riconoscere e memorizzare i modelli di errore. Questo garantisce la qualità del modello 3D. Il ricercatore Sander Oude Elberink riporta:… "A livello di dettaglio 2 (LOD2), i modelli 3D sono molto dettagliati. Si tratta di un livello di dettaglio nel quale possono essere modellati gli andamenti dei tetti, compresi gli abbaini. Si tratta di un enorme miglioramento rispetto al già esistente software in grado di generare modelli al livello di dettaglio 1. In confronto LOD1 è un livello di precisione con cui ogni edificio viene ricostruito con una sola altezza, il che conduce a quei modelli costruttivi aventi solo tetti piani ". Biao Xiong ha ottenuto il dottorato presso l'Università di Twente ITC Facoltà il 5 dicembre. La sua tesi di dottorato è intitolata: “Reconstructing and correcting 3D building models using roof topology graphs”. Il suo relatore di tesi è stato il prof. dr. George Vosselman e il suo assistente relatore di tesi dr. Sander Oude Elberink. La ITC La Facoltà di Geo-Information Science and Earth Observation (ITC) è una delle facoltà dell’Università di Twente. All’ITC, viene eseguita ricerca e fornite lezioni nel campo della scienza della geo-informazione e osservazione della Terra, con particolare attenzione alle applicazioni nei paesi in via di sviluppo. Gli studenti della ITC provengono da tutto il mondo. L'obiettivo delle attività di ITC è lo scambio internazionale delle conoscenze, finalizzato allo sviluppo delle capacità e lo sviluppo istituzionale nei paesi in via di sviluppo e nelle economie emergenti. (Fonte: ITC) 31
MERCATO DroneMetrex lancia una soluzione per georeferenziare direttamente i fotogrammi ripresi da UAV DroneMetrex, produttore dei sistemi di mappatura fotogrammetrica TopoDrone, ha introdotto una soluzione per georeferenziare direttamente da UAV. La società australiana afferma che il vantaggio principale della soluzione a diretta georeferenziazione offerta da DroneMetrex, è la disponibilità di dati cinematici (PPK) in post processing. La società è andata in questa direzione perché il Real Time Kinematic (RTK) ha problemi di collegamento radio e problemi di distanza. E' limitato al campo della telemetria e da altre interferenze radio (quali terreno, vegetazione, edifici, condizioni atmosferiche). La precisione RTK si riduce con l'aumentare della distanza e se si perdono frequenze radio o telemetria durante il volo possono mancare dati che compromettono la precisione di tutto il percorso di volo. Una componente importante delle soluzioni PPK a diretta georeferenziazione offerta da DroneMetrex è un ricevitore accurato GPS a bordo di TopoDrone che registra autonomamente le coordinate GPS del drone per ogni posizione di acquisizione dei fotogrammi. La precisione della posizione del fotogramma è anche direttamente correlata alla sincronizzazione dell'otturatore della fotocamera con la registrazione GPS. Avendo questo in mente, gli specialisti DroneMetrex hanno modificato l'interno del la fotocamera e sincronizzato l’antenna L1 / L2 / Glonass / BDS per ottenere la massima precisione di mappatura. Un altro aspetto che ha ricevuto molta attenzione degli esperti DroneMetrex è la posizione dell'antenna GPS a bordo in relazione alla camera. Il TopoDrone-100 ha l'antenna GPS montata direttamente ed esattamente sopra il centro dell'asse della camera per la massima precisione di fotogrammetria. Il post-processing GPS differenziale viene poi utilizzato per ottenere le esatte posizioni della telecamera. (Fonte: Gim International) ScanStation HDS P15 di Leica: facile con "one-touch button" e calibrazione automatica Teorema presenta il Laser Scanner HDS P15 Leica, la semplicità di un laser scanner premendo un solo tasto! La Leica ScanStation P15 utilizza una combinazione ottimale di misure angolari e distanza di misura per offrire un'eccezionale qualità di punti 3D ed affidabilità del prodotto. Leica ScanStation P15 induce una "Calibrazione" on-board che consente il controllo elettronico degli errori dello strumento. Dopo l'esecuzione della "Calibrazione" si avrà la certezza che il vostro Laser Scanner sarà in grado di restituire i migliori risultati. Qualità dei dati e velocità Il nuovo Leica ScanStation P15 raggiunge rapidamente una velocità di scansione pari a un millione di punti al secondo e restituisce la pià alta qualità possibile di dati 3D per scansioni di progetto con portata fino a 40m. Inoltre l’alta precisione delle misure angolari e la verifica delle inclinazioni tramite il compensatore, rendono Leica ScanStation P15 perfettamente adatto per rilievi as-built in qualsiasi applicazione. Facile da usare Leica ScanStation P15 dispone di un’interfaccia touch screen intuitiva e facile da usare La Scansione “one-touch button” ed il software in modalità wizard garantiscono un flusso di lavoro semplice ed un controllo rapido dei dati sul campo Grazie al controllo remoto delle WLAN Leica ScanStation P15 può essere utilizzato da qualsiasi dispositivo palmare. Le condizioni di lavoro possono essere estreme e Leica ScanStation P15 è stata progettata per affrontarle. La P15 ha un range operativo di temperature da -20°C a +50°C e un grado di protezione IP54. Pioniere nello sviluppo dei laser scanner terrestri, Leica Geosystems ha anni di esperienza nello sviluppo delle migliori tecnologie ad alta qualità. La famiglia dei prodotti Laser Scanner Leica Geosystems oltre al laser scanner ultra veloce Leica Scanstation P15 include anche la potenza e versatilità nei sistemi di misura "time-offligt" e nei sistemi di scansione degli scavi. La gamma di prodotti Laser Scanner si arricchisce ulteriormente con i software Leica Cyclone e Leica CloudWorx, offrendo un range completo di strumenti di georeferenziazione e CAD integrato per creare, gestire ed inviare i dati delle scansioni con facilità senza precedenti. Teorema srl Milano è distributrice per Lombardia e Piacenza degli Strumenti Topografici Leica Geosystems. (Fonte: Teorema srl) 32
GEOmedia n°5-2014
MERCATO L'Istituto Nazionale di Geofisica e Vulcanologia abbraccia la causa dell'Open Access L'Istituto nazionale di geofisica e vulcanologia ha confermato, insieme agli altri Enti di ricerca e agli Atenei italiani, con la Road Map 2014-2018, la sua adesione a sostenere lo sviluppo dell'Open Access e l'internazionalizzazione della ricerca scientifica. Sostenere l'attuazione di politiche istituzionali volte a consolidare lo sviluppo dell'Open Access (OA) e a favorire le opportunità di internazionalizzazione della ricerca scientifica italiana in linea con le indicazioni della Commissione Europea (Horizon 2020). Sono alcuni degli obiettivi dell'accordo della Road Map 2014-2018, sottoscritto dal Presidente dell'Istituto nazionale di geofisica e vulcanologia (Ingv), Stefano Gresta, insieme agli altri Enti di ricerca e Atenei italiani, nell'Aula Magna dell'Università di Messina, in occasione del decennale della firma apposta nel 2004 alla Dichiarazione di Messina dai Rettori delle università italiane (http://decennale.unime.it/). "Con la firma di questo Accordo", spiega Stefano Gresta, "l'Ingv, da sempre favorevole a un approccio condiviso tra le istituzioni accademiche e di ricerca italiane grazie al sostegno e al coordinamento della Conferenza dei rettori delle università italiane (Crui), si impegna ad adottare una policy nazionale per il deposito, l'accesso aperto e l'uso dei dati prodotti dalla comunità scientifica, secondo quanto indicato dalla Commissione Europea e gli standard internazionali. Il contributo dell'Ingv, risultato fra gli enti pubblici di ricerca (Epr), nell'ultima valutazione dell'Anvur (Agenzia nazionale di valutazione del sistema universitario e della ricerca), il più innovativo in rapporto alle sue dimensioni (con una percentuale del 22,2%), consentirà di migliorare la circolazione e la diffusione dei risultati delle ricerche nei settori della geofisica, vulcanologia e ambiente". L'Ingv è stato uno degli gli enti di ricerca pionieri dell'accesso aperto. Dal 2005 possiede un archivio digitale di geosciences harvestabile, interoperabile con tutti gli archivi internazionali, che rende fruibili le pubblicazioni dell'Ente, prive di vincoli editoriali (www.earthprints.org). Dal 2010 ha anche messo online e ad accesso aperto la rivista Annals of geophysics (www.annalsofgeophysics.eu), la cui prima pubblicazione risale al 1948, con il modello gold road, ossia pubblicazione di articoli Open Access, scaricabili gratuitamente sotto la licenza creative Common 3.0 attribution. Altra sfida in questo settore, la nuova piattaforma dell'Ingv, EPOS (http://www.epos-eu.org/), una infrastruttura per la condivisione virtuale dei risultati delle ricerche teoriche e sperimentali e l'accesso a nuovi dati, prodotti scientifici e laboratori. “L'Open Access non solo potenzia la ricerca, ma sviluppa l'innovazione e avvicina la scienza ai cittadini. Consentire alla comunità scientifica di sfruttare pienamente le opportunità offerte da questo strumento, sia nelle sue forme di editoria alternativa, sia come mezzo per la divulgazione della propria opera in parallelo ai canali di editoria tradizionale, rappresenta una grande opportunità per il futuro della comunicazione scientifica.” conclude il Presidente dell'Ingv.
Yallowscan: il laser scanner da drone
(Fonte: INGV)
(Fonte: Microgeo)
Microgeo propone il primo dispositivo Lidar Laser Scanner integrato a bordo del drone multirotore, UAV Lidar, IMU e GPS in soli due chilogrammi di payload. Il sistema multi target integrato (fino a 3 echi) garantisce una elevata penetrazione del segnale nella vegetazione. La piena sicurezza del sistema è assicurata dall'impiego di un laser in classe 1. La memorizzazione dei dati avviene direttamente on-board. Il sistema è compatibile con altre piattaforme mobili (autoveicoli, imbarcazioni, veicoli su rotaia). Sistema UAV LIDAR • Laser, IMU e GPS integrati • Laser Classe 1 • Lunghezza d'onda: 905 nm • Divergenza del fascio: 0.1 x 0.8° • Portata: consigliata 100 m, max 150 m • Risoluzione: 4 cm • Accuratezza assoluta (XY): 10 cm + 1% x Altitudine • Accuratezza assoluta (Z): 10 cm + 0.5% x Altitudine • Campo di ripresa dello scanner: consigliata 60°, max 100° • Risoluzione angolare dello scanner: 0,125° • E chi per ogni singolo impulso: fino a 3 • Dimensioni: L.150 mm, P. 200 mm, H. 150 mm • Autonomia: 2 ore (consigliata) • Temperatura di esercizio: -20°C - +50°C
Autodesk rilascia un nuovo servizio cloud per l’interoperabilità in campo civile Autodesk ha reso disponibile un nuovo servizio Cloud, chiamato Civil Engineering Data Translator, che permette la conversione bidirezionale dei dati tra AutoCAD Civil 3D e i software Bentley® GEOPAK® e Bentley® Inroads®. Non si tratta di un semplice traduttore del formato DGN di Microstation: questo nuovo servizio cloud permette di tradurre tutti gli elementi a valore aggiunto di un progetto stradale: punti rilevati (points), piani quotati del terreno (Surfaces), tracciati (Alignments) livellette (Profiles) e così via. Il traduttore, quindi, permette ad AutoCAD Civil 3D di usare, senza perdere informazioni, i progetti realizzati con i software concorrenti di Bentley. Oppure, di tradurre i progetti realizzati con AutoCAD Civil 3D per chi usa i software Bentley® GEOPAK® e Bentley® Inroads®. Il servizio Cloud è disponibile per i possessori del contratto di manutenzione (Autodesk Subscription) per AutoCAD Civil 3D, oppure Infrastructure Design Suite Premium ed Ultimate.
Nuove stampanti 3D di HP, la forma del futuro Immaginate l'innovazione che migliora le prestazioni in tutte le dimensioni. Adesso è diventata realtà grazie alla nuova stampante 3D di HP Multi Jet Fusion. Grandi salti avanti per quanto riguarda la velocità di stampa e la qualità dei pezzi. Per non parlare delle nuove funzionalità di colore che la rendono più creativa nei materiali. Sfruttando decenni di leadership nel settore della stampa ed ispirata alla collaborazione creativa tra materiali e soluzioni software complete, HP Multi Jet Fusion, si basa su un'architettura proprietaria sincrona e multi-agent che migliora l'intero processo di stampa. La tecnologia HP Multi Jet Fusion, permette al mondo, di realizzare a pieno potenziale le parti altamente funzionali della stampa in 3D e di controllare le proprietà dei materiali, al di là, di quelle che si trovano in altri processi di stampa 3D, come le texture, l'attrito, la forza e l'elasticità, le proprietà termiche, e altro ancora.
(Fonte: Autodesk)
(Fonte: HP)
visita il sito www.rivistageomedia.it
33
MERCATO Intergeo: Topcon vince il 'Wichmann Innovation Award' con il Topcon LN100 per il BIM Durante l'ultimo Intergeo Topcon Positioning Group ha vinto il 'Wichmann Innovation Award' con il Topcon LN-100. Il premio viene assegnato annualmente al miglior prodotto o applicazione, da una giuria indipendente di importanti professionisti della geomatica in occasione della fiera Intergeo in Germania. Piazzatosi al primo posto su una platea di nove nomination, il Topcon LN-100, sistema monoperatore per il tracciamento di cantiere, è stato scelto avendo in mente criteri di “innovazione, facilità d'uso e praticità”. “L'attuale accelerazione dell'implementazione del BIM, combinata con la necessità di soluzioni di posizionamento di precisione facili da usare che l'LN-100 offre, hanno fatto ricadere la scelta su Topcon,” ha detto Ian Stilgoe, director of geomatics di Topcon. “Caratteristiche uniche come l'auto-livellamento, l'ininterrotto flusso dei dati dal progetto alla campagna e la semplicità di utilizzo, si sono rivelati benefici determinanti per l'utente. “Eliminando il superfluo ed alcune caratteristiche "intimidatorie" proprie di una stazione totale robotica, l'LN-100 si presenta come uno strumento dedicato ideale, con in più una ridotta curva di apprendimento, per le operazioni di tracciamento di cantiere e controllo qualità,” ha aggiunto Stilgoe. Questo è il terzo anno che viene assegnato il premio 'Wichmann Innovation Award'.
Optech annuncia il primo sensore LiDAR multispettrale Optech ha appena annunciato un passo avanti molto importante per sensori lidar aviotrasportati. Il Titan è il primo sensore lidar multispettrale al mondo. Titan si stacca dalla convenzione, combinando tre fasci di lunghezze d'onda diverse, aumentando il contenuto di informazioni che possono essere derivate dalla superficie rilevata e permettendo ai professionisti del rilievo di poter affrontare molte altre applicazioni utilizzando un solo sensore. Titan è dotato di tre fasci laser indipendenti a diverse lunghezze d'onda, con una frequenza di campionamento a terra combinata prossima a 1 MHz. Il sensore include la piena compatibilità per gyro-stabilizzazione per la predittività della distribuzione dei punti e uno scanner completamente programmabile per significativi aumenti di densità dei punti in angoli visuali (FOV) stretti.
(Fonte: Geotop Topcon Italia)
(Fonte Optech)
Presentata da ENEA una nuova metodologia basata su LiDAR per prevedere le eruzioni vulcaniche Riuscire a prevedere l’approssimarsi di un’eruzione vulcanica, potendo preallertare le popolazioni delle zone circostanti potrebbe presto diventare una realtà grazie ad una tecnologia tutta italiana presentata oggi a Monaco di Baviera presso l’Agenzia Aerospaziale tedesca, in una conferenza di esperti europei ed aziende leader del settore. Si tratta di un radar laser (o LiDAR) messo a punto dall’ENEA, basato su una tecnologia molto sofisticata che permette, per la prima volta, di misurare la concentrazione di Co2 nei gas vulcanici, un’operazione che con altre tecniche è rara, lenta, pericolosa e complessa anche per la difficoltà della distanza. Sono stati i vulcanologi a chiedere all’ENEA di sviluppare un radar laser capace di misurare rapidamente e a distanza il biossido di carbonio nei fumi, in modo da affinare i modelli di previsione delle eruzioni, sperando in futuro di poter allertare la popolazione in caso di pericolo. "Misurare il biossido di carbonio in pennacchi vulcanici è una sfida scientifica e tecnologica di estrema importanza. Infatti, è ormai assodato che le eruzioni sono precedute dall’aumento di questo gas nel fumo che esce dal cratere" spiega Luca Fiorani del Laboratorio Diagnostiche e Metrologia del Centro ENEA di Frascati che ha sviluppato il radar-laser. Il laser-radar è stato messo a punto nell’ambito del progetto europeo BRIDGE (Bridging the gap between gas emissions and geophysical observations at active Volcanoes) dell’European Research Council, coordinato dal Prof. Alessandro Aiuppa dell’Università di Palermo ed è stato chiamato BILLI, acronimo di BrIdge voLcanic Lidar. BILLI è in grado di misurare fino ad un chilometro di distanza e, grazie ad un sistema di specchi, il fascio laser può essere orientato in qualsiasi direzione, mirando con precisione la zona di pennacchio vulcanico da investigare. I primi test sul campo sono stati fatti dal 13 al 17 ottobre presso la solfatara di Pozzuoli con il supporto dei ricercatori del Laboratorio di Chimica Ambientale dell’ENEA del Centro Ricerche Portici. "Una misura del genere non era mai stata fatta in precedenza– osserva il Prof. Aiuppa – e il radar laser permetterà di effettuare scansioni dei pennacchi vulcanici, simili alle tomografie, con rapidità e continuità molto superiori a quelle ottenute finora, con lo scopo finale di sorvegliare le emissioni di fluidi dai vulcani attivi, comprenderne il comportamento, e contribuire alla previsione delle sue dinamiche." La tecnologia radar laser di BILLI si presta anche ad altre applicazioni in ambienti ostili, come i luoghi dove si è sviluppato un incendio o in contesti industriali o cittadini dove ci sono emissioni dovute a processi di combustione. Sotto potete vedere il video di presentazione del progetto realizzato da ENEA. (Fonte: ENEA)
34
GEOmedia n°5-2014
MERCATO Da Esri e USGS la mappa delle unità territoriali ecologiche alla più alta risoluzione spaziale oggi possibile chiamata ELUs La mappa globale ELUs ritrae una divisione e classificazione delle informazioni ecologiche sulle caratteristiche della superficie terrestre in modo sistematico. Il lavoro è stato commissionato dal Group on Earth Observations (GEO) e stampato dalla Association of American Geographers (AAG). "Questa mappa fornisce, per la prima volta, un prodotto GIS-ready web-based eco-fisiografico globale, dei dati per i gestori del territorio, gli scienziati, gli ambientalisti, gli urbanisti e il pubblico che intende utilizzare il sistema per analisi del paesaggio a scala globale e regionale", ha detto Roger Sayre dall’USGS (United States Geological Survey). "La mappa globale ELUs va verso un obiettivo ripetibile, quale l'approccio 'big data' per la sintesi e la classificazione di importanti livelli di dati della superficie terrestre in unità territoriali distinte ed ecologicamente significative.” Le unità territoriali ecologiche forniscono un quadro contabile spaziale per la valutazione dei servizi ecosistemici, come lo stoccaggio del carbonio e la formazione del suolo, così come i rischi importanti quali il degrado ambientale. Esri ha creato una Story Map e personalizzato una App che consente l'esplorazione e la comprensione complementare. "Le unità territoriali ecologiche si prestano anche allo studio delle diversità ecologiche, la rarità e l'isolamento evolutivo", ha dichiarato Randy Vaughan da Esri. "Per esempio si possono individuare più diversi paesaggi in termini di caratteristiche uniche territoriali ecologiche. Comprendere la diversità può indicare la strada per una migliore pianificazione della conservazione ". "I dati saranno importanti anche per lo studio dei cambiamenti ambientali. L'approccio oggettivo e automatizzato alla classificazione consente alla mappatura di essere aggiornata non appena dati migliori o più stratificati siano resi disponibili."
Rendere personalizzabili i droni Sviluppato da una startup con radici MIT, il nuovo sistema operativo per gli UAV, potrebbe velocizzare le progettazioni dei produttori, per usi applicati di vario genere. Oggi, centinaia di aziende in tutto il mondo stanno producendo droni per monitoraggio di ogni tipo: dalle infrastrutture, al controllo del bestiame fino alle missioni di ricerca e soccorso. Il tipo di utlizzo è sempre lo stesso e cioè quello del monitoraggio. Quindi modificarli per questa tipologia di utilizzo, significherebbe tornare al tavolo da disegno, che può essere molto costoso. Ora l'azienda AIRWARE, fondata dal MIT, ha sviluppato una piattaforma hardware, software e servizi di cloud che consentiranno ai produttori di selezionare e scegliere le varie componenti in base alla tipologia di utilizzo che non dovrà essere specifica del settore ma in base al tipo di uso applicato. La componente chiave è un dispositivo pilota automatico basato su Linux, una piccola scatola rossa che verrà installata sui droni. "Questa renderà il volo affidabile e sicuro fungendo da hub per i componenti, in modo che possa raccogliere tutti i dati e visualizzare queste informazioni ad un utente", così afferma Downey, amministratore delegato di AIRWARE, che ha ricercato e costruito software per droni per tutto il suo periodo lavorativo al MIT. Queste piattaforme sviluppate da AIRWARE verranno utilizzate da tutte le industrie del settore in continuo sviluppo comne ad esempio la Delta Drone in Francia che la utilizzerà per operazioni minerarie all'aperto, uso agroclo e missioni di salvataggio. Un altro produttore famoso di UAV è la Cyber Technology in Australia che la sta utilizzando la piattaforma per ispezioneranno piattaforme petrolifere off-shore o per monitoraggio di incidenti stradali non segnalati e disastri ambientali. Ora con la sua più recente round di finanziamento da 25 milioni di dollari, AIRWARE prevede di lanciare la piattaforma, per l'adozione generale di tutti i tipi di droni entro la fine dell'anno.
(Fonte: Esri)
Fonte: (Phys)
Trimble diventa Principal Member dell'Open Geospatial Consortium L'Open Geospatial Consortium (OGC) annuncia che Trimble ha alzato il suo livello di adesione al Consorzio ed è passato a Principal Member. Questo consentirà a Trimble di partecipare al Comitato di programmazione dell'OGC che entra nel merito della mission del Consorzio, delle politiche e strategie adottate e delle evoluzioni. Inoltre Trimble parteciperà alle approvazioni definitive di tutti gli standard OGC, ed alle votazioni delle nomine del Consiglio di Amministrazione. Bryn Fosburgh, vicepresidente di Trimble e responsabile della Divisione Construction Technologies, ha dichiarato, "Siamo estremamente lieti di far parte del Comitato di programmazione dell'OGC e siamo ansiosi di collaborare con questo consorzio di aziende, agenzie governative, organizzazioni di ricerca e università. Riteniamo che sostenere la creazione di standard nel campo geomatico consente, agli sviluppatori di tecnologie, di rendere le informazioni ed i servizi più accessibili e utili a tutti." (Fonte: OGC) Hemisphere GNSS presenta il più piccolo ricevitore a doppia frequenza con bussola e giroscopio integrati Basato sulla tecnologia brevettata Crescent Vector della società, il Vector V104 integra due antenne satellitari GNSS, un giroscopio multiassiale e un sensore di inclinazione in un unico sistema, facile da usare. Le doppie antenne integrate forniscono sia dati di direzione che di posizione e il sensore giroscopico e di inclinazione migliorano le prestazioni del sistema fornendo informazioni di backup nel caso il segnale satellitare venga perso. La tecnologia Crescent offre una accurata gestione della fase ed eccezionale attenuazione del Multipath. Ciò si traduce in un'eccellente precisione e stabilità, permettendo all'utente di installare il V104 in aree dove prodotti concorrenti hanno difficoltà. Come alternativa al tradizionale accoppiamento di giroscopi, sensori e bussola, il Vector V104 offre una scelta di comunicazione seriale o NMEA2000, ed è ideale per una vasta gamma di applicazioni, soprattutto nei mercati marini, Mapping GIS e di controllo delle macchine. (Fonte Hemisphere GNSS)
visita il sito www.rivistageomedia.it
35
REPORTS
PROGETTO MIAPI MONITORAGGIO E INDIVIDUAZIONE DELLE AREE POTENZIALMENTE INQUINATE
di Laura Petriglia, Christian Peloso e Salvatore Costabile
La forte connessione tra criminalità organizzata e degrado ambientale è stata ampiamente dimostrata sia in sede investigativa che giudiziaria.
Soprattutto nelle aree
ove l’illegalità diffusa è un fenomeno pervasivo occorre che le politiche di sviluppo siano accompagnate da una particolare attenzione alla difesa dell’ambiente e al controllo del territorio anche attraverso l’ausilio delle tecnologie più avanzate.
IL PROGRAMMA OPERATIVO NAZIONALE “SICUREZZA PER LO SVILUPPO” L’Unione Europea, al fine di ridurre le evidenti differenze esistenti tra le regioni più ricche e quelle meno favorite ha elaborato una specifica politica di coesione economica e sociale; gli strumenti messi a punto per raggiungere tale obiettivo sono i cosiddetti fondi strutturali europei e di investimento europei. La programmazione relativa a tali fondi è attuata attraverso programmi operativi che possono essere regionali, POR (Piano Operativo Regionale), o nazionali, PON (Piano Operativo Nazionale). Ciascun programma copre un arco di tempo di sette anni ed è elaborato dal singolo Stato Membro sulla base di procedure trasparenti nei confronti del pubblico e conformi ai rispettivi quadri istituzionali e giuridici. Il Programma Operativo Nazionale “Sicurezza per lo sviluppo - Obiettivo convergenza” 2007- 2013 aveva come obiettivo globale “diffondere migliori condizioni di sicurezza, giustizia e legalità per i cittadini e le imprese, contribuendo alla riqualificazione dei contesti caratterizzati da maggiore pervasività e rilevanza dei fenomeni criminali e all’incremento della fiducia da parte della cittadinanza e degli operatori economici.” Il PON Sicurezza, il cui titolare è il Dipartimento della Pubblica Sicurezza del Ministero dell’Interno, aveva una dotazione finanziaria di 1.158 milio36
ni di euro di cui il 50% cofinanziato dall’Unione Europea, attraverso il Fondo Europeo di Sviluppo Regionale e il restante 50% dallo Stato Italiano. Le regioni interessate dal PON Sicurezza erano le Regioni Obiettivo Convergenza: Calabria, Campania, Puglia e Sicilia. L’obiettivo globale del PON è stato perseguito attraverso tre assi principali: 4Asse 1: Sicurezza per la libertà economica e d’impresa; 4Asse 2: Diffusione della legalità; 4Asse 3: Assistenza tecnica. In particolare l’Asse 1 – Sicurezza per la libertà economica e d’impresa aveva come obiettivo specifico quello di “determinare una maggiore sicurezza per la libertà economica e d’impresa”. All’interno dell’Asse 1, l’Obiettivo Operativo 1.3 – Tutelare il contesto ambientale aveva come scopo il potenziamento delle forme di tutela dell’ambiente dall’aggressione criminale a tutela del benessere sociale ed economico delle Regioni Obiettivo Convergenza anche attraverso la sperimentazione di strumenti innovativi per il controllo, il monitoraggio e la prevenzione degli illeciti riguardanti l’ambiente in genere. Il Progetto per il “Monitoraggio e l’Individuazione di Aree Potenzialmente Inquinate (MIAPI) nelle Regioni Obiettivo Convergenza” si colloca proprio in questo particolare obiettivo operativo.
Fig. 1 - Mappa di plausibilità della regione Campania.
IL PROGETTO MIAPI Il Progetto MIAPI, ideato nel 2011, nasce dalla collaborazione tra il Ministero dell’Ambiente e della Tutela del Territorio e del Mare e il Comando Carabinieri per la Tutela Ambientale, da tempo impegnato ad accogliere le istanze di sicurezza in tema ambientale provenienti dalla società civile e alla ricerca costante di metodologie operative e soluzioni tecniche innovative che migliorino le capacità investigative e di intervento. Il Progetto MIAPI, finanziato con 10.556.570,00 di euro, ha come obiettivo la localizzazione di possibili fonti di inquinamento attraverso l’individuazione delle anomalie che si riscontrano in alcuni parametri fisici e geofisici (magnetici, spettrometrici e termici) misurati attraverso sensori da piattaforma aerea. Il progetto prevede l’acquisizione di un totale di circa 12.000 km2 di rilievi aerei a cui si aggiungono 1550 km di verifiche a terra. Il Progetto MIAPI, il primo in ambito nazionale su vasta scala, ha una connotazione fortemente innovativa perché, per la prima volta, sono state applicate tecniche normalmente utilizzate nel campo dei rilievi geologici GEOmedia n°5-2014
REPORTS all’ambito della tutela dell’ambiente e della prevenzione di reati ambientali. Per la realizzazione del progetto e il suo svolgimento è stata indetta una gara europea a seguito della quale è risultato aggiudicatario del contratto un raggruppamento temporaneo composto da Telecom Italia S.p.A. e Helica S.r.l. Il contratto tra il Ministero dell’Ambiente e il RT.I. è stato stipulato il 19 dicembre 2012 ed i lavori sono stati avviati nel maggio 2013. Gli obiettivi principali del Progetto MIAPI sono:
1. l’individuazione di discariche abu-
sive e siti potenzialmente contaminati con l’ausilio di dati telerilevati da piattaforma aerea; 2. la verifica a terra tramite indagini di campo delle anomalie riscontrate dall’analisi dei dati telerilevati; 3. la creazione di sistema informativo multimediale (Sistema Informativo Aree Potenzialmente Inquinate SIAPI) delle anomalie riscontrate sul territorio. STRUTTURA DEL PROGETTO MIAPI Il progetto si articola fondamentalmente in tre fasi. Nella prima fase, attraverso un’analisi multicriteria su dati storici, sono state individuate le aree che statisticamente possono essere oggetto di crimini ambientali e quindi da analizzare. Il passo successivo ha previsto le attività di volo aereo (elicottero ed aereo) multi sensore (spettrometro gamma, magnetometro, termico, fotogrammetrico) sui 12.000 km2 (65.000 km lineari di rilievo) di territorio. I dati rilevati, che hanno richiesto oltre 1500 ore di volo, sono stati quindi analizzati con lo scopo di individuare eventuali anomalie, dei parametri misurati e di localizzare aree potenzialmente inquinate su cui focalizzare poi le tradizionali analisi a terra. I dati acquisiti vengono anche confrontati con serie fotogrammetriche storiche e contestualizzati al fine di limitare al massimo errori di interpretazione. La seconda fase del progetto ha previsto la verifica, tramite indagini in campo con strumenti geofisici, dell’effettiva presenza di inquinanti in corrispondenza dei siti individuati; in caso positivo si è proceduto alla precisa localizzazione e perimetrazione dell’area anomala. La terza e ultima fase del progetto è consistita nell’implementazione di un sistema informativo centralizzato, condiviso e aggiornabile, delle informazioni relative ai siti potenzialmente inquinati. visita il sito www.rivistageomedia.it
INDIVIDUAZIONE DELLE AREE DA RILEVARE (FASE I) La scelta delle aree da rilevare si è basata principalmente su tre criteri.
1. vincoli legati alla normativa aero-
nautica vigente e alla necessità di mantenere una quota di volo stabile e costante; 2. analisi multicriterio applicata sia a criteri geomorfologici sia a elementi derivanti dall’attività umana; 3. s egnalazioni provenienti dalle Agenzie Regionali per la Protezione dell’Ambiente (ARPA), dai Nuclei Operativi Ecologici (NOE) e dalle Procure della Repubblica. Per quanto riguarda il primo punto la scelta è legata innanzi tutto alle limitazioni al volo derivanti dalla normativa vigente che ha richiesto l’esclusione di alcune aree quali centri abitati con estensione superiore ai 2 km2, zone interdette al volo, ecc. Inoltre, al fine di raggiungere il miglior compromesso tra superficie investigata e accuratezza dei dati rilevati, la quota di volo dell’l’elicottero è stata fissata a 100 m. dalla superficie terrestre per lo spettrometro e 70 m. per il magnetometro; ciò implica che la superficie terrestre non deve presentare inclinazione superiore ai di 15°, soglia limite per mantenere una velocità che garantisca la stabilità del magnetometro durante le fasi di volo. Questo criterio ha di fatto escluso dalle aree da rilevare tutte quelle zone con pendenza superiore ai 15°. Per il secondo punto, una volta eliminate tutte le aree non volabili si è fatto ricorso all’applicazione di modelli decisionali basati su metodi di Analisi Multi-Criterio (MCA - Multi Criteria Analysis), nei quali gli algoritmi del modello utilizzato sono stati basati sull’analisi di una serie di dati acquisiti attraverso le ARPA Regionali e gli Enti Locali. Il risultato ultimo è stato quello di ottenere le mappe di plausibilità (Figura 1) sulla presenza di aree potenzialmente contaminate. Le variabili dell’Analisi Multicriterio prese in considerazione sono state:
Fig. 2 - Aree sottoposte a rilievo nelle 4 Regioni Obiettivo Convergenza.
(AMAN) individuate mediante change detection fotointerpretativa di immagini satellitari ad alta risoluzione; 6. informazioni di carattere geomorfologico. A quanto sopra si aggiungono le segnalazioni, provenienti dalla collaborazione con le ARPA Regionali e i NOE presenti sul territorio, su alcune aree che si riteneva utile sottoporre a rilievo. Dalle mappe di plausibilità sono state desunte le aree da sottoporre a rilievo (Figura 2). RILIEVO DA PIATTAFORMA ELITRASPORTATA E POST PROCESSAMENTO Al fine di restituire dati di alta qualità e precisione, il rilievo aereo è stato eseguito a bassissima quota circa 100 m. come si evidenzia nella Figura 3.
1. impianti di cave, discariche e siti industriali;
2. viabilità; 3. uso del suolo; 4. densità abitativa; 5. Anomalie Morfologiche ANtropiche
Fig. 3 – Quota di volo del rilievo.
37
REPORTS
Fig. 4 – Uno degli elicotteri utilizzati per il rilievo: in primo piano il magnetometro.
Helica s.r.l., che all’interno del R.T.I. vincitore della gara aveva in carico i rilievi aerei, ha utilizzato due elicotteri Eurocopter AS350 B3, certificati dalle autorità competenti sia per l’abilitazione a condurre rilievi aerei sia per l’installazione a bordo dei sensori geofisici aviotrasportati. Ogni elicottero era dotato di una coppia di sensori costituita da un magnetometro GemSystem GSMP 35 A (Figura 4) e uno spettrometro raggi Gamma Radiation Solutions Inc RSX 5 (Figura 5). Al fine di allargare il campo di indagine nell’identificazione di siti potenzialmente inquinati si è realizzato anche un rilievo termografico aviotrasportato. La termografia a raggi infrarossi (IR) è una tecnica che, misurando la radiazione infrarossa emessa da un corpo, è in grado di determinarne la temperatura superficiale. La mappatura della temperatura della superficie è fondamentale per poter valutare lo stato di conservazione dell’area di indagine; infatti, anomalie nella distribuzione delle temperature superficiali possono mettere in evidenza situazioni di rischio ambientale come interramenti abusivi di materiale organico, fuoriuscita di percolato ad alta temperatura, esalazioni anomale di biogas, ecc. L’elaborazione dei dati geofisici, basata su controlli qualitativi stringenti e analisi statistiche, si è suddivisa in una serie di procedure specifiche atte a filtrare il dato dal rumore presente ed
Fig. 6 - Esempio di anomalia radiometrica.
38
enfatizzare le anomalie geofisiche. In particolare, per i dati radiometrici si è proceduto con il calcolo delle Componenti Principali (Principal Component Analysis – PCA) che ha consentito di valutare quali componenti principali presentavano segnale e quali solamente rumore. A valle della PCA ciascun spettro è stato ricostruito sulla base delle sue componenti principali in modo da apparire privo del rumore statistico. Il passo successivo è stata l’analisi di “fit” che, attraverso il metodo dei minimi quadrati, ha permesso di valutare quali elementi radioattivi sono presenti nell’area. Infine, è stato rimosso il disturbo legato al Radon atmosferico che, essendo un figlio prodotto dal decadimento dell’uranio va eliminato in quanto potrebbe alterare le mappe dell’Uranio stesso aumentandone il numero dei conteggi al secondo. Per quanto riguarda i dati magnetici si è proceduto prima ad una valutazione del rumore e ad un’analisi dei gradienti nelle tre direzioni. Successivamente si è proceduto con la rimozione del campo magnetico terrestre (IGRF correction) calcolato sulla base di un modello matematico in modo da evidenziare l’eventuale anomalia magnetica locale. Infine, sono state applicate operazioni di filtraggio singolarmente, caso per caso, per enfatizzare o minimizzare la presenza di corpi o strutture presenti (filtri di enhance).
Fig. 7 - Esempio di anomalia magnetica.
Fig. 5 – Dettaglio dello spettrometro.
Dopo la fase di processamento dei dati si è proceduto alla generazione di dataset di dati interpolati a partire dalla misure rilevate in formato grid (Figg.6,7 e 8). ANALISI DEI DATI ACQUISITI A valle del post processamento dei dati, questi sono stati analizzati dagli operatori che hanno proceduto con l’individuazione delle anomalie magnetiche, radiometriche e termiche. I dati acquisiti sono stati incrociati con altre informazioni quali ad esempio la serie storica delle ortofoto dal 1988 al 2012, una serie di immagini satellitari, lo strato informativo dei poligoni delle aree “rimaneggiate” antropicamente, rete stradale, rete ferroviaria, ecc. Questa analisi ha portato all’individuazione di circa 600 anomalie per ognuna delle quali è stata prodotta una scheda con alcune informazioni di base e necessaria agli operatori per le successive verifiche a terra. Inoltre, tutte le informazioni riportate nelle schede sono state utilizzate per costruire un geodatabase che è parte del sistema informativo SIAPI (Sistema Informativo Aree Potenzialmente Inquinate). Nella Figura 9 si riporta un esempio di scheda informativa per un’anomalia magnetica mentre nella Figura 10 si mostra la localizzazione di alcune anomalie riscontrate nella Regione Campania.
Fig. 8 - Esempio di anomalia termica.
GEOmedia n°5-2014
REPORTS
Fig. 9 - Esempio di scheda informativa per un’anomalia magnetica.
Fig. 10 - Localizzazione di alcune anomalie riscontrate nella regione Campania.
L’individuazione di un’anomalia rispetto ai parametri geofisici misurati non implica automaticamente la presenza di inquinamento. Occorre, quindi, procedere ad una verifica a terra di ciò che si è rilevato da piattaforma elitrasportata.
ATTIVITÀ DI VERIFICA A TERRA E PREDISPOSIZIONE DELLA DOCUMENTAZIONE TECNICA (FASE II) La seconda fase del progetto ha previsto l’utilizzo di diverse squadre di operatori che, con la collaborazione e la conoscenza del territorio messa a disposizione dai Nuclei Operativi Ecologici dei Carabinieri provinciali, hanno proceduto con la verifica di ogni singola anomalia riscontrata attraverso prima di tutto un controllo visivo delle aree, e poi con indagini di campo eseguite con strumenti geofisici come magnetometro e spettrometro da campo, georadar, geoelettrica per terminare, a volte, con il prelievo e l’analisi di alcuni campioni di terreno. In questo modo si è potuta comprendere l’effettiva natura dell’anomalia riscontrata e, in caso positivo, procedere alla precisa localizzazione e perimetrazione dell’area anomala. Inoltre, in alcuni casi come ad esempio la mappatura di tratti di assi stradali, si sono rese necessarie ulteriori indagini eseguite con un veicolo laboratorio appositamente allestito con lo stesso spettrometro gamma ray installato sull’elicottero.
a)
Tale metodologia di rilievo ha unito la produttività del rilievo da aeromobile ed il dettaglio e l’accessibilità in ambiente urbano tipici dei rilievi a terra. Nelle Figure 11 e 12 di seguito si riportano due esempi di rilievi a terra eseguiti. Per ogni anomalia si predispone una relazione tecnica che è aggiornata ogni volta che si esegue un nuovo tipo di intervento sull’area. POPOLAMENTO DEL SISTEMA INFORMATIVO SIAPI (FASE III) Il Sistema Informativo del progetto MIAPI, SIAPI (Figura 13), raccoglierà tutte le informazioni funzionali allo stato di conoscenza del sito e delle operazioni svolte su di esso. In particolare saranno raccolte all’interno del sistema i dati territoriali acquisiti da rilievo aereo, i dati acquisiti dalle campagne a terra, le schede informative e le relazioni di campo prodotte; a ciò si possono aggiungere tutte quelle informazioni documentali, storiche, analitiche che possono aiutare nel definire nuove attività di rilevamento sul territorio o nel predisporre ulteriori indagini.
b)
Fig. 11 - Esempi di rilievi a terra: magnetico (a), radiometrico (b).
visita il sito www.rivistageomedia.it
39
REPORTS
Fig. 12 - Processamento dei dati rilevati in campo.
Il Sistema Informativo sarà fornito alle ARPA Regionali e ai relativi dipartimenti e al Comando Carabinieri Tutela dell’Ambiente e relativi NOE. Il SIAPI è un sistema informativo complesso perché contiene una serie di servizi fondamentali quali: 4la gestione di dati eterogenei e consultabili sia attraverso logiche di data mining sia tramite ausilio di report e di dashbaord per analisi statistica; 4interfacce in grado di acquisire, verificare e trasferire informazioni da sistemi esterni (es.: ARPA, CC, ecc...); 4acquisizione e gestione di dati ter-
ritoriali e cartografici per il popolamento del proprio geo datawarehouse (contenente dati geo referenziati); 4gestione delle anagrafiche tramite funzionalità di data-entry e consultazione del dato tramite interfacce grafiche web-oriented. RISULTATI E CONCLUSIONI Il notevole interesse suscitato dal progetto, anche grazie all’apertura di diverse istruttorie presso alcune Procure della Repubblica, sia per l’innovativa tecnica di indagine sia per la sua speditiva applicazione ha portato allo stanziamento di ulteriori fondi per investigare aree inizialmente escluse per la mancanza di capienza economica. A luglio 2014 il Ministero dell’Interno - Dipartimento della Pubblica Sicurezza ha approvato “per il soddisfacimento delle esigenze di sicurezza e legalità a carattere sovra regionale nelle 4 Regioni Obiettivo Convergenza” il progetto di estensione del progetto MIAPI originario; ad ottobre 2014 è stato firmato il contratto con il R.T.I. che prevede ulteriori 8.000 km2 di rilievi da piattaforma aerea e altri 1700 km circa di rilievi a terra e indagini geognostiche.
ABSTRACT The MIAPI Project (Detection And Monitoring Of Potentially Polluted Areas) is a cooperation between the Carabinieri Force and the Ministry of the Environment. The project, focused on the Italian Regions Campania, Calabria, Apulia and Sicily, aims to provide information for fighting environmental crimes. The project has been organized in three stages. The first one is a multiple-criteria analysis for the identification of areas potentially involved in environmental crimes. Airborne operations are part of the second stage, which includes multi-sensor surveys (gamma spectrometer, magnetometer, thermal and photogrammetry) on an area of 12000 km2. All acquired data are then analysed for the detection of possible anomalies in physical and geophysical parameters in order to plan ground surveys on specific target. If ground surveys are positive, the area is exactly delimited and classified. The third and last stage is the creation of an information system called SIAPI. SIAPI, implemented by the Ministry of the Environment, is updated and feed by the Regional Environmental Protection Agencies and the Carabinieri Force. Since a huge interest grew in the Project MIAPI, in October 2014 a contract was signed for providing additional 8,000 km2 of aerial. PAROLE CHIAVE PROGETTO MIAPI; SIAPI; POR; PON; MONITORAGGIO AREE INQUINATE; ANALISI GEOFISICHE AUTORI Laura Petriglia petriglia.laura@minambiente.it Ministero dell’Ambiente e della Tutela del Territorio e del Mare tel:+390657223140 Christian Peloso c.peloso@helica.it Helica S.r.l. tel:+39043394286 Salvatore Costabile costabile.salvatore@minambiente.it Ministero dell'Ambiente e della Tutela del Territorio e del Mare Tel:+390657228603
Fig. 13 - Home page del Sistema Informativo SIAPI.
40
GEOmedia n°5-2014
RECENSIONE
Scienze e Tecnologie delle Costruzioni
AUTORE:
Giovanni Miucci
EDITORE:
Franco Lucisano
PAGINE:
288
PREZZO:
€€€€€19,10 euro
ISBN:
D
alla piatta palude dei molti testi didattici per il corso geometri (oggi corso per i periti delle costruzioni, dell’ambiente e del territorio) ogni tanto emerge qualcosa di meritevole. E’ il caso del recente volume edito da Franco Lucisano e distribuito dalla nota casa Zanichelli, di cui si allega l’immagine di copertina. L’autore è un intelligente e ben preparato ordinario del milanese “Carlo Cattaneo”, l’architetto Giovanni Miucci, che molti anni fa nello stesso glorioso Istituto si era diplomato geometra, per cui ben conosce da entrambi i lati le necessità dei discenti. Pare giusto che il titolo sia “Scienze e tecnologia…”, avendo anteposto il sostantivo “scienze” al prescritto ministeriale “tecnologia”; infatti l’autore non si limita a descrivere elementi, materiali, strutture, modalità operative dal solo punto di vista tecnico, ma fornisce
visita il sito www.rivistageomedia.it
978-8808159779
anche il supporto concettuale di ogni argomento. Piace in particolare a chi scrive questa breve recensione, il fatto che siano indicate puntualmente le “marche” con cui segnare le varie unità di misura: in un momento in cui persino il Ministero della Pubblica Istruzione, in un documento ufficiale, scambia i “millilitri” coi “metri”, seguendo il vezzo disdicevole di parlare (o “sparlare”!) di “metri lineari”. Dimenticando che sin dalla sua introduzione nel Secolo dei Lumi, il “metro” è una grandezza per l’appunto nata per la misura di distanze. Con l’aggravante di far seguire all’errato “ml” il punto (ml.), cosa che fa rabbrividire chi si interessa anche solo un poco di metrologia. Ma i pregi del libro del professor Giovanni Miucci sono molti; vi è un corredo imponente di esercizi risolti e da risolvere, di domande e di quesiti che aiutano discente e docente a ben
assimilare ciò che il libro contiene. Ogni argomento è trattato con cura e saggezza; l’esposizione è chiara e concettualmente ineccepibile; i molti anni di insegnamento hanno messo l’autore nelle condizioni di ben capire quali siano i modi di parlare allo studente, per portarlo alla conoscenza delle cose nuove da apprendere. Pur trattandosi di un testo di tecnologia delle costruzioni, il libro ha una notevole introduzione sulle misure topografiche: non è possibile prescindere, nel progettare e nel costruire, dal rilevamento del terreno, quindi dalla indispensabile conoscenza delle operazioni più semplici della misura e della rappresentazione. Non resta che congratularsi con l’autore, augurando buona fortuna a questo libro veramente ben fatto. di Attilio Selvini, Politecnico di Milano
41
GUEST PAPER
ISTAT DATA UTILIZATION TO ENHANCE LANDSAT 8 IMAGES CLASSIFICATION PROCESS by Stefano Mugnoli and Raffaella Chiocchini
This paper shows an experimental study based on a LANDSAT 8 image that cover completely shown that
5 provinces in the north of Italy, where it’s
ISTAT data, DEM and combine of NDVI and NDBI indices
can improve the results of the satellite image classification process.
S
ince the end of the Second World War Italian landscape has suffered the consequences derived from many occurrences that have played an important role in improving the demand of housing estates, factories, roads and highways, to name but a few. The increase in the use of cars has influenced urban sprawl in terms of amplification of residence areas option that are now further away from working and commercial ones (European Environment Agency, Urban Sprawl in Europe - the ignored challenge, EEA report n. 10/2006 [1]). So, not only the residential role of the town has been walked away from urban centers but productive and commercial too. This fact has created a gradual expulsion process from centers to suburbs, leaving urban unoccupied places and making difficult a really rational urban planning. Thus, it’s very important assess how much the ‘worn out soil’ in Italy is, and this need comes from many factors, some of these are described below: 4landscape and ecosystem fragmentation with negative impact on vegetation, wildlife and that can produce critical hydrogeological factors; 4damage in a socio-cultural sense, since landscape is a sort of human perceptual and cultural identity; 4services and urbanization cost increase. In fact the costs of a new ‘not planned’ urban areas are highest in relation to planned ones. As far as ‘urban sprawl’ is concerned Italian National Institute of Statistics
42
(ISTAT) has an important institutional role overall in statistics assessment of the phenomenon. As ISTAT is also considered in ‘Welfare Assessment Scientific Commission’ (BES Project) for the themes ‘Landscape and Cultural heritage’ and ‘Environment’, the most urgent task is to have further geographic data to assess ‘urban sprawl’ has arisen. This paper describes an experimental study where Statistical data and satellite ones are integrated to produce a geographic dataset that can help to estimate urban sprawl at medium scale. USED DATA AND PRELIMINARY ELABORATIONS The experimental study has been carried out on an area in the North of Italy. This area covers 5 Provinces in the Po valley. In order to cover the entire zone by a satellite image, a full LANDSAT 8 (LANDSAT Images can be downloaded from http://earthexplorer.usgs.gov) scene was chosen (scene LC81920292013183LGN00). The file name better explain that the scene was taken in the July 2nd 2013. Beginning February 3, 2014, all Landsat 8 data held in the USGS archives will be reprocessed. All Landsat 8 scenes will be removed from the online cache at this time and the data will then be reprocessed starting with the most recent acquisitions and proceeding back to the beginning of the mission. Data will then become available for download. Scenes waiting to be reprocessed will also be available for on-demand product orders. Reprocessing is expected to take approximately 50 days.
Fig. 1 - LANDSAT 8 image clipped on ISTAT administrative boundaries (R,G,B 4,3,2).
Many corrections will be made to the data, affecting both the Operational Land Imager (OLI) and the Thermal Infrared Sensor (TIRS). These corrections include all calibration parameter file updates since launch; improved OLI reflectance conversion coefficients for the cirrus band; improved OLI radiance conversion coefficients for all bands; refined OLI detector linearization to decrease striping; a radiometric offset correction for both TIRS bands; and a slight improvement to the geolocation of the TIRS data (details about these changes are available on http://landsat.usgs. gov/calibration_notices.php). However, the aim of the project is to extend the study to the whole Italian territory in order to evaluate, at medium scale, anthropic land cover and use overall in extra-urban areas. Satellite image was clipped using ISTAT administrative boundaries and so was extracted just the area that covers completely five provinces: Modena, Bologna, Ferrara, Ravenna, Forlì-Cesena. In fig.1 satellite image in combination R,G,B, 4,3,2 of the area in exam. Other data used have been ISTAT enumeration areas, Digital Elevation Model (20 m) elaborated by ISPRA (Superior Institute for environment Protection and Research) and ISTAT census 2010 population data. First of all LANDSAT image was classified by an unsupervised classification ISODATA algorithm; this in order to understand how many land cover classes could have been extracted from the image. The ISODATA clustering method uses the minimum spectral distan-
GEOmedia n°5-2014
GUEST PAPER
Classes
N. pixels
Interpretation
Class 1
1371212
Very wet vegetated areas; broad-leaved
Class 2
1169507
Coniferous
Class 3
1280340
Vegetation in plan areas
Class 4
803152
Rice fields; Coniferous
Class 5
371962
Coniferous
Class 7
302030
Water
Class 10
970482
Infrastructures; services
Class 11
1291884
Bare soil; not vegetated areas
Class 12
1515620
Urban areas; heterogeneous rural areas
Class 13
1294236
Dry bare soil
Class 14
369239
Dunes; beach; clouds
Tab. 1 - Unsupervised classification: summary report.
ce formula to form clusters. It begins with either arbitrary cluster means or means of an existing signature set, and each time the clustering repeats, the means of these clusters are shifted. The new cluster means are used for the next iteration. The ISODATA utility repeats the clustering of the image until either a maximum number of iteration has been performed, or a maximum percentage of unchanged pixels has been reached between two iterations. After studying the clusters distance based on ‘transformed divergence’ method, eight land cover classes were identified. Table 1 shows the results of unsupervised classification. The other classes are not significant. However, image classification is not the focal point of the study, because it will be corrected by integration with ISTAT and DEM data. Thus, supervised classification was realized considering just eight classes (Road networks, Coniferous, Broad-leaved, Water, Continuous urban fabric, Discontinuous urban fabric, Infrastructures and services, Bare soil). In order to rationalize further steps, it was decided to consider urban areas and extra-urban ones in two completely
Fig. 2 - Supervised classification (Bologna municipality). visita il sito www.rivistageomedia.it
different ways. In fact, urban areas limits derived principally from ISTAT data, while their classification both ISTAT and satellite classification. So, first of all, the classified image was clipped using ISTAT urban areas layer. In figure 2 the classified image for Bologna municipality area.
NDVI AND NDBI INDICES [2] In order to better specify land cover, overall in urban areas, some indices were calculated. So NDVI (Normalized Difference Vegetation Index) and NDBI (Normalized Difference Built-up Index) has been chosen because these can clarify green urban areas and urban fabric overall if these are utilized in combination. In fact, NDBI, that was produced using the following equation (Zha et al. 2003 [3]) NDBI = MIR-NIR MIR-NIR can’t explain by itself the built-up areas (and so the urban ones) because some studies found that many vegetated areas have positive NDBI values (i.e Cibula et al., 1992 [4]; Gao, 1996 [5]). On the other hand NDVI, produced using canonical equation NDVI = NIR-RED NIR+RED can generate positive values because some kind of artificial surfaces have a
major reflectance in NIR respect in RED. So what it has been said above allows to understand that these two indices combination give us better results. The two indices has been calculated using ERDAS/IMAGINE sw [6]. So, after having reclassify NDBI and NDVI images, taking 0 value as break point for both, a combine image was produced using ARCGIS 10.1 combine algorithm [7]. The result of this elaboration is shown in figure 3. For urban areas, just 311 pixel on 1166535 are not significant (0,026%). Other indices can be calculated to extract vegetation or other land cover typologies {i.e. NDWI or MNDWI (McFeeters,1996 [8]) for water and SAVI for vegetation (Huete, 1988 [9])}, but in this study it was decided to calculate just NDVI and NDBI since ISTAT data can be better define the results derived from image processing. ISTAT [10] DATA INTEGRATION ISTAT enumeration parcels data (ISTAT Enumeration parcels can be downloaded from http://www.istat.it/it/archivio/104317) have been updated during Census 2010 collecting data; in urban areas these parcels are very detailed and they have been drawn not only in relation to population and social parameters but land cover ones too. So these can be used, in combination to other elaborations to describe land cover/use entities at medium scale. ISTAT data was first rasterized because they are in vector format. Thus, they have been combined to image processing results in order to enhance thematic resolution of the elaborations described above. So, combining ISTAT population data linked to enumeration parcels attribute it’s possible to codify some areas according to their land cover/use ‘vocation’.
Fig. 3 - Combine NDBI & NDVI image (Bologna municipality).
43
GUEST PAPER
Fig. 4 - Example of codified enumeration area (Cemetery).
Not all enumeration parcels can be utilized for this porpoise, so it has been decided to extract just these parcels that have codes described in table 2 that have residential population less than 1 resident per hectare. In figure 4 an example of an enumeration area classified according to its land cover/use. ISTAT Code
N. pixels
Legend
5
4694
Green urban areas
12
95969
Industrial or commercial units
9
1775
Hospitals
16
142
Sport and leisure facilities
2
203
Religious institutes
3
58
Monuments
6
1025
Port areas
7
824
Airports
11
824
Military installations
18
208
Research institutes
24
204
Prisons
50
235
Water treatment plants
Fig. 5 - Synthesis of the data integration (Bologna municipality): See the text for details.
How we can see, many classes are represented by a little number of pixels and these are surely eliminated if we consider the spatial resolution of a cartography product derived from LANDSAT images (scale 1:50.000); but there is to say that all of these pixels come from single enumerations areas and so they are grouped in clusters absolutely recognizable on the classified image. But it’s better to remember, that the product of this experimentation isn’t it a cartography one. So combining NDVI/NDBI image and LANDSAT classification with ISTAT enumeration parcels in raster format as describe above, we have now a new image that represent a sort of synthesis of all of these layer. In fig 5 the synthesis image (Bologna municipality). Some land cover/use indications: 4Red tones: residential areas; 4Purple: Infrastructures and services; 4Green: Green Urban areas; 4White: Sport and leisure facilities; 4Dark yellow: Hospitals
Tab. 2 - ISTAT enumeration aparcels code chosen to combine step.
Fig. 6 - Water extraction and its land cover/use classification.
44
EXTRA-URBAN AREAS INTEGRATION At this point of the study the problem is to relate and to define the extraurban classification. ISTAT enumeration areas, in fact, aren’t very suitable to describe land cover/use in extra-urban zones as they are for urban ones. Just
few of them can be taken for this scope. For example, those that have a special area code (i.e. River, lakes, lagoons, etc.) since they are drawn exactly to the limit of these territorial features. Another problem is linked to agricultural areas; heterogeneity of these areas in terms of reflectance make the extraction of agricultural areas quite impossible, just considering LANDSAT image classification results. So another approach is needed. For this porpoise DEM and slope layer have been used. So, a sort of a ‘step by step’ extraction has been done. First of all water has been isolated using NDVI, ISTAT layer and LANDSAT classification. In fact, water can be easily extracted from LANDAST image (especially from band 2 and infrared ones); furthermore water has ever negative NDVI values too. So this land cover class has been extracted using LANDSAT image and NDVI index. But, in order to better specify ‘environmental’ and use classification of the body of water, ISTAT attributes were used; in fact in ISTAT enumeration parcels attribute table there is a code that identify the most important basins and rivers by an unique national code; using this code, water land cover/use typology can be specify. An example of what is has just been said is shown on fig.6. DEM AND SLOPE The area in exam is not very nervous in morphological sense. In fact, considering Digital Elevation Model (DEM) realized by ISPRA (Superior Institute for environment Protection and Research) with a 20m*20m cell, it’s evident that over 50% of the DEM cell have a value less than 50 m. Moreover, considering the slope value of a DEM single cell we can see that over the 55% of the cell are completely flat.
GEOmedia n°5-2014
GUEST PAPER In brief, for each cell, the slope value is calculated as the maximum rate of change in value from that cell to its neighbors. Basically, the maximum change in elevation over the distance between the cell and its eight neighbors identifies the steepest downhill descent from the cell. The lower the slope value, the flatter the terrain; the higher the slope value, the steeper the terrain. Below a scheme that explain the concept. In order to prevent critical hydrogeological factors regional technical services propose ordinary piece of legislation to plan agricultural activities. Overall, their attention is focused on areas that have a degree of slope as high as, or higher than, 30%. In this study this value has been used to discriminate agro-forestry areas.
Dem has been used to characterized flat areas and areas over 1700 m of altitude; in fact this value represent the maximum limit of woods for the area in exam. Thus using DEM and ‘slope’ layer it’ possible to classify extra-urban areas in six classes: two agricultural classes (completely plain and hilly); an ‘agroforestry’ class; a broad-leaved class and finally a ‘sparsely vegetated areas’.
About results it might be said that they have quite good quality in urban areas, while in extra-urban one agro-forest class is overestimated at the expense of ‘forest and semi-natural’ one. This is an example of the fact that ISTAT data are fundamental to calculate ‘urban sprawl’ in rural areas. In table 3 it’ shown a comparison among ‘ISTAT/LANDSAT’ layer with CORINE Land cover 2006 (CLC 2006) and Land Use Map 2008 realized by Emilia-Romagna regional technical services (LC ER), that represent the reality. All the class codes have been related to first CORINE LC level. Area is expressed in hectares. As it has been said before, the resulting map is not a really cartography product but it can be a good example of the fact that ISTAT data can be integrate with other base map that are often used to produce cartography. In this regard, ISTAT has instituted an activity in order to produce an integrated layer called Statistical Synthetic Map, with the aim to put into a cartography product not only ‘statistical data’ but administrative, cover and land use too; about that at the end of 2014 six Italian regions will be completely realized. CONCLUSION AND FUTURE DEVELOPMENT Nowadays, the activities of the study are in progress, and these are not utterly. It is necessary to individuate both some statistic strategies to meliorate classification especially in extra-urban areas, and a methodology to validate and to estimate the accuracy of this approach both thematically and globally. For the first point ISTAT residence population data can be used to better
RESULTS In figure 7 is shown a map that represent the final result of the activities briefly describe above. Furthermore, in table 3 a summary report with the extension of each classes is shown. The supervised algorithm was able to distinct coniferous woods in coastal zone, but unfortunately there are some kind of agricultural crops (especially very wet ones), that have a reflectance very similar to coniferous woods. So , in table 4 coniferous woods class is in red to highlight the fact that coniferous class data embody some pixels that belong to some specific crops. In annotation column just some pointers to specify the way in which some clasFig. 7 - ‘ISTAT/LANDSAT’ map that shows the final results of the study. Legend is specified in ses have been exTable 4 at column ‘Colour’. tracted. visita il sito www.rivistageomedia.it
Code I liv.
ISTAT/LANDSAT
CLC 2006
LC ER
1
117534,7
67969,4
126460,8
2
1059996,8
957112,8
828397,3
3
127981,8
270308,4
313306,2
4
9746,1
6854,8
24889,5
5 TOT
11993,1
22825,0
29763,0
1327252,5
1325070,4
1322816,8
Tab. 3 - Comparison among ISTAT/LANDSAT map, CORINE Land Cover 2006 and Regional Land Cover Map. Area is in hectares.
specify anthropic land use in extraurban areas. The best way to test this study is to individuate a procedure of accuracy assessment using the land cover and land use cartography like the Regional Land cover and land use map of Emilia Romagna Region. The reason for this is because this map is one of the best and complete that we have and because it use a legend quite similar at the CORINE Land Cover Legend. This map is produced at 1:10.00 scale and it is easily available in shape file format at the Technical Regional Office responsible. The main activity, at the beginning, is to harmonize the legend of the two product, because they have been realized with completely different aims. All LANDSAT image derived products not only have a return scale of 1:50.000 but the legend linked to them derived especially from the layer used to catch spectral signature of the classes. In contrast, the Emilia Romagna CUS map has a return scale of 1:10.000 with a very good accuracy. If the results of the further elaboration will be acceptable, it is possible to consider to enlarge the portion of territory to investigate using more different territorial characteristics that can better help us to individuate an approach that can be extended to whole Italian territory. At a later time it is possible to plan an integration with other geographic datasets in order to upgrade the legend details and to complete and to explain some shortcomings in the classification system adopted. 45
GUEST PAPER This experimental study represent a proposal to integrate geographic datasets that are usually used in other application fields and for very different purpose. One of the target of this project is to suggest how is a possible way to best integrate ISTAT geographic dataset that rarely are used as land/cover data. There are a lot of benefits derived from the use of LANDSAT images; first of all they are free and then they cover, for the areas of overlapping scenes, large territorial portions every eight days. To use ISTAT data gives a great advantage overall in evaluation of ‘urban sprawl’ phenomenon; in fact from ISTAT enumeration parcels layer can be extracted little urban agglomerations that are cancelled in medium scale cartography, and this fact generate an error in quantification of land cover/use classes. BIBLIOGRAFIA 1. European Environment Agency (EEA): Urban Sprawl in Europe - the ignored challenge, EEA report n. 10/2006. ISBN 92-9167-887-2 (2006) 2.Hanqiu Xu, 2007. Extraction of built-up land features from LANDSAT imagery using a thematic oriented index combination technique. Photogrammetric Engineering & Remote Sensing, Vol. 73, No. 12, December 2007, pp. 1381–1391 3. Zha, Y., J. Gao, and S. Ni, 2003. Use of normalized difference built-up index in automatically mapping urban areas from TM imagery, International Journal of Remote Sensing, 24(3):583– 594 4.Cibula, W.G., E.F. Zetka, and D.L. Rickman, 1992. Response of thematic bands to plant water stress, International Journal of Remote Sensing, 13(10):1869–1880 5.Gao, B.C., 1996. NDWI–A normalized difference water index for remote sensing of vegetation liquid water from space, Remote Sensing of Environment, 58(3):257–266 6. Intergraph ERDAS Imagine® 2013 - Version 13.00.0002.00598 ©1991-2013 Intergraph Corporation
• • • • •
Tab. 4 - Summary report with the extension of each class.
7. ESRI® ArcMap TM 10.1 – ArcGIS 10.1 SP1 for Desktop, License type: Advanced 8. McFeeters, S.K., 1996. The use of normalized difference water index (NDWI) in the delineation of open water features, International Journal of Remote Sensing, 17(7):1425–1432 9. Huete, A.R., 1988. A soil-adjusted vegetation index (SAVI), Remote Sensing of Environment, 25(3):295–309 10.ISTAT (Italian National Institute of Statistics) – DIQR – DCIQ – INT/C ABSTRACT ISTAT geographic data, updated to realize census 2010 project in October 2011, represents an useful resource to improve the results derived from Land cover/use cartography or satellite image processing. In fact, both ISTAT vector data and other cartography data (i.e. satellite image classification) can be integrated to realize a product that can help to better understand land cover data especially in urban environment (i. e. urban sprawl), although it can’t be considered a cartography product in a strict sense. This paper summarizes
an experimental study based on a LANDSAT 8 image that cover completely 5 provinces in the north of Italy, where it’s shown that ISTAT data, DEM and combine of NDVI and NDBI indices can improve the results of the satellite image classification process, especially in urban areas. Used SW: ARCGIS 10.1 for desktop (ArcInfo license) and ERDAS Imagine. PAROLE CHIAVE LANDSAT 8; ISTAT; NDVI; NDBI; ARCGIS 10.1; ERDAS Imagine; Supervised classification; Urban sprawl
AUTORE Stefano Mugnoli mugnoli@istat.it Raffaella Chiocchini rachiocc@istat.it National Institute of Statistics (ISTAT), Rome, Italy
Rilievi batimetrici automatizzati Fotogrammetria delle sponde Acquisizione dati e immagini
Mappatura parametri ambientali Attività di ricerca
Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente 46
GEOmedia n°5-2014
REPORTS GI IN EUROPE di Mauro Salvemini
INSPIRE VA ALLA REVISIONE? SI PARLA DI REVISIONE DELLA STRATEGIA EU2020 E DI INSPIRE: PUNTI DI CONTATTO?
A
novembre è uscito il documento di valutazione intermedia di INSPIRE che dovrebbe terminare la sua missione nel 2020. http://www.eea.europa.eu/publications/midterm-evaluation-report-oninspire-implementation Il rapporto è certamente benevolente, tratta con chiarezza gli obiettivi non completamente raggiunti ed onestamente indica su che cosa ci si dovrà o dovrebbe concentrare nei prossimi cinque anni. Anche la Strategy EU 2020, un po’più avanti del mezzo del cammin della sua vita avendo ancora cinque anni dalla “resa dei conti”, continua con la nuova Commissione. Anche il semestre italiano ha dimostrato sinora di avere cose nuove da dire a riguardo. https://portal.cor.europa.eu/europe2020/SiteCollectionDocuments/2459brochure-BlueprintEU2020.pdf Inspire ha reso la documentazione dei dati geografici certo molto più efficiente attraverso la maggiore disponibilità di metadati, ma ovviamente non ha potuto influenzare più di tanto, a livello dei singoli stati membri, l'accesso e il riutilizzo di dati, che vengono individuati come una barriera ancora presente. Sono stati comunque compiuti notevoli progressi. Dice il rapporto che anche l’implementazione dei servizi basati su Internet ha subito un apprezzabile sviluppo, ma sono ancora da realizzarne di nuovi e da incentivare la loro utilizzazione. L'interoperabilità, il cavallo di battaglia di INSPIRE, sta migliorando, non poteva del resto essere altrimenti seguendo lo sviluppo della ICT e con le risorse investiteci sopra anche dai produttori di sw e di dati. Il rapporto rileva che comunque la maggioranza dei dati territoriali, di cui agli allegati II e III di INSPIRE, è ancora da fornire (scadenza fino al 2020). Solo avendo dati disponibili e argomenti chiari sui quali applicarli si potrà verificare come la macchina funziona. Il rapporto evidenzia peraltro che i risultati sull'obiettivo della policy di dati e servizi e sull’obiettivo del coordinamento sono quelli che forse hanno
visita il sito www.rivistageomedia.it
sofferto maggiormente e che giustificano più di altri una revisione. Una revisione della direttiva o di alcuni suoi obiettivi strategici potrebbe essere giustificata anche dall’auspicato abbattimento delle barriere tecniche che sembrano limitare la maggiore utilizzabilità dei dati, mentre le barriere culturali ed istituzionali tra i paesi membri richiedono un rafforzamento a livello comunitario, nazionale e locale ed anche a livello transfrontaliero. Il tema dei costi-benefici ( che bisogna riconoscere è arduo da trattare) non viene toccato dal rapporto a causa della mancanza di dati attendibili al momento. Occorre riconoscere che la implementazione nazionale della direttiva privilegia la coerenza e la capacità tipicamente nazionale piuttosto che comunitaria. Ho sempre sostenuto che INSPIRE, più di altre direttive, era ed è una opportunità offerta agli stati membri: chi ha inteso sfruttarla ne ha tratto benefici, ma chi l’ ha considerata un ulteriore obbligo comunitario ha sprecato una opportunità difficilmente ripresentabile poiché nel frattempo la ICT è andata avanti e l’approccio ai dati ed ai servizi è cambiato nel giro di più di dieci anni. Qualche spunto di visione futura viene fornito dal rapporto: rafforzare il coordinamento ( ma da parte di chi ? della Commissione o degli stati membri?) , investire sulla consapevolezza e sulla formazione dei funzionari pubblici ( con quali risorse?), coinvolgere il settore privato ( con quale modello e finalità?) . Il rapporto non doveva rispondere alle domande che ho posto tra parentesi, ma di esse se ne dovrà tenere conto se si andrà ad una revisione. Il rapporto di valutazione di INSPIRE fa esplicito riferimento alla strategia EU2020 per quanto riguarda Galileo e Copernicus, come strumenti posti in essere per produrre dati, ed alla DAE ( Digital Agenda Europe) come più ampia opportunità non entrando nello specifico. Ma anche per la strategia EU 2020 si sta pensando ad una revisione proposta peraltro dalla Presidenza Italiana del Semestre. Il documento che discute e propone la revisione alla strategia EU2020 ovviamente non fa riferimento ad INSPIRE,
ma introduce ed evidenzia la differenziazione territoriale introdotta e votata già nella dichiarazione di Atene del marzo 2014 “ A territorial Vision for Growth and Jobs” . Richiama la partecipazione delle autorità locali e regionali come essenziale per la definizione di programmi. Focalizza le soluzioni di governo invocando l’approccio e la prassi multilivello. Punta direttamente alla creazione di posti di lavoro ed alla crescita. Mappando i limiti di INSPIRE sulle problematiche evidenziate da chi propone una nuova visione della strategia EU 2020, ritengo che i due strumenti dovrebbero essere considerati insieme, ovviamente ciascuno nel suo ambito di competenza, alfine di produrre vantaggi reciproci , soprattutto puntando ai benefici per INSPIRE! Tenendo a mente che la direttiva INSPIRE è una direttiva ambientale con connotati specifici ICT ed in particolare è rivolta ai dati e ai servizi informatici, e considerando che: 4 gli sviluppi avvenuti negli ultimi dieci anni nella GI sono notevoli e spesso inaspettati ; 4 le difficoltà che stanno trovando le pubbliche amministrazioni centrali nell’attuare quanto richiesto dalla direttiva, sono pesanti; 4 l’interesse ed il coinvolgimento delle pubbliche amministrazioni subnazionali non è considerato dalla direttiva; 4 gli aspetti del mercato pubblicoprivato dei dati geografici, sono complessi e giocano un importante ruolo; 4 la reale necessità è oggi quella di puntare allo sviluppo sociale tramite la creazione di posti di lavoro ed allo sviluppo di opportunità economiche nel settore ICT; non sarebbe il caso di rileggere i ben accettati e condivisi principi di INSPIRE per definirne una sua evoluzione pratica sintonizzata con la ( probabile!) strategia EU 2030? AUTORE
Mauro Salvemini mauro.salvemini@uniroma1.it
47
SMART CITIES
Smart cities or dumb cities? Città, Ranking e Governance Urbana Capita sempre più di frequente di imbattersi in classifiche delle città italiane basate su indicatori di smartness. Nella maggior parte dei casi si tratta di indicatori che considerano la semplice presenza di alcuni servizi pubblici o opere pubbliche senza entrare nel dettaglio della loro qualità, né interrogandosi su che cosa ciò significhi, all’atto pratico, per i cittadini che le vivono. Leggendo semplici notizie di cronaca di rilievo nazionale ed incrociandole con queste classifiche ci si rende conto che molte tra le amministrazioni più “smart” lasciano molto a desiderare nelle scelte intelligenti. Consideriamo Genova, sempre tra le prime nei ranking nazionali ed allo stesso tempo continuamente alla ribalta per vittime a seguito di esondazioni. Roma, altra città messa in buona posizione in tutte le classifiche, si accorge all’improvviso di avere seri problemi nella gestione del fenomeno migratorio e di aver speso decine di milioni di euro per far vivere gli extracomunitari in latrine. Considerazioni analoghe potrebbero essere fatte su Venezia, Milano e molte altre città particolarmente smart. Evitando di entrare nel dettaglio dei singoli casi, per evitare di speculare sulle disgrazie dei cittadini, è possibile però sviluppare delle considerazioni di carattere generale. In quasi tutti i casi i “progetti smart” sono partiti a seguito di finanziamenti nazionali ed europei, ma le necessità di una comunità sono state generate dalla possibilità di ottenere delle risorse economiche invertendo la naturale sequenza logica. In genere si effettua una “radiografia” di un sistema mediante l’analisi dei problemi ipotizzando delle strategie per risolverli. L’altra criticità, già evidenziata nei numeri precedenti della rubrica, deriva dal completo scollamento di questi programmi rispetto agli altri programmi in atto sulla stessa città. L’importante è accaparrare risorse poi se non si ha una chiara idea di cosa farsene non è un problema. Il risultato è una governance della città senza una vision, basata su una sommatoria di interventi. Questa totale assenza di strategia porta a rivedere continuamente
le scelte effettuate in precedenza, non per sforzarsi di perseguire in maniera più efficace gli obbiettivi prefissati, ma semplicemente per cercare di inseguire le continue e variegate emergenze. Nei numeri precedenti della rubrica era stato evidenziato come il concetto di “Smart city” si basa sull’utilizzo delle tecnologie per una migliore programmazione e gestione delle città per risparmiare risorse e salvare il pianeta. L’implementazione di questo concetto può essere perseguita attraverso una stretta collaborazione tra imprese, università ed enti locali. L’immagine seguente evidenzia la clusterizzazione dei tweet geo-localizzati rispetto ai principali hashtag durante l’uragano Sandy realizzata dall’università di Washington. In particolare è possibile notare nell’area centrale del webgis una concentrazione di tweet (dati puntuali in rosa) che hanno come hashtag #gas. In questo caso i cittadini hanno agito da sensori volontari, fornendo delle informazioni vitali nella gestione dell’emergenza (nello specifico caso indicando le aree in cui si erano verificate perdite di gas nella rete di distribuzione della città. Figura 1). Da molti anni ad entrambi gli autori di questo contributo è capitato di revisionare articoli scientifici incentrati sull’analisi dei fenomeni migratori mediante l’uso dei social media. Purtroppo su questa tematica i social media (e Twitter in particolare) vengono utilizzati prevalentemente per diffondere affermazioni populiste. Quante ricerche validate da pubblicazioni su importanti riviste internazionali sono state prese in considerazione dagli enti locali nella governance della città? Purtroppo il decisore spesso non va oltre gli slogan (spesso si confondono tweet e provvedimenti), mentre il dirigente è premiato rispetto alla capacità di smaltire mucchi di carte. Risulta evidente che l’innovazione viene vista come un problema, una deviazione dalle tradizionali e vetuste procedure, una potenziale distrazione, un qualcosa di poco utile nei minuti successivi. È bene evidenziare che in questa analisi non sono stati analizzati fenomeni non del tutto trascurabili in Italia come quello della corruzione e la collusione con la criminalità organizzata. Il risultato è quello avvenuto a Genova dove i sensori e la pubblica amministrazione non sono riusciti a comunicare
Fig. 1 - Clusterizzazione dei tweet geo-localizzati rispetto ai principali hashtag durante l’uragano Sandy (http://faculty.washington.edu/kstarbi/TtT_ Hurricane_Map_byEvent.html).
48
GEOmedia n°5-2014
Fig. 2 - Web-gis con la localizzazione delle webcam per il monitoraggio del territorio realizzato dai cittadini di Genova (http://opengenova.org/maps/webcam/).
tra di loro (Scano, 2014) ed i cittadini hanno provveduto alla realizzazione di un web-gis con la localizzazione delle webcam per il monitoraggio del territorio (Figura 2). Alcune amministrazioni stanno in realtà agendo in modo concertato integrando, sul tema delle emergenze, le attività di pianificazione ‘dall’alto’ con le interazioni ‘dal basso’ da parte dei cittadini. È il caso della sperimentazione in corso nella città di Trieste, dove il Comune, di concerto con la locale Protezione Civile, sta implementando procedure e metodi di interazione con la cittadinanza in occasione di allerte “meteo”, “neve” e altri eventi calamitosi, basandosi, tra gli altri, su comunicazioni via social networks e media, grazie al coinvolgimento di una rete di ‘volontari digitali’, in grado di fare da ripetitori delle informazioni di servizio ma anche delle necessità del territorio in eventi simili. La figura 3 riporta l’evidenza della prima sperimentazione (non programmata, come la stessa allerta!) effettuata in occasione delle bombe d’acqua scaricatesi su varie parti d’Italia a ottobre 2014. Il 15 ottobre la città adriatica ne risulta colpita e sono visibili i tweet georeferenziati (a destra) relativi all’utilizzo dell’hashtag. La via Italiana alle “smart city” che nel migliore dei casi produrrà l’accensione automatizzata dei lampioni (Scano, 2014) è in linea con il tipico approccio che abbiamo nella programmazione, dove siamo sotto il rischio continuo di perdita di finanziamenti europei per un’assenza di una strategia complessiva (Conte 2014). L’approccio giusto deve basarsi su due capisaldi della pianificazione strategica (Gibelli,1996): 1. La collocazione delle scelte di breve periodo in un quadro previsionale che abbracci le dimensioni del medio e lungo periodo; 2. Aspirazione al raccordo e all’integrazione delle politiche di settore In un interessante contributo su Wired Ernesto Belisario identifica tre principali fattori di inefficienza della pubblica amministrazione rispetto al fenomeno della corruzione. L’analisi è fondamentalmente incentrata sull’uso delle tecnologie e la mancanza di trasparenza. A queste importanti considerazioni andrebbe aggiunta una causa a monte, la mancanza di pianificazione. Questa totale assenza programmazione produce un continuo
visita il sito www.rivistageomedia.it
Figura 3 - Gli hashtag locali di #allertameteo da tweet geolocalizzati sul blog di Vicenzo Cosenza, relativi a ottobre 2014. Il 15 ottobre Trieste sperimenta #AllertaMeteoTS con Comune, Protezione Civile e volontari.
operare in fase di emergenza, bypassando le procedure ordinarie e favorendo il fenomeno della corruzione. Il risultato, nella maggior parte dei casi, è una sequenza di azioni disorganiche, che spesso non sono la soluzione ottimale del problema, completamente sconnesse dagli altri programmi in atto sul territorio.
RIFERIMENTI BIBLIOGRAFICI
Gibelli M. C., (1996), "Tre famiglie di piani strategici: verso un modello reticolare e visionario", in Curti F. e Gibelli M. C., (a cura di), "Pianificazione Strategica e gestione dello sviluppo urbano", Alinea, Firenze.Las Casas G., Sansone A. (2004). Un approccio rinnovato alla razionalità nel piano In: Deplano G. Politiche e strumenti per il recupero urbano. EdicomEdizioni, MONFALCONE (GO): ISBN:9788886729536 Scano R., (2014) “Le smart city e i momenti di melma” http://www. agendadigitale.eu/smart-cities-communities/1178_le-smart-city-e-i-momentidi-melma.htm Conte V. (2014) “Lettera Ue bacchetta l'Italia: "Non avete una strategia". A rischio 40 miliardi di fondi”,http://www.repubblica.it/economia/2014/08/13/news/ lettera_ue_bacchetta_l_italia_non_avete_una_strategia_a_rischio_40_miliardi_ di_fondi-93668748/ Goodchild, M.F.: Citizens as Voluntary Sensors: Spatial Data Infrastructure in the World of Web 2.0. International Journal of Spatial Data Infrastructures Research 2, 24–32 (2007) Belisario (2014) “Lotta alla corruzione e trasparenza: ecco perché l’Italia sta facendo male” http://www.wired.it/attualita/politica/2014/12/10/lottacorruzione-trasparenza-stiamo-facendo-male/ Il Piccolo. A Trieste il piano neve diventa anche social, 4 dicembre 2014, http:// ilpiccolo.gelocal.it/trieste/cronaca/2014/12/04/news/a-trieste-il-piano-nevediventa-anche-social-1.10432913 Cosenza V., Allerta meteo: analisi e mappatura dei segnali da twitter, 17 ottobre 2014. http://vincos.it/2014/10/17/allerta-meteo-analisi-mappatura-segnalitwitter/
AUTORI
Beniamino Murgante, murgante@gmail.com Giuseppe Borruso, giuseppe.borruso@deams.units.it
49
AGENDA
2014-2015 4-6 Febbraio 2015 The Unmanned Systems Expo The Hague (The Netherlands) www.geoforall.it/qwq4 19 Febbraio 2015 Conferenza OpenGeoData Italia Roma www.geoforall.it/qucy 25-27 Marzo 2015 Photogrammetric Image Analysis (PIA) High-Resolution Earth Imaging for Geospatial Information (HRIGI) Munich (Germany) www.geoforall.it/q99y 25-27 Marzo 2015 Photogrammetric Image Analysis Munich, Germany PIA15 www.geoforall.it/9p8a
20-25 Aprile 2015 Istanbul (Turkey) The World Cadastre Summit Congress and Exhibition www.geoforall.it/q9wa 28-30 Aprile 2015 GISTAM 2015 Barcellona (Spain) www.geoforall.it/ayu3 13-14 Maggio 2015 Technology for All www.technologyforall.it Roma 25-29 Maggio 2015 INSPIRE-GWF 2015 Call for Abstracts Lisbon (Portugal) www.geoforall.it/qapk
14-16 Aprile 2015 Ocean Business 2015 Southampton (UK) www.geoforall.it/q9kc
27-28 Maggio 2015 The GEOSPATIAL Event Londra www.geoforall.it/hhac
15-16 Aprile 2015 Conferenza Esri Italia Roma
9-11 Giugno 2015 World Geospatial Developers Conference China www.geoforall.it/hhfa
Technology for All 2015 Tecnologie per il territorio le smart city e i beni culturali Roma 13-14 Maggio www.technologyforall.it
TEOREMA srl: SOLUZIONI INNOVATIVE PER LA TOPOGRAFIA E LA TERMOGRAFIA IR
Leica Multistation MS50
Leica GS08 Plus
Leica Disto D810 Touch
Leica 3D Disto
Leica P20
Flir E50 bx
www.disto.it • www.geomatica.it • www.termocamere.com Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 - Fax 02 57301988 teorema@geomatica.it
MASSIMA VELOCITÀ. PRECISIONE SENZA CONFRONTI. ANCHE CON UNA LEGGERA INCLINAZIONE Compensazione completa dell’inclinazione con la tecnologia Trimble SurePoint Semplificate la vostra metodologia di lavoro di rilievo con la tecnologia Trimble® SurePoint™ integrata, che compensa automaticamente fino a 15° di inclinazione della palina, con una tracciabilità della misurazione del 100%. Rilevate con rapidità punti che prima erano inaccessibili. Questo è solo uno dei vantaggi del nuovo Trimble R10, scopritene di più: www.trimble.com/survey/TrimbleR10
TRIMBLE R10 GNSS © 2014, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi commerciali di Trimble Navigation Limited, registrati negli Stati Uniti e in altri paesi. SurePoint è un marchio di Trimble Navigation Limited. Tutti gli altri sono marchi dei rispettivi proprietari. GEO-011-ITA (01/14)
Installazione multibeam e laser scanner
Lavoriamo con chi lavora con chi usa la propria esperienza con intelligenza, con chi è orgoglioso della propria professionalità .
Strumenti ad alta tecnologia per le Scienze della Terra e del Mare >
Studio del sottosuolo
georadar, sismica, geoelettrica, logger da foro. > Indagini pre-scavo con georadar
Rappresentazione dei fondali e delle coste
Multibeam, SideScanSonar, SubBottom Profiler.
>
Monitoraggio ambientale e Ingegneria civile georadar, sismografi, laser scanner, magnetometri.
>
Vulcanologia e Monitoraggio sismico sismometri, gravimetri, inclinometri.
> Qualificato laboratorio
di Assistenza Tecnica.
> Sistemi disponibili a noleggio. > Noleggio a lungo termine.
Per gentile concessione INGV
CODEVINTEC Tecnologie per le Scienze della Terra
Via Labus 13 - Milano tel. +39 02 4830.2175
info@codevintec.it www.codevintec.it