GEOmedia 3 2010

Page 1

Rivista bimestrale - anno 14 - Numero 3/2010 Sped. in abb. postale 70% - Filiale di Roma

La prima rivista italiana di geomatica e geografia intelligente

www.rivistageomedia.it

EMERGENZA

E

N°3 2010

SICUREZZA

QUALI SOLUZIONI

?

X Gestione del Rischio Valanghe e sue applicazioni con l'XML

X Il Geoportale della Lombardia premiato da AM/FM

X Il piano straordinario di Telerilevamento Ambientale

X Modelli meteo-climatologici per le Isole Urbane di Calore


Immagina quello che potresti fare se potessi aggiungere informazioni provenienti da immagini geospaziali al tuo GIS, in modo facile e conveniente. Da oggi puoi farlo. Ti presentiamo ENVI EX, un software sviluppato proprio per aiutarti ad estrarre le informazioni presenti nelle immagini geospaziali e arricchire i tuoi GIS. ENVI EX si integra Áuidamente con $rcGIS per inserirsi facilmente nei tuoi worNÁow. Inoltre i rivoluzionari processi guidati ti accompagnano attraverso le operazioni di analisi di immagini piu’ avanzate, permettendoti di ottenere i risultati di alto livello per cui ENVI e’ conosciuto. ENVI EX – informazioni geospaziali precise per il tuo GIS, oggi in modo facile.

ENVI EX. Il software di elaborazione immagini per gli utenti GIS

Sistemi Geospaziali

Sistemi Elettronici

Sistemi Informativi

ITT, il logo “Engineered Blocks” e la frase “Engineered for life” sono marchi depositati di ITT Manufacturing Enterprises, Inc., e sono utilizzati con licenza. ©2010, ITT Visual Information Solutions


Sicurezza nella prevenzione www.rivistageomedia.it

Direttore RENZO CARLUCCI direttore@rivistageomedia.it Comitato editoriale FABRIZIO BERNARDINI, VIRGILIO CIMA, LUIGI COLOMBO, MATTIA CRESPI, MICHELE DUSSI, SANDRO GIZZI, DOMENICO SANTARSIERO, LUCIANO SURACE, DONATO TUFILLARO Direttore Responsabile FULVIO BERNARDINI redazione@rivistageomedia.it Hanno collaborato a questo numero: A. ACCIARINO, F. BARTOLI, F. BERNARDINI, G. CERIOLA, I. CHIAMBRETTI, S. COSTABILE, C. D’AGOSTINO, D. DAL PUPPO, N. DISTEFANO, A. FALCIANO, A. FIDUCCIA, A. FURIERI, D. IASILLO, A. LEMMO, S. LEONARDI, P. MANUNTA, G. MARASCHIN, P. MAZZANTI, B. MURGANTE, G. NOLÈ, M. PAGANINI, M. PANEBIANCO, G. PITITTO, M. SALVEMINI, M. VIEL. Redazione SANDRA LEONARDI sleonardi@rivistageomedia.it GIANLUCA PITITTO gpititto@rivistageomedia.it Via C. Colombo, 436 00145 Roma Tel. 06.62279612 Fax 06.62209510 redazione@rivistageomedia.it www.rivistageomedia.it Marketing e Distribuzione ALFONSO QUAGLIONE marketing@rivistageomedia.it Diffusione e Amministrazione TATIANA IASILLO diffusione@rivistageomedia.it Via C. Colombo, 436 00145 Roma Web: www.aec2000.eu E-mail: info@rivistageomedia.it Progetto grafico e impaginazione DANIELE CARLUCCI dcarlucci@rivistageomedia.it Stampa Futura Grafica 70 Via Anicio Paolino, 21 00178 Roma Condizioni di abbonamento La quota annuale di abbonamento alla rivista è di € 45,00. Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa. L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo. La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo. Il presente numero è stato chiuso in redazione il 16 luglio 2010. Editore A&C2000 s.r.l. Registrato al Tribunale di Roma con il N° 243/2003 del 14.05.03 ISSN 1128-8132 Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la riproduzione anche parziale del contenuto di questo numero della Rivista in qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore. Rivista fondata da Domenico Santarsiero.

È

sotto gli occhi di tutti l’elevato numero di eventi catastrofici che si sono verificati ultimamente: diversi terremoti di alta intensità, un disastro ecologico senza precedenti e un vulcano che ha messo in seria difficoltà l'economia europea. Un ricercatore è stato denunciato per 'procurato allarme'; un’intera commissione è stata denunciata per 'non aver procurato allarme'. La colpa del ricercatore è stata semplicemente quella di aver utilizzato uno dei segni premonitori del terremoto, l’emissione di radon, per preventivare l'avvento di sisma con errore di tempo e di luogo. La commissione invece non è stata in grado di pianificare la gestione del Grande Rischio, visto che i segni premonitori c’erano tutti. Se c'è una lezione da imparare è senza dubbio quella della necessità della mitigazione dei rischi, visto che, ad oggi, non pensiamo o forse non abbiamo sufficiente cultura per effettuare un’azione di vera prevenzione. Eppure le tecnologie non ci mancano e la Geomatica da sola ci fornisce già quasi tutti i mezzi di analisi, acquisizione e rappresentazione dei dati. Per operare disponiamo di sistemi informativi geografici per la sismicità e il rischio connesso sia alla grande che alla piccola scala ed abbiamo avviato già da molto le prescrizioni legislative per le costruzioni antisismiche. Il patrimonio storico però è difficilmente difendibile, l’Aquila insegna. Oggi, grazie alla tecnicità acquisita, siamo in grado di fornire analisi quasi completamente automatizzate di immagini satellitari per la determinazione istantanea di variazioni sulla superficie terrestre e sulla sua atmosfera, quali ad esempio le Object-Based Image Analysis (OBIA) che possono essere correlate a possibili catastrofi. Questi sono solo esempi di quelle tecnologie che integrate con altre ci potrebbero consentire di avviare un vero sistema di 'previsione' o di coordinare e coniugare le attività di quei centri che attualmente registrano le situazioni a evento già verificato. La soluzione non può essere che quella di far interagire le diverse competenze ed esperienze che abbiamo, come era nello spirito iniziale alla base della convenzione del Servizio nazionale della Protezione Civile (legge 225/92) nella quale si integravano e fondevano competenze delle amministrazioni dello Stato e civili. Dobbiamo poi lasciare spazio ai nostri ricercatori e alla loro creatività per avere tutte le indicazioni possibili su previsioni basate su tutto quello che oggi è la nostra conoscenza, coniugando sia osservazioni scientifiche dirette che utilizzando i dati a nostra disposizione per creare modelli che possano darci un ausilio nella definizione degli scenari e nell’individuazione delle possibili future catastrofi. Non possiamo predire esattamente ove un terremoto avverrà, ma possiamo prepararci all’evenienza molto meglio di quanto abbiamo fatto finora. E’ ora cioè di investire non solo nei sistemi per intervenire prontamente a 'fatto avvenuto' ma dobbiamo pensare anche a come mitigare gli effetti di una catastrofe 'prima che avvenga'. Per certe situazioni è facile. Non ci vuole uno scienziato per predire che dove effettuo un disboscamento prima o poi dovrei aspettarmi una frana! E nel caso in cui si debba, oggi, analizzare di nuovo tutto il territorio per restituire sicurezza, sappiamo benissimo che i professionisti della Geomatica adempirebbero con grande dedizione a tale compito, mettendo in campo tutte le tecniche di cui dispongono per raggiungere lo scopo prefissato. Per certe tipologie di catastrofi avremmo ancora serie difficoltà di previsione, ma in altre, come ad esempio la fuoriuscita di petrolio nel Golfo del Messico, un disastro ambientale forse senza precedenti e i cui effetti si avvertiranno negli anni avvenire, non era poi così difficile la stima del rischio di una trivellazione a 1.500 metri di profondità sotto il livello del mare. Basterebbe già cominciare a rispolverare tutte le buone nozioni dell’ingegneria e della regola d’arte che sembra proprio siano state messe da parte o sostituite. In questo numero nell’articolo di Andrea Fiduccia viene illustrato il sistema delle sale operative per la gestione delle emergenze, si sottolinea l’importanza del dato geografico e la localizzazione sul territorio di una eventuale richiesta di aiuto. Negli ultimi tempi abbiamo spesso letto o sentito notizie su incidenti in montagna a seguito di valanghe. L’allerta è stata massima. Igor Chiambretti e Francesco Bartoli presentano un articolo sull’argomento nel quale evidenziano alcuni standard di pericolo. Temi sicuramente molto attuali sono anche quelli che su questo numero vengono dedicati alle isole urbane di calore e alla sicurezza stradale. Prosegue, inoltre, la presentazione delle attività del Geoportale Nazionale del Ministero dell’Ambiente e della Tutela del Territorio e del Mare a cui si aggiunge, da questo numero, la presentazione dei geoportali vincitori del Premio AM/FM 2009. E, ancora, le rubriche ‘Open Source’ e ‘GI Europe’. Buona lettura, Renzo Carlucci direttore@rivistageomedia.it


0834

0832

0831

0833

La distanza più breve fra due punti non è quella per tornare al treppiedi.

STAZIONE TOTALE TRIMBLE S8

"Avanti e indietro dall'ufficio": probabilmente l'aspetto più odiato dai topografi. Insieme, forse, all'esclamazione "di nuovo". La tecnologia Trimble® VISION™ aumenta il livello di produttività della stazione totale Trimble S8 riducendo drasticamente la necessità di tornare al treppiedi. Ora dal controller potete vedere tutto ciò che vede lo strumento. Perché tornare indietro? Con l'EDM dalla portata più lunga potete restare fermi, mantenere i piedi all'asciutto e usare il vostro controller per mirare e acquisire le misurazioni su superfici senza riflesso, a più del doppio della distanza a cui eravate abituati. Trimble S8 vi mette a disposizione anche lo streaming video dal vivo con i dati rilevati sullo schermo, a supporto del vostro lavoro. Grazie alla documentazione fotografica avete la verifica visiva di tutti i dati prima di lasciare il cantiere, eliminando il costo di dover fare avanti e indietro. Trimble VISION è l'ultima di una lunga serie di innovazioni, studiate per rendere più produttivo il vostro lavoro in campagna: sul campo, in ufficio e ovunque vi conducano le possibilità.

© 2010, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi di Trimble Navigation Limited registrati negli Stati Uniti e in altri paesi. Trimble Access è un marchio di Trimble Navigation Limited. Tutti gli altri marchi appartengono ai rispettivi proprietari. SUR-183-I


SOMMARIO 3-2010

FOCUS

6

Sicurezza Territoriale e gestione delle emergenze: soluzioni ed architetture per sistemi collaborativi A F DI

NDREA

IDUCCIA

14 Gestione del rischio valanghe e sue applicazioni XML DI IGOR CHIAMBRETTI

E

FRANCESCO BARTOLI

REPORTS

18 Telerilevamento e modelli meteo-climatologici per le Isole Urbane di Calore DI P. MANUNTA, D. IASILLO, G. CERIOLA, M. VIEL E M. PAGANINI

22 Geoportale Nazionale: il Piano Straordinario di Telerilevamento per l’Ambiente DI SALVATORE COSTABILE

26 Uso di gvSIG e SEXTANTE per la perimetrazione degli ambiti periurbani

DI

G. NOLÈ, B. MURGANTE E A. FALCIANO

30 Un Sistema Informativo Territoriale per la gestione della sicurezza pedonale

DI

C. D’AGOSTINO, N. DISTEFANO E S. LEONARDI

34 Le tappe italiane del Trimble Express 2010

DI

SANDRA LEONARDI

36 Il GeoPortale della Lombardia DI

DONATA DAL PUPPO, MARCO PANEBIANCO

40 CNR e Protezione Civile verso un know-how condiviso DI

42

FULVIO BERNARDINI

Evoluzione dei sistemi GNSS DI

GIANLUCA PITITTO E FABRIZIO BERNARDINI

UNIVERSITA' E RICERCA

46 Controllo e mitigazione dei rischi naturali attraverso la sinergia fra università e realtà imprenditoriale DI PAOLO MAZZANTI

ALTRE RUBRICHE

In copertina un’immagine evocativa. Quasi tutti i paesi hanno un numero per le emergenze. Solitamente è diverso da paese a paese ma è quasi sempre di tre cifre. Il 911 è sicuramente un numero ben noto, non solo negli Stati Uniti d’America dove è appunto il numero da chiamare per le emergenze, ma un po’ in tutto il mondo. Leggere 911 equivale a pensare immediatamente ad una situazione di pericolo e ad attivare il sistema delle sale operative. Credits: © Jarrod1 | Dreamstime.com

10 MERCATO 48 OPEN SOURCE 49 GI IN EUROPE 50 AZIENDE E PRODOTTI 54 AGENDA 54 INDICE INSERZIONISTI


FOCUS

Sicurezza Territoriale e gestione delle emergenze: soluzioni ed architetture per sistemi collaborativi di Andrea Fiduccia

Intergraph Corporation è stata la prima società nella storia dell’IT a realizzare un sistema di sala operativa per la gestione delle emergenze basato su un database geografico e dotato di interfaccia cartografica: l’Intergraph Computer-Aided Dispatch (I/CAD). Da oltre quarant’anni la società americana realizza soluzioni software a standard industriale (COTS – Commercial Off-The-Shelf) nel settore dell’Informazione Geografica; esse costituiscono un riferimento a livello mondiale – in termini di efficienza ed affidabilità – per le sale operative della pubblica sicurezza, dei vigili del fuoco, per l’emergenza sanitaria e per la protezione delle infrastrutture critiche.

I

/CAD, sin dalle sue prime versioni degli Anni ‘70, ha integrato l’interfaccia cartografica con moduli specifici per la gestione delle chiamate (call handling), per la gestione delle risorse sia a livello di database che di comunicazione con le forze sul campo (con pieno supporto a terminali veicolari e palmari e all’accesso remoto e distribuito). Il vantaggio della tecnologia ‘a base geografica’ è stato subito evidente. La località di origine della richiesta di intervento viene localizzata sul territorio già dalla chiamata o direttamente tramite la correlazione indirizzo/utenza telefonica (tecnologia ANI/ALI) o anche mediante la geocodifica degli indirizzi sul grafo stradale. Le informazioni di primo contatto sono inserite velocemente in un database dall’operatore (calltaker – figura 1) durante la chiamata mediante un’interfaccia intuitiva progettata per rendere estremamente veloce il data entry (pull down e icone). Il dispatcher – cioè l’operatore che invia le forze sul campo a gestire l’evento – utilizzando una diversa interfaccia dello stesso sistema, ha un quadro tattico in tempo reale su base cartografica ed il sistema è in grado di suggerire qual è la risorsa più idonea (correlando automaticamente le caratteristiche dell’evento con la tipologia e la dotazione di mezzi delle forze di risposta) e più vicina. Tutte le informazioni necessarie (tipo di evento, dati caratterizzanti lo stesso, percorso più breve) sono trasmesse automaticamente al terminale mobile delle forze sul campo già all’atto del drag&drop con il quale il dispatcher assegna la risorsa all’evento. I/CAD, oltre ad offrire gli elementi ser-

6

venti – un database centralizzato degli eventi e delle risorse e gli applicativi per i calltaker e i dispatcher – integra (altra innovazione introdotta storicamente per prima da Intergraph) i dispositivi di telecomunicazione nel sistema CAD. Per la gestione delle forze di ‘risposta agli eventi’, I/CAD offre un vero e proprio Resource Management System (RMS) che consente di memorizzare nel database il personale, i mezzi, le dotazioni. Il sistema consente di gestire, grazie ad un modello dati potente e flessibile, la composizione delle unità di intervento (mezzo+dotazioni+personale), i turni del personale, i consumi dei mezzi, le scorte dei materiali, ecc. Gli operatori sono, poi, assistiti dal sistema durante la fase di risposta da moduli di consequence management. In I/CAD è possibile definire piani di risposta in termini di obiettivi, strategie e compiti ed il sistema – sulla base dei dati inseriti dal calltaker, dalle scelte del dispatcher, attingendo al database del RMS e mediante i dati in tempo reale che arrivano dai terminali mobili sul campo – è in grado di suggerire al dispatcher le successive azioni da intraprendere. Per poter garantire le prestazioni richieste in termini di performance e affidabilità, I/CAD è basato su un’architettura client-server. Il backend di I/CAD è costituito da sistemi serventi ridondanti (DB Server, Application Server, Communication Server) secondo l’opportuna scalabilità, nella prospettiva di avere una disponibilità del sistema al 99.999% e di poter disporre di un disaster recovery remotizzato sul territorio.

Quanto fin qui descritto rappresenta la tipica architettura di sistema di una sala operativa del 9-1-1 (numero unico per l’emergenza negli Stati Uniti): I/ CAD è stato realizzato per supportare il 9-1-1 e ne segue gli sviluppi operativi e tecnologici. Nel segmento Public Safety, infatti, Intergraph ha una retenction rate di clienti del 98% negli USA (e conquista nuovi clienti subentrando ad altri vendor); ciò è indice del fatto che la soluzione è pienamente rispondente alle aspettative. Come abbiamo già segnalato, il modello ‘sala operativa 9-1-1’ è prevalentemente client-server con estensioni web per posti di comando e controllo ‘avanzati’. Negli USA si è scelto di avere grandi sale operative e, per comprendere appieno le prestazioni di I/ CAD, è utile prendere in considerazione una sua installazione ‘d’eccellenza’: l’Office of Unified Communications (OUC) Washington DC. L’OUC è stato istituito nel 2004 per la gestione sia delle chiamate di emergenza (9-1-1) che dei ‘servizi urbani’ (3-1-1). L’OUC opera su due sedi (in disaster recovery sincronizzato) con complessivamente 200 operatori ed attiva la Polizia, i Vigili del Fuoco, l’emergenza sanitaria e le squadre per le riparazioni urgenti del Dipartimento dei Lavori Pubblici. Nel 2008 l’OUC ha ricevuto 1,2 milioni di chiamate (al 96% delle quali si è risposto entro cinque secondi) che hanno attivato 900.000 interventi. La cerimonia di insediamento del presidente degli Stati Uniti Barak Obama ha dimostrato ulteriormente l’efficienza del sistema. L’insediamento presidenziale è stato un ‘grande evento’

GEOmedia n°3-2010


FOCUS

Figura 1 - I/CAD: I/Calltaker.

durato dal 18 al 21 gennaio 2009 che ha visto a Washington DC 1,8 milioni di persone. Per gestire il prevedibile incremento di chiamate, l’OUC ha predisposto nel sistema la creazione di una ‘città virtuale’ coincidente con la ‘zona calda’ degli eventi. Il sistema, sulla base della correlazione geografica dell’origine delle chiamate, assegnava le stesse direttamente ad un gruppo di calltakers ‘dedicati’, che a loro volta le reindirizzavano ai dispatcher dei posti di comando mobili dislocati nella ‘zona calda’. Contemporaneamente il sistema gestiva, senza sovrapposizione di flussi operativi, le chiamate di routine nel resto dell’area matropolitana. Questa strategia ha consentito di gestire le circa 6.000 chiamate di emergenza al giorno pervenute all’OUC con un tempo medio di risposta (e di dispatching delle forze sul campo) di cinque secondi. Dall’automazione nella risposta alla sensor fusion La capacità di ‘automazione nella risposta’ propria di I/CAD si è rivelata un fattore di successo nel settore dell’emergenza sanitaria, come ad esempio per il Great Western Ambulance Service, nel Regno Unito. Infatti I/CAD può calcolare l’assegnazione dell’ambulanza più vicina alla località di una chiamata automaticamente, mentre il calltaker sta parlando. Questa elaborazione non ‘pesa’ molto al sistema in termini di elaborazione e consente di guadagnare tempo prezioso: il calltaker deve solo confermare la pre-assegnazione premendo un tasto (mentre i dati di rotta sono già stati trasmessi al terminale mobile dell’ambulanza).

visita il sito www.rivistageomedia.it

La ricerca per la realizzazione della piattaforma tecnologica E9-1-1 ha visto Intergraph collaborare con l’Oak Ridge National Laboratory (ORNL) – il più importante centro ricerche dello US Department of Energy sull’interoperabilità dei sensori per il rilevamento intrusioni e per il rilevamento di sostanze pericolose (CBRNE - Chemical, Biological, Radiological, Nuclear and Explosive). L’obiettivo di questa collaborazione è stato lo sviluppo di SensorNet, il sistema ‘netcentrico’ che integra sensori, servizi e dati per la homeland security. L’idea è quella di far comunicare i sensori con la sala controllo 9-1-1 usando web services. In SensorNet tutte le ‘entità’ sono geografiche e, conseguentemente, la struttura dati di base è realizzata a partire dallo standard OGC WFS (dati geografici vettoriali+dati alfanumerici codificati in GML) coniugato ad un'architettura di sicurezza basata su certificati. Il prototipo di SensorNet – realizzato da ORNL, Intergraph, ObjectVideo e dal Directorate of Emergency Service di Fort Bragg – è l’Integrated Incident Management Center (I²MC) di Fort Bragg. I dati dei sensori sono ‘fusi’, geograficamente, con i dati (video e traiettografia) generati dall’Intelligent Video Surveillance System (IVSS) in una mappa collaborativa (Common Operational Picture) a partire dalla quale il Dispatcher attiva la gestione dell’evento. E’ importante notare come Intergraph abbia iniziato ad integrare la componente telecamere (CCTV/PTZ) all’interno delle soluzioni da sala operativa già nel 1999, mediante una collaborazione con la NASA (che aveva mes-

so a punto la tecnologia VISAR per il miglioramento e l’analisi di dati video ‘rumorosi’ delle sonde interplanetarie). Le applicazioni furono inizialmente rivolte alle analisi forensi e successivamente applicate alla security. Nel contesto delle applicazioni di security sono state, in seguito, sviluppate specifiche collaborazioni con Cisco, ObjectVideo, Guardian ed altri produttori di sistemi di videosorveglianza intelligente. A partire da SensorNet e E9-1-1 è stato sviluppato I/Security Framework nel quale sono integrati – secondo le logiche di interoperabilità standard – sensori di terze parti, il che rende i dati dei sensori fruibili per la data fusion. I/Security Framework viene utilizzato nelle Sale Operative dei sistemi di Critical Infrastructure Protection (CIP). Tipicamente la Sala Operativa CIP (figura 2) monitorizza la sicurezza di una infrastruttura tecnologica, è collegata alla Sala Controllo Impianti Tecnici e deve anche poter gestire eventi di origine naturale. In un sistema CIP vi è una consistente componente di sensor fusion (sensori perimetrali e anti-intrusione, videosorveglianza, ma anche monitoraggio parametri di impianto, ecc.). Gli allarmi sono per lo più generati dai sensori (figura 3). Vi è reazione agli eventi (quindi dispatching), ma anche pianificazione e scenari. Vi è un Mobile Resource Management (le squadre di sicurezza) che coesiste con un Mobile Workforce Management (le squadre di manutenzione). In questo specifico settore, caratterizzato dalla necessità di interfacciare il sistema di security con il sistema di gestione tecnica dell’infrastruttura critica, un ulteriore vantaggio competitivo di Intergraph è dato dal fatto che la divisione Intergraph PP&M (Process, Power and Marine) è leader di mercato nel segmento dei software per la progettazione e gestione degli impianti industriali e che molte grandi utility hanno informatizzato le loro reti con il software Intergraph G/Technology. Emergency Operation Management Il concetto di ‘sala operativa 9-1-1’ si è evoluto, dopo gli eventi dell’11 settembre 2001 e dopo l’uragano Katrina, in quello di Emergency Operation Center (EOC). Un EOC è un Centro di Comando e Controllo per la gestione di crisi realizzato in modo da essere ‘in sicurezza’ rispetto ad attacchi terroristici e ad eventi naturali estremi, dotato di fonti di energia autonome e di sistemi di telecomunicazione. Coerentemente con l’evoluzione degli scenari

7


FOCUS

Figura 2 - Sistema Critical Infrastructure Protection Intergraph.

operativi (attacchi terroristici e disastri meteoclimatici) un EOC opera sia durante una crisi che in ‘tempo di pace’. Le attività di un EOC sono: raccolta, analisi e ridistribuzione di informazioni; comando, controllo e coordinamento interagenzia delle operazioni; predisposizione ed attivazione di piani di risposta agli scenari. Per poter svolgere questi compiti un EOC dispone di sistemi di telecomunicazione, di sistemi di Information Fusion/Common Operational Picture, di sistemi di intelligence e di sistemi di calltaking/dispatching. Mentre la ‘sala operativa 9-1-1’ è orientata a una risposta ad eventi, un EOC

usa un modello dati più complesso (figura 4): i concetti di riferimento sono quelli di scenario e di piano. La componente cartografica ‘operativa’ è una mappa collaborativa. Il sottosistema di resource management è più propriamente un Mobile Resource Management. Il requisito più critico per un EOC è quello dell’interoperabilità tra i diversi enti coinvolti nella gestione di una crisi. Ogni ente ha, infatti, i suoi sistemi tecnologici (con i relativi formati dati) e le sue specifiche procedure operative. Quindi il problema è sia tecnologico che organizzativo.

Figura 3 - I I/Security Framework: Geospatial Monitor.

8

Le soluzioni Intergraph per EOC sono caratterizzate da una tecnologia ad elevatissima interoperabilità: non a caso Intergraph è il primo produttore industriale di sistemi Computer Aided Dispatch ad essere coinvolto nel progetto dello Unified Incident Command and Decision Support (UICDS) che costituisce un’architettura interoperabile di condivisione delle informazioni multigiurisdizione e multipiattaforma per incrementare le capacità di risposta rapida e la situational awareness in caso di incidente rilevante. L’interoperabilità, visto che le sorgenti di dati sono eterogenee – militari e civili – si ottiene mediante standard condivisi. Nel caso specifico dei dati geografici, lo standard, come già rilevato, sono i web services OGC (WMS, WFS, WCS, ecc.). Di conseguenza, la mappa collaborativa diviene basata su una SOA (Service Oriented Architecture), cioè uno smart client (come nella soluzione software Intergraph per EOC europei I/PR Planning and Response For Emergengy Operation Center – figura 5). L’interoperabilità basata su SOA comporta però un problema: per poter attingere ai servizi web geografici dei provider di dati pubblici civili in una siffatta architettura, l’EOC diviene un nodo di una Spatial Data Infrastructure. Quindi l’EOC è ‘aperto’ verso internet e potenzialmente soggetto ad attacchi cibernetici. Business Intelligence Le organizzazioni che gestiscono servizi di emergenza hanno la necessità di valorizzare il patrimonio informativo contenuto negli archivi storici dei loro sistemi integrandolo con i dati di evento in tempo reale per ottenere una maggiore situational awareness e poter prendere le decisioni corrette nel corso delle operazioni. Ma spesso i dati storici sono poco comprensibili perchè inseriti in database dalla struttura complessa, in sistemi che non comunicano tra loro (Information Silos) o in sistemi che hanno reportistiche poco efficienti. La soluzione Intergraph Business Intelligence for Public Safety, realizzata in collaborazione con Business Objects (SAP), consente di passare dalla mera risposta al proactive planning. Infatti tale soluzione consente di incrementare la collaborazione interagenzia e la generazione rapida di report significativi, il tutto all’interno di un robusto framework che garantisce la sicurezza dei dati sensibili ed interfacce intuitive e web-based.

GEOmedia n°3-2010


FOCUS

Figura 4 - Architettura funzionale di un EOC.

Oltre a cruscotti, dashboard e diagrammi (direttamente linkabili sul desktop), la soluzione prevede specifici moduli di data mining che sfruttano algoritmi avanzati di analisi geografica dei dati e che presentano le sintesi informative sotto forma di mappe tematiche distribuite mediante web services e applicazioni webGIS. BI for Public Safety costituisce un importante fattore di differenziazione e successo per le suite Intergraph per le sale gestione emergenza (I/CAD) e per le sale crisi (I/PR), come dimostrato dalla recente aggiudicazione del progetto per il Pennsylvania Turnpike Commission Traffic Operations Center (PTC-TOC) negli Stati Uniti (sistema interagenzia per Vigili del Fuoco, emergenza sanitaria e polizia che ge-

stisce quotidianamente 400 interventi e 11.000 comunicazioni radio) e, in Europa, del sistema integrato di sale controllo della Polizia della Sassonia (13 sale controllo della polizia con integrazione della rete radio digitale TETRA e sistemi di coordinamento interagenzia e di mappa collaborativa con data fusion tra i dati di intervento e le sorgenti di informazione geografica istituzionale della SDI della Sassonia). Gestire la Sicurezza e le Emergenze con Intergraph SG&I Concludendo, il requisito di sintesi informativa multisorgente e di Decision Support System con capacità di callhandling e gestione in tempo reale di ‘risorse’ sul campo – proprio dei diversi tipi di sala operativa – viene

supportato dalle soluzioni Intergraph SG&I per la Geospatial Intelligence Management, per le utility e per la public safety e security. La piattaforma GeoMedia offre gli ambienti di produzione, integrazione, consultazione ed analisi dei dati geografici/cartografici di riferimento e le tecnologie di condivisione degli stessi basate su web services (SDI). La famiglia software G/Technology per le Reti Tecnologiche (acquedotti, fognature, reti elettriche e di telecomunicazioni) supporta pienamente la gestione degli assett da parte di una pluralità di centri territoriali connessi in rete e le squadre di manutenzione dotate di terminali mobili. Le soluzioni I/CAD e I/Security Framework e le soluzioni per EOC (I/PR, I2RMS, GIOTTO) consentono di realizzare Sale di Gestione Emergenza, Sale Controllo ed i sistemi di sicurezza per la protezione delle infrastrutture critiche (offrendo sensor fusion in architetture web con terminali mobili).

Abstract Intergraph's solutions for Public Safety & Security, Critical Infrastructures Protection and Emergency Operation Centers Intergraph provides the world’s leading public safety dispatch system, which is accessed by more than half a billion people worldwide when they dial for emergency response. Because coordination with public safety agencies during a large-scale event is so critical, Intergraph’s ComputerAided Dispatch (I/CAD) system forms the basis for interagency coordination and management of operations and serves as the foundation of the decision support process. I/CAD seamlessly integrates an interactive, realtime map display with call handling, dispatching, records and information management, remote and field access, analysis and models. Intergraph’s systems meet IT security requirements – such as DIACAP – and dispatch interoperability (APCO, CAP) without compromising performance. Built on standard interfaces, Intergraph products I/Sight, I/Sensor and I/Alarm Plus allow two-way communication with a variety of video, sensor and alarm types (I/Security Framework). At the same time, Intergraph offers a broad range of solutions for Emergency Operations Centers (EOCs) and crisis management systems (I/PR, I2RMS, GIOTTO).

Autore ANDREA FIDUCCIA PROJECT MANAGER ANDREA.FIDUCCIA@INTERGRAPH.COM Figura 5 - Intergraph Planning and Response For Emergengy Operation Center: Mappa Collaborativa.

visita il sito www.rivistageomedia.it

SECURITY, GOVERNMENT & INFRASTRUCTURE INTERGRAPH ITALY LLC

9


MERCATO Hexagon punta tutto sulle soluzioni Intergraph Intergraph ha recentemente annunciato di aver stipulato un accordo con Hexagon, secondo il quale la prima viene acquisita dalla seconda tramite un’operazione del valore di circa 2.125 miliardi di dollari. L’accordo prevede che Intergraph operi come una divisione separata di Hexagon, mantenendo allo stesso tempo il tradizionale nome e brand. L’accordo si configura come una ulteriore possibilità di crescita per Intergraph che, in aggiunta al know-how sviluppato in decenni di attività nel settore geospaziale, potrà ora inserirsi negli scenari commerciali in cui è attiva Hexagon, ovvero quelli della misurazione di precisione. Intergraph, infatti, si occuperà di fornire alla società svedese la piattaforma software di base, pur continuando a fornire, in maniera indipendente, soluzioni software verticali e differenziate all’interno dei propri tradizionali mercati di riferimento. Secondo R. Halsey Wise, chairman, presidente e CEO di Intergraph: «questa transazione rappresenta un tributo agli oltre 4.000 dipendenti di Intergraph sparsi per il mondo che, con la loro determinazione e dedizione, hanno permesso all’azienda di crescere in questi anni; si tratta di un tributo anche per i nostri clienti, che con la loro fiducia hanno favorito il successo delle nostre soluzioni. L’operazione commerciale rappresenta anche un riconoscimento del successo della nostra pianificazione e trasformazione pluriennale». Secondo Ola Rollén, CEO e presidente di Hexagon AB: «l’acquisizione di Intergraph come riferimento di Hexagon per quanto riguarda la parte software rappresenta una eccellente prospettiva di crescita e di sviluppo di sinergie. Integraph espanderà significativamente le nostre opportunità in altri mercati, creando allo stesso tempo un ritorno in termini di investimenti, grazie alla solidità di un’operazione che vede coinvolta una ben conosciuta azienda». Il completamento della transazione è previsto per il terzo o ultimo quarto del 2010: ciò dipende dai tempi normativi di approvazione del passaggio così come dall’accettazione delle condizioni di chiusura da parte degli altri clienti. (Fonte: Intergraph)

Indetto il Premio dell’Associazione Italiana Cartografia

Si è concluso il Living Planet Symposium

L’Associazione Italiana di Cartografia (AIC) ha indetto un concorso per assegnare un premio al prodotto cartografico o a un lavoro di ricerca nell’ambito delle teorie e delle tecniche cartografiche e del loro sviluppo nel mondo delle Information Technology and Communications (ITC). Il premio, assegnato in collaborazione con la Federazione delle Associazioni Scientifiche per le Informazioni Territoriali e Ambientali (ASITA), verrà consegnato in occasione della prossima conferenza nazionale che si terrà a Brescia dal 9 al 12 novembre 2010. I candidati dovranno presentare il modulo di iscrizione al concorso entro il 30 settembre 2010. Un’apposita commissione nominata dal Comitato Scientifico (CS) dell’Associazione valuterà i lavori pervenuti sulla base degli aspetti innovativi, della problematica affrontata, della qualità della soluzione proposta, nonché della loro attinenza ai temi dell’Associazione. La commissione è presieduta dal Presidente del CS e potrà avvalersi, in veste consultiva, di esperti esterni all’Associazione. I lavori della commissione si dovranno concludere entro il 15 ottobre. Sul sito dell’AIC tutte le informazioni e il modulo per la domanda: www.associazioneitalianacartografia.org

Ad un anno dal suo lancio, GOCE (Gravity field and steady-state Ocean Circulation Explorer) ha fornito la prima mappa del campo gravitazionale terrestre. I dati sono stati presentati a Bergen in Norvegia durante il Living Planet Symposium (28 giugno-2 luglio) e da ciò che emerge il satellite è perfettamente in grado di mappare le variazioni della gravità terrestre, anche le più infinitesimali. Durante l’evento è stato illustrato il primo modello gravitazionale globale realizzato con i risultati di soli due mesi di rilevazioni. Conoscere le variazioni della gravità terrestre è utile per decifrare il cambiamento climatico. Grazie ai dati ottenuti si potrà finalmente avere una descrizione precisa delle grandi aree del nostro pianeta che corrispondono al Sudamerica, all’Africa, all’Himalaya, al Sud Est dell’Asia e all’Antartide. Il Living Planet Symposium è stata anche l’occasione per sottolineare l’importanza della missione SMOS (Soil Moisture and Ocean Salinity), lanciata a novembre per raccogliere dati sull’umidità del suolo e la salinità degli oceani. I primi risultati sono già molto promettenti e le prime osservazioni dal satellite dovrebbero essere pronte e rese pubbliche a breve.

(Fonte: Redazionale)

(Fonte: ESA)

ASITA informa Per onorare la memoria del dott. Eugenio Zilioli, già responsabile della Sezione di Milano, l’Istituto per il Rilevamento Elettromagnetico dell’Ambiente (IREA) del Consiglio Nazionale delle Ricerche (CNR) ha bandito un premio legato allo svolgimento della Conferenza ASITA 2010; il concorso intende premiare una tesi di laurea sviluppata sui temi di pertinenza dell’Istituto. Essa dovrà essere stata conseguita dopo il 31 agosto 2009, relativamente ad una delle seguenti tematiche applicate allo studio dell’ambiente e del territorio: • telerilevamento ottico; • integrazione di dati geografici multi-sorgente. La scadenza per la presentazione delle domande è fissata per il 10 settembre 2010. Ulteriori dettagli sul sito www.asita.it. (Fonte: ASITA)

10

GEOmedia n°3-2010


MERCATO Controllo online della balneabilità

Monitoraggio degli incendi via satellite

Puntualmente, appena sopraggiunge l’estate, cominciano ad arrivare informazioni utili sullo stato di salute dei nostri mari. Quest’anno c’è una novità in più: il Portale delle Acque (www. portaleacque.it). Il sito è suddiviso in quattro sezioni: acque potabili, minerali, termali e di balneazione. Mentre le prime tre sono ancora in fase di rifinitura, è possibile navigare nella sezione dedicata alle acque di balneazione. All’interno del portale è presente un sistema GIS che permette, attraverso la visualizzazione delle ortofoto di Google Maps, di verificare la balneabilità della località di interesse. Inoltre, è possibile visualizzare i punti di campionamento. Dalle analisi svolte, è risultato che 302 siti sono vietati alla balneazione a causa della loro vicinanza alla foce dei fiumi. Dal rapporto si evince che l’Italia è la nazione europea con il maggior controllo della qualità delle spiagge in quanto esercita un numero di controlli per chilometri di costa superiore a quello di tutti gli altri. Viene controllata infatti tutta la costa della penisola e non soltanto i siti adibiti alla balneazione, come fa la maggior parte degli altri stati europei, attraverso una rete di monitoraggio capillare. I risultati del rapporto sulle acque di balneazione evidenziano che dei 5.175 chilometri di costa sottoposti a controllo, sui 7.375 chilometri del totale in Italia, ben 4.969 chilometri sono balneabili. I restanti 2.190 chilometri non sono considerati balneabili.

Ha preso finalmente il via la fase di test del servizio operativo di monitoraggio incendi di ScanEx (SFMS). A differenza di altri servizi dello stesso tipo (ad esempio, il NASA Rapid Fire, l’AFIS, ecc.) questo strumento rende disponibile l’accesso a diversi satelliti a bassa, media ed alta risoluzione. Scopo del progetto è di produrre giornalmente una copertura di immagini del territorio russo con i dati ricevuti dalle stazioni di terra UnitScan, posizionata a Mosca, Irkutsk e Magadan. Durante il primo stadio della fase di test, nel mese di luglio, saranno utilizzati i soli dati relativi all’area europea della Russia. Il web-service SFMS è stato pensato per l’impiego operativo dei dati via satellite che riguardano località russe minacciate da incendi, per la misurazione delle aree bruciate e per la valutazione dei danni subiti. In SFMS i dati relativi agli ultimi quattro giorni vengono visualizzati accanto ai dati giornalieri di aggiornamento. Le aree interessate dagli incendi sono individuate grazie ai dati del sensore MODIS, apparecchiatura chiave tra quelle installate a bordo dei satelliti americani Terra ed Aqua. Il servizio SFMS consente di visualizzare immagini raster in Google Earth, elaborate in colori naturali grazie alle bande ottiche di MODIS. Per aumentare le capacità di analisi il progetto impiega anche immagini multispettrali dettagliate provenienti dai satelliti SPOT-4 (risoluzione 20 m/pixel) e LANDASAT-5 (30 m/pixel), che consentono di monitorare gli effetti dei fuochi e di delimitare le aree di bruciatura.

(Fonte: Redazionale)

(Fonte: Redazionale)

visita il sito www.rivistageomedia.it

11


MERCATO Nuovo contratto stipulato da Intermap per dati ed immagini digitali Intermap Technologies ha stipulato, nell’ambito di un progetto internazionale, un contratto da 1.9 milioni di dollari per la fornitura di dati di elevazione digitale 3D ed immagini radar ortorettificate. Il cliente utilizzerà i dati geospaziali per la produzione di mappe topografiche, per visualizzazioni in 3D e più in generale per la gestione delle risorse. Intermap distribuirà i dati NEXTMap impiegando la sua Multi-Client Data Library (MCDL). Il cliente riceverà immediatamente la gran parte dei Modelli Digitali di Superficie (DSM), che includeranno attributi ‘culturali’ (come vegetazione, palazzi e strade), Modelli Digitali del Terreno (DTM) che mostrano la superficie nuda (con gli attributi cultural rimossi) ed immagini radar orto-rettificate (ORI), la cui elaborazione rimuove le normali distorsioni geometriche (immagini in scala di grigio, che accentuano le caratteristiche topografiche). La restante parte dei modelli di elevazione e delle immagini verranno consegnati successivamente nei mesi a venire. (Fonte: Redazionale)

Trimble modernizza l'infrastruttura GNSS dell'Australia Trimble è stata selezionata da tre organizzazioni governative australiane per modernizzare le rispettive infrastrutture GNSS ad alta precisione. Le organizzazioni sono: il Dipartimento per la Sostenibilità e l’Ambiente (DSE), l’Autorità per la Gestione del Territorio e delle Proprietà (LPMA) e il Dipartimento per l’Ambiente e la Gestione delle Risorse (DERM). Per il DSE, nello Stato di Victoria, Trimble fornirà 57 ricevitori GNSS CORS ed il software VRS3Net. La disponibilità di correzioni ad alta precisione RTK fornirà un’infrastruttura che consentirà all’industria privata, al governo, all’università, all’agricoltura e ad altri settori, di realizzare risparmi sui costi e migliorare l’efficienza utilizzando l’efficienza della tecnologia di posizionamento. Analogo discorso per lo Stato del Galles del Sud, dove le soluzioni di Trimble verranno applicate ai settori dell’agricoltura di precisione, dell’estrazione mineraria, della costruzione, della mappatura e gestione patrimoniale, della fotografia aerea e LiDAR, dell’idrografia marina e della navigazione, sia per i porti che l’aviazione. Queste reti fanno parte del progetto nazionale AuScope e a SunPOZ per quanto riguarda il sud-est sud-est del Queensland. (Fonte: Redazionale)

La Terra in 3D: lanciato con successo TanDEM-X Il satellite radar TanDEM-X, progettato e realizzato dalla Astrium è stato lanciato con successo il 21 giugno con un vettore russo Dnepr. TanDEM-X opererà in coppia con un secondo satellite quasi gemello, il TerraSAR-X, che è entrato nella sua fase operativa nel 2007. Assieme, i due satelliti effettueranno operazioni di osservazione e rilevamento dell’intera superficie terrestre da un'altitudine di 514 chilometri. Le loro orbite consentiranno passaggi multipli su una stessa regione, potendo così acquisire dati con cui costruire un modello in elevazione dell’intero globo, coprendo un’area non inferiore ai 150 milioni di kmq. Il successo di TanDEM-X è diretta conseguenza del know-how di Astrium nella tecnologia radar basata su satelliti ed andrà ad accrescere la forza competitiva dell’azienda anche nel campo dei servizi di geo-informazione. Il costo totale stimato della missione TanDEM-X ammonta a circa 165 milioni di euro. Infoterra Gmbh, sussidiaria di Astrium, sarà responsabile della gestione commerciale del modello in elevazione del TanDEM-X. (Fonte: Redazionale)

12

GEOmedia n°3-2010


Non rimandare: abbonati a GEOmedia!

CARTOLINA

DI

ABBONAMENTO

Ragione Sociale

Abbonamento annuale a GEOmedia €45

P.I./C.F. Cognome

Nome

Indirizzo

Cap

Comune

Tel.

Fax

E-mail Tipo di organizzazione

Attività primaria

Società di ingegneria

Cartografia

Consulenza

Rilievi GPS

Formazione

Topografia, Geodesia

Università

Catasto

Produttore

GIS/SIT

Assoc. categoria

Ingegneria del territorio

PAC

Protezione ambientale

PAL

Banche dati territoriali

Ente parco

Formazione

Comunità montana

Editoria

Uff. Tecnico

Consulenza

Altro _ _ _ _ _ _ _ _ _ _

Altro _ _ _ _ _ _ _ _ _ _

I dati forniti saranno utilizzati in conformità con le vigenti norme sulla privacy (d.lgs 196/03)

Scelgo di pagare secondo quanto di seguito indicato:

Conto corrente postale n. 67876664 intestato a: A&C 2000 S.r.l.

Bonifico bancario alle seguenti coordinate: IBAN: IT91T0760103200000067876664 Banco Posta S.p.a intestato a: A&C 2000 S.r.l.

Pagamento online all’indirizzo: www.rivistageomedia.it, nella sezione “abbonamento online”.

Da inviare completo delle informazioni + allegata copia di pagamento

Spedire la cartolina in busta chiusa a: A&C2000 - Via C. Colombo, 436 00145 Roma oppure inviarla via fax al numero: 06.62.20.95.10 o via E-mail a: diffusione@rivistageomedia.it


FOCUS

Gestione del rischio valanghe e sue applicazioni XML di Igor Chiambretti, Francesco Bartoli

L’attenzione posta, negli ultimi anni, alla gestione e mitigazione del rischio valanghe è stata massima. L’attuazione dello standard CAAML – già maturo in ambito internazionale e accreditato presso l’Open Geospatial Consortium (OGC) –, utile per la descrizione del rischio valanghe in ambito regionale e nazionale, potrà garantire la condivisione del lavoro di monitoraggio e divulgazione tuttora svolto da AINEVA e Meteomont. Il modello CAAML potrà essere sfruttato dagli enti preposti per erogare i bollettini tramite servizi WFS/WMS, garantendo un’interoperabilità internazionale per applicazioni e servizi a valore aggiunto dedicati agli utenti finali.

I

iniziative che i singoli uffici valanghe aderenti svolgono in materia di prevenzione ed informazione nel settore della neve e delle valanghe. Gli obiettivi primari sono: lo scambio e la divulgazione d’informazioni; l’adozione di metodologie comuni di raccolta di dati; la sperimentazione di strumenti e attrezzature; la diffusione di pubblicazioni riguardanti le materie oggetto di approfondimento; la formazione e l’aggiornamento di tecnici del settore; il coordinamento con gli altri servizi valanghe europei (EAWS – European Avalanche Warning Services) ed extraeuropei e la definizione di standard operativi a livello internazionale. L’attività di prevenzione nel campo delle valanghe è svolta anche da un’organizzazione militare (Comando Truppe Alpine, Corpo Forestale dello Stato, Servizio Meteorologico dell’Aeronautica Militare) denominata Meteomont; quest’attività ha una ricaduta in ambito civile principalmente nelle aree del nostro paese dove il problema valanghe ha una rilevanza minore o non esistono ancora servizi valanghe organizzati dalle amministrazioni regionali (ad esempio lungo la dorsale Appennica). In Italia sono quindi diverse le organizzazioni che pubblicano il bollettino valanghe, seppur con finalità leggermente diverse: multi utente e protezione civile per gli uffici afferenti ad AINEVA; movimentazione delle truppe e protezione civile per il Servizio Meteomont.

14

GEOmedia n°3-2010

n Italia la prevenzione dei rischi da valanghe sul territorio montano, secondo i dettami di legge, compete alle Regioni ed alle Provincie Autonome. Uno degli strumenti fondamentali per assolvere tale compito, in particolare durante la stagione invernale, è il Bollettino nivometeorologico, emesso dalle istituzioni locali tramite i propri organi competenti. La natura regionale dei bollettini garantisce una maggiore puntualità sulla situazione e soddisfa le diverse esigenze dell’utenza cui si rivolge. Sull’arco alpino – e quindi nell’area del paese dove il problema valanghe ha maggior rilevanza – esistono sette servizi valanghe con autonomia operativa, dipendenti dalle rispettive amministrazioni Regionali e Provinciali autonome (Regione Piemonte, Regione Autonoma Valle d’Aosta, Regione Lombardia, Provincia Autonoma di Trento, Provincia Autonoma di Bolzano, Regione Veneto e Regione Autonoma Friuli Venezia Giulia). Dal punto di vista amministrativo gli uffici valanghe dipendono da diverse strutture (ARPA, Assessorati o Direzioni Regionali, Centri Funzionali Decentrati di Protezione Civile, ecc.) e, a seconda delle normative locali, hanno una diversa disponibilità di fondi e di personale. L’attività dei servizi valanghe regionali e provinciali è coordinata, dal 1984, dall’AINEVA (Associazione Interregionale Neve e Valanghe); questa è un’associazione tra gli enti stessi nata con lo scopo di consentire il coordinamento delle


FOCUS La funzione di un bollettino valanghe Il bollettino fornisce un quadro sintetico sull’innevamento e lo stato del manto nevoso e indica il pericolo valanghe in un determinato territorio al momento dell’emissione e – sulla base delle previsioni meteorologiche e dell’evoluzione del manto – quello atteso per l’immediato futuro, in modo da contrastare gli incidenti derivanti dal distacco di valanghe. I bollettini risultano essere uno strumento informativo in grado di fornire un valido aiuto nel prendere decisioni riguardanti l’incolumità propria ed altrui nei confronti del rischio rappresentato dai fenomeni valanghivi. Essi sono redatti in formato A4 e sono indirizzati sia al grande pubblico (sci alpinisti e sci escursionisti, sciatori fuoripista e snowboarders, alpinisti ed escursionisti), sia ai professionisti della montagna (guide alpine, maestri di sci, istruttori del CAI, organizzatori di soccorso in montagna, gestori di rifugi, gestori della sicurezza di comprensori sciistici e della viabilità, membri delle commissioni locali valanghe, residenti nelle località montane e utenti delle vie di comunicazione alpina, ecc.), comprese le autorità di protezione civile (Sindaci, Presidenti di Comunità Montana, Presidenti di Provincia e Regione, Prefetti, Forze armate e corpi di polizia, ecc.); per questi ultimi vengono redatti speciali bollettini (ad uso interno) con specifiche informazioni sugli stati di criticità/ allerta per centri abitati e vie di comunicazione (assente, ordinaria, moderata, forte). I bollettini degli uffici afferenti ad AINEVA sono organizzati secondo una piramide informativa (standard EAWS) e sono divisi in due sezioni: 'Situazione' e 'Previsione'. Ogni sezione ha un flash di apertura, dove è descritto, in maniera sintetica, il pericolo valanghe. Seguono, poi, alcuni dati sull’innevamento, sul limite della neve, sui luoghi pericolosi con la rosa delle esposizioni critiche e una mappa con la rappresentazione grafica del grado di pericolo per microarea, cui è associata la parte testuale del bollettino. In generale i bollettini descrivono lo stato del manto nevoso, a volte del tempo meteorologico e le possibili valanghe spontanee e provocate che si possono verificare. Il grado di pericolo è codificato secondo una scala europea con standard EAWS (ormai utilizzata, di fatto, a livello internazionale), suddivisa in 5 gradi di pericolosità crescente (1-debole, 2-moderato, 3-marcato, 4-forte, 5-molto forte) a cui si associano le relative indicazioni di sicurezza per l’utenza. Stante la crescente esigenza di condividere – globalmente – tali informazioni, è diventato cruciale definire formati e protocolli standard di condivisione e accesso ai dati sia nella fase di elaborazione dei bollettini che in quella di consultazione degli stessi. Solo così gli utenti del web, le applicazioni e i sistemi informativi geografici già in essere nelle categorie suddette, potranno beneficiare e massimizzare l’utilizzo a scopi preventivi di tali dati. Definizione dello standard La solerte dinamicità con cui vengono definite nuove infrastrutture di dati territoriali accresce lo sviluppo di specifici ambiti applicativi in termini sia nazionali che internazionali. Proprio nelle funzioni legate alla gestione delle emergenze in ambito alpino si muovono alcuni sforzi per alimentarne delle caratteristiche imprescindibili: l’interoperabilità, la disponibilità e l’accuratezza nella descrizione dei metadati. Nel caso in esame, esse sono tanto importanti quanto la struttura di elaborazione operativa di un bollettino valanghe. Ecco perché giungere ad un modello standard di condivisione e trasmissione delle conoscenze sulla situazione nivometeorologica non si riduce al semplice esercizio di modellazione di un bollettino come dato spaziale rappresentabile tramite servizi di mappe – a meno che non ci si limiti a fornire il dato finale all’utente, sia esso ricreativo o professionista.

visita il sito www.rivistageomedia.it

Standards EAWS della scala di pericolo europea.

Indicazioni per l’utenza adottate sulle Alpi Italiane.

Obiettivo di uno standard, deve essere piuttosto quello di decifrare e stabilire regole semantiche e sintattiche descrittive di un problema nel suo complesso. Dunque, se si vuole garantire cooperazione tra gli enti e le stazioni di monitoraggio - mantenendo interoperabilità e visibilità sull'intero processo di redazione - si deve tener conto di come i diversi tipi di osservazione nivometeorologica si fondano con le loro caratteristiche geometrico-spaziali, divenendo definiti-

15


FOCUS vamente elementi geografici all’interno del problema. Ma non solo. Intrinsecamente il dato valanghivo concerta una dinamicità spazio-temporale che impone differenti granularità. Si pensi, ad esempio, alla validità del grado di pericolo su una specifica area e al monitoraggio del manto nevoso o delle condizioni meteo in una determinata stazione di osservazione. Tutto ciò va trasposto in un database geografico, universalmente riconosciuto, che definisca il modello sinottico CAAML capace di incontrare le esigenze comuni alle organizzazioni internazionali che già operano in materia di prevenzione. L’opera di definizione, quindi, è tutt’altro che banale, sebbene stia raccogliendo lentamente i suoi frutti, che si consolideranno nella versione 5.0. Espressioni sintattiche e semantica saranno a quel punto universalmente accettate aprendo scenari a sistemi informativi di regioni alpine al confine italoaustriaco, italo-svizzero e italo-francese, in grado di condividere dati sulle osservazioni a cavallo delle rispettive stazioni nazionali, avvalorando la valutazione del rischio valanga. Inoltre, le espressioni CAAML consentono anche di associare ad una base cartografica digitalizzata centrale tutti i dati provenienti dagli incidenti e dagli eventi valanghivi che si succedono sui territori montani. Vantaggi e sviluppi I benefici di un siffatto bacino informativo dinamico ed in continuo aggiornamento, come quello della fenomenologia valanghe, potrà essere apprezzato sia in termini di facilità e velocità di consultazione che in termini storico-statistici. L’importanza di uno standard condiviso a livello internazionale, di fatto, consente anche di lavorare in modo complementare nelle aree di confine, sia nella fase di previsione che in quella di diffusione, garantendo quel grado d’interoperabilità già fattivamente operativo in altri ambiti applicativi. Nella fase di previsione è importante che i tecnici di uffici e nazioni diverse possano condividere facilmente i dati (strati-

16

grafie e penetrometrie del manto nevoso, prove di stabilità, parametri meteonivologici da stazioni di rilievo manuale o automatico) e le osservazioni sullo stato dell’attività valanghiva, pur lavorando con piattaforme e mezzi diversi, al fine di poter emettere bollettini valanghe sempre più affidabili e omogenei per qualità dei dati di analisi e rappresentatività spaziale, e per poter meglio gestire le emergenze valanghe che spesso sono transfrontaliere ed abbracciano vasti settori delle catene montuose. Nella fase di diffusione è importante che l’utenza finale, di diversa provenienza e preparazione culturale, possa accedere facilmente e con varie modalità ad un prodotto previsionale il più possibile standardizzato e pertanto più facilmente interpretabile e meno ambiguo: le Alpi e, più in generale tutte le principali catene montuose, stanno diventando sempre più luogo ove una vasta e variegata platea di utenti di diverse nazionalità si reca per svolgere attività sportivo-ricreative e turistiche. L’adozione del CAAML come futuro standard permetterà anche il più facile scambio di dati tra applicazioni per la gestione, la modellistica e l'archiviazione dei parametri meteonivologici quali Snowpro, Snowpilot, SPP, YetiNik e YetMap e un’integrazione più spinta per la gestione dei catasti valanghe e per le cartografie tematiche esistenti. Questi tematismi, che concentrano i dati del Catasto delle Valanghe e della Carta di Localizzazione Probabile delle Valanghe (CLPV), potranno avere, infatti, interfacce standard per raccogliere una notevole mole di dati, dando vita così ad uno strumento di analisi geostatistica molto potente utile per le attività di pianificazione e gestione del territorio e dell’ambiente alpino. L’impronta che il CAAML porterà sembra orientarsi in maniera spinta verso servizi web per lo scambio e la condivisione del dato e un futuro Geoavalanche server potrebbe essere tutt’altro che remoto.

GEOmedia n°3-2010


FOCUS

Il CAAML - Canadian Avalanche Association Markup Language Il CAAML è stato introdotto nel 2003, dalla corrispondente associazione canadese CAA, come standard per la rappresentazione d’informazioni pertinenti alle operazioni di tutela e mitigazione dei rischi di valanga. Esso è definito come un pacchetto di schema XML, derivanti dalla grammatica OGC GML (Geographic Markup Language), per esprimere feature geografiche; lo scopo del CAAML è di fornire informazioni che si riferiscono al manto nevoso e alle valanghe in modo da poterle facilmente condividere sul web (sia per scopi scientifici che divulgativi). Sono specificati la struttura e gli elementi dei vari tipi di osservazione, suggerendo, al contempo, un modello sinottico su come i dati devono essere acquisiti. Naturalmente le informazioni sono rappresentate e georiferite spazialmente secondo il modello proprio del GML. La versione attuale, allo stato dell’arte, è la 4.2, ma già si sta approntando la 5.0 che dovrà incontrare le esigenze della larga platea internazionale. Al momento è stato avviato un gruppo di lavoro congiunto – di cui AINEVA fa parte –, che vede coinvolti EAWS (European Avalanche Warning Services) IACS (International Association Cryospheric Sciences) e CAA, con l’incarico di definire le modifiche necessarie affinché il CAAML possa venir adottato come standard internazionale ufficialmente riconosciuto e operativo in tutti gli stati membri. La definizione degli elementi nel CAAML segue il modello proprio del GML3 (specificatamente lo schema del profilo 3.2) basato sul paradigma Oggetto-Proprietà-Valore. Nello specifico un oggetto, secondo tale modello logico, può inglobarne un altro solo attraverso il valore di una sua proprietà, il cui nome deve identificare la relazione o il ruolo ricoperto dall’oggetto contenuto. Questo tipo di modellazione è già consolidata nel mondo della geomatica, per l’uso estensivo con cui vengono consumate applicazioni GML nei vari domini di dataset geografici. Nella versione di sviluppo 4.3 un bollettino valanghe è definito da un elemento XML caaml:Bulletin che segue la struttura delle osservazioni CAAML, derivanti dalla definizione del tipo ObservationType proprio delle osservazioni GML. Esso contiene tra gli elementi principali, metadati, tempo di osservazione, risultati e riferimento spaziale. Proprio quest’ultimo concetto permette di collegare le osservazioni ad aree di previsione, percorsi scialpinistici o zone abitate. Tornando al bollettino, esso, in pratica, sarà un file XML contenente delle specifiche proprietà, definite nello schema principale, tra cui quella sulla natura spaziale dell’informazione valanghiva. Nell’ultima versione attualmente in sviluppo, si sta tentando di razionalizzare la definizione dei concetti di alto livello partendo dal profilo GML 3.2 come schema base e implementando meccanismi di ereditarietà per giungere allo schema principale caaml.xsd.

Riferimenti www.aineva.it www.meteomont.net www.avalanche.ca

Abstract Avalanche risk management and XML applications The most powerful tool for early warning and mitigating the risk of an avalanche has arisen in the last few years. A standard application model has been already accepted at Open Geospatial Consortium. When CAAML, as model for structured electronic exchange of avalanche related information, will become also standard at European community, public avalanche bulletins and professional network observations could be shared at regional and national level among organizations promoting safety services and avalanche awareness such as AINEVA and METEOMONT. This system will create a common platform for professional and public information exchanges that will open doors to a wide array of opportunities for data sharing, viewing and analyzing based on WFS/WMS services.

Autori IGOR CHIAMBRETTI IGOR.CHIAMBRETTI@AINEVA.IT

AINEVA FRANCESCO BARTOLI FBARTOLI@RIVISTAGEOMEDIA.IT

Struttura ereditaria degli XML schema file CAAML

visita il sito www.rivistageomedia.it

17


REPORTS

Telerilevamento e modelli meteo-climatologici per le Isole Urbane di Calore di P. Manunta, D. Iasillo, G. Ceriola, M. Viel, M. Paganini

Il microclima nelle aree urbane può subire variazioni tali da arrivare a provocare, durante il periodo estivo, vere e proprie ondate di calore. Per cercare di arginare tale fenomeno è in fase di realizzazione un progetto europeo che monitorerà – attraverso l’impiego di dati ottenuti tramite l’Osservazione della Terra (EO) - dieci città, coinvolgendo ben diciassette organizzazioni pubbliche.

P

er Isola Urbana di Calore (UHI - Urban Heat Island, in inglese) si intende il fenomeno che determina un microclima più caldo, all’interno delle aree urbane cittadine, rispetto alle zone periferiche e rurali. In generale, l’effetto Isola Urbana di Calore si verifica conseguentemente alla modifica della superficie del suolo, contestualmente a un importante sviluppo urbano o una forte antropizzazione del territorio. Il maggior accumulo di calore è determinato da una serie di concause in interazione tra loro: la diffusa cementificazione, le superfici asfaltate che prevalgono nettamente rispetto alle aree verdi, le emissioni degli autoveicoli, degli impianti industriali e dei sistemi di riscaldamento e di aria condizionata ad uso domestico. Le conseguenze più disastrose di tale effetto sono le tipiche ondate di calore che periodicamente colpiscono le nostre città in estate, alzando il livello di rischio per la salute e per la sicurezza dei cittadini. Le tecnologie di osservazione termica da telerilevamento permettono lo studio delle Isole Urbane di Calore mediante piattaforme satellitari e aerotrasportate, fornendo nuovi elementi per lo studio di tale effetto e delle sue cause, attraverso l’integrazione con modelli di micro meteorologia urbana.

Il progetto Il progetto UHI - Urban Heat Island and Urban Thermography è finanziato dall’Agenzia Spaziale Europea (ESA), nell’ambito del programma quadro DUE. Il progetto ha lo scopo di studiare in modo completo l’impiego dei dati di Osservazione della Terra (EO – Earth Observation) e dei modelli climatologici allo scopo di investigare le proprietà termiche delle città; questo non solo per prevedere il verificarsi dell’effetto Isola Urbana di Calore e dellle conseguenti ondate, ma anche per determinare le caratteristiche energetiche delle aree urbane per la gestione delle politiche di risparmio energetico.

18

Il progetto prevede di monitorate dieci città europee (Atene, Bari, Bruxelles, Budapest, Lisbona, Londra, Madrid, Parigi, Siviglia e Tessalonica) nel periodo 2008-2011. Il gruppo di lavoro comprende sei aziende: Planetek Italia Srl (Italia) – che coordina il team – Edisoft S.A. (Portogallo), Indra (Spagna), NOA-ISAR (Grecia) VITO ed EUROSENSE (Belgio). Gli obiettivi principali del progetto UHI sono: l’integrazione dei dati da satellite e da stazioni meteo a terra all’interno di modelli meteorologici e climatici per supportare le attività di prevenzione e riduzione dei rischi; lo studio dei requisiti di missione per un sensore satellitare ad alta risoluzione nell’infrarosso termico (TIR - Thermal Infra-red); lo studio delle modalità in cui le osservazioni TIR dallo spazio possono supportare l’implementazione di leggi e regolamenti per l’efficienza energetica. La predizione e la mitigazione della variabilità spaziale e temporale delle Isole Urbane di Calore nelle aree metropolitane è il fine ultimo al quale il progetto si propone di

Figura 1 – Atene: temperatura dell’aria a 2m. Previsione valida al 9 giugno 2009, ore 12 (Risoluzione Spaziale: 2km).

GEOmedia n°3-2010


REPORTS pee oggetto del monitoraggio. Inoltre, per raggiungere gli obiettivi del progetto, verrà implementato un sistema informativo capace di integrare i modelli meteorologici e climatici ed un catalogo dei prodotti generati. I prodotti da Osservazione della Terra A questa categoria appartengono nove prodotti che, tra gli altri, comprendono: la Land Surface Temperature (LST o ‘temperatura del suolo’) e i parametri di superficie e temperatura dell’aria da modelli climatologici. Tali prodotti verranno realizzati utilizzando diffeFigura 2 – Madrid: Land Surface Temperature da immagine Landsat 5 alla risoluzione renti sensori satellitari a diverse risoluzioni di 120m (Data: 3 luglio 2008, ore 10:43). spaziali e con frequenza temporale differente. contribuire, mediante una serie di attività operative, ma an- Si partirà da dati Meteosat (MSG – Meteosat Second Geneche informative, di coinvolgimento e stimolo degli utenti e ration) a 3km, con cadenza ogni 15’, per arrivare a quelli a dei decisori; queste attività prevedono: lo stimolo alla par- 1km con frequenza giornaliera (notte e giorno). Inoltre, satecipazione degli utenti ed il contributo alla diffusione di ranno utilizzate alcune immagini ad alta risoluzione (100m) tecnologie avanzate basate sulle tecniche di Osservazione per particolari eventi rilevati durante le stagioni estive degli della Terra; l’incremento della comprensione scientifica dei anni 2006-2009. fattori che influenzano il clima urbano; la creazione di servizi Nel caso specifico di Madrid, saranno realizzati due prodotti operativi basati su dati EO per il monitoraggio e la valuta- addizionali: la LST e l’AT delle aree urbane e periurbane ad zione; la costruzione del consenso necessario per la defini- altissima risoluzione (5-30m) da immagini aeree, acquisite zione di una missione satellitare dedicata ad osservazioni durante un’apposita campagna svolta nell’estate del 2008. all’infrarosso termico. Prodotti di valutazione A questa categoria appartengono cinque prodotti: mapProdotti e servizi per il progetto UHI Nell’ambito del progetto saranno elaborati diciotto diffe- pe delle Isole Urbane di Calore a bassa risoluzione (con una risoluzione di circa 1km) per generare mappe mensili renti prodotti allo scopo di: e stagionali degli ultimi 10 anni; mappe di pericolo di ri• monitorare i parametri fondamentali per seguire il feno- schio di ondate di calore (a scala urbana), unitamente alla meno delle Isole Urbane di Calore a differenti scale e pe- definizione di aree urbane ad alto-medio-basso rischio di riodicità, usando i dati da vari satelliti a partire dalla bassa ondate di calore, su base mensile, negli ultimi 3 anni: querisoluzione (qualche chilometro) per arrivare ai sensori sti prodotti verranno forniti per le città di Atene, Lisbona e Madrid; mappe termografiche delle città per la verifica aerotrasportati ad altissima risoluzione (5-30m); • stabilire quale sia il rischio di nascita di Isole Urbane di delle regolamentazioni di efficienza energetica (estate ed inverno) e mappe di efficienza energetica: le città coinvolte Calore durante il periodo primaverile/estivo; • valutare in near real time e fare previsioni sul rischio di sono Bruxelles, Madrid e Siviglia. ondate di calore e Isole Urbane di Calore, unitamente Per la città di Madrid, inoltre, verrà generata una mappa all’impatto delle condizioni meteorologiche sullo stato di termografica estiva ad altissima risoluzione (intorno ai 2m), utilizzando i dati da aereo ripresi nell’estate 2008. Infine salute dei cittadini, attraverso indicatori specifici; • supportare gli studi sul bilancio energetico e le regola- un’analoga mappa invernale sarà realizzata per Bruxelles mentazioni e legislazioni in materia di efficienza energeti- (con una risoluzione inferiore ai 5m), utilizzando dati da aereo ripresi nell’inverno 2008-2009. ca, attraverso la produzione di mappe termografiche. I prodotti saranno generati per tutte e dieci le città euro-

Figura 3 - Esempi di prodotti per il progetto UHI. A sinistra: mappa di vulnerabilità della popolazione agli effetti della UHI (città di Atene). A destra: mappa termografica ad altissima risoluzione (parte sinistra dell’immagine). La freccia indica un esempio di tetto di materiale non termicamente efficiente.

visita il sito www.rivistageomedia.it

19


REPORTS Servizi in near real time e di previsione per tre giorni Sono previste quattro tipologie di prodotti-servizi che, a regime, opereranno per 60 giorni, durante il periodo estivo. Si prevede la produzione giornaliera di dati sulla temperatura dell’aria in near real time e quella previsionale a tre giorni in aree urbane e periurbane – a 1km di risoluzione – per la prevenzione delle conseguenze delle Isole Urbane di Calore. Da questo prodotto ne deriveranno degli altri, con la stessa risoluzione e frequenza: indici di stress termico, per prevedere l’impatto delle condizioni meteorologiche sullo stato di salute umano; mappe delle Figura 4 - Il portale WebGIS del Sistema Informativo UHI: esempio di visualizzazione di un'area Isole Urbane di Calore, per l’identificazio- di Lisbona. ne di aree a bassa ed alta emissione di calore all’interno dell’agglomerato urbano; mappe di pericolo e di rischio di ondate di calore, per la dieci città mediante interviste dirette ed un questionario definizione di aree urbane ad alto-medio-basso rischio, uti- mirato, con l’obiettivo di mettere a fuoco le caratteristiche lizzando anche dati socio-economici locali. dei prodotti in base alle esigenze dei fruitori e di raccoglieI primi tre prodotti saranno forniti per sei città europee re informazioni per lo studio del sensore TIR. (Atene, Bari, Lisbona, Madrid, Siviglia e Tessalonica); l’ultimo prodotto sarà fornito per le tre città rimanenti (Atene, La città di Bari nel progetto UHI All’interno del progetto UHI la città di Bari – in particolare Lisbona e Madrid). la sezione comunale della Protezione Civile – rappresenta Lo studio per il design di un sensore TIR uno degli utenti per cui saranno realizzati alcuni prodotti L’utilizzo di un sensore nella banda dell’infrarosso termico (in particolare della Land Surface Temperature, della temha l’obiettivo principale di raccogliere e sintetizzare le ri- peratura dell’aria e di rischio Isole Urbane di Calore su dati chieste e le necessità dei comuni europei e delle agenzie storici, in near real time e di previsione). La municipalità badi supporto nei confronti di un’osservazione frequente e rese, nella fase 1, ha attivamente partecipato alla raccolta di routine della temperatura del suolo e dell’aria nel cuore dei requisiti relativamente alle caratteristiche dei prodotti delle maggiori città europee e nelle loro aree peri urbane, ed alla possibilità di integrarli con i sistemi di monitoraggio il tutto con un’elevata risoluzione spaziale ed un adeguato già presenti. tempo di rivisita. Verranno definiti anche i requisiti di mis- Attualmente, tali sistemi di monitoraggio consistono nella sione ad alto livello ed inclusi degli scenari di osservazione. stazione meteorologica dell’Aeronautica presso l’aeroporL’obiettivo finale è costruire il più largo consenso possibile to adiacente alla città, più altre sei stazioni dislocate nel – fra gli utenti e la comunità scientifica che studia il clima territorio cittadino. Le misure di tali stazioni vengono poi urbano – per contribuire a sviluppare applicazioni in campo utilizzate dalla Protezione Civile per creare un bollettino di urbano e per un’appropriata ri-orientazione della missione allerta giornaliero (basato esclusivamente su dati epidemioESA Fuegosat. logici) e previsionale di due giorni, indicante la previsione degli effetti di potenziali ondate di calore. Gli utenti del progetto UHI Il vantaggio di utilizzare questi prodotti consiste nella posIl coinvolgimento attivo degli utenti nello sviluppo del pro- sibilità di monitorare la temperatura dell’aria e l’effetto UHI getto è una delle componenti chiave dello stesso. Dieci città in maniera continua su tutta la città, con differente cadenza e diciasette organizzazioni pubbliche partecipano al proget- ed a differente risoluzione, avendo la possibilità di operare to come utenti con differenti ruoli istituzionali e compiti: anche su singole aree. Inoltre, si possono fare previsioni del rischio e di mitigazione degli effetti, misurare l’efficienza • agenzie/istituti nel campo ecologico-ambientale: Atene, energetica delle varie zone della città per creare delle mapBruxelles, Budapest, Parigi e Siviglia; pe da utilizzare per la pianificazione e la regolamentazione • autorità di pianificazione: Londra; energetica comunale e, infine, si ha la possibilità di coinvol• dipartimenti di protezione civile: Bari, Atene, Tessalonica gere successivamente altri comuni o entità istituzionali. e Lisbona; • servizi meteorologici e canali di radiodiffusione: Atene e Conclusioni Tessalonica; Il progetto UHI è stato creato con l’ambizioso obiettivo di in• agenzie e dipartimenti di ingegneria urbana e GIS/carto- vestigare il fenomeno delle Isole Urbane di Calore, mediante grafia: Lisbona e Madrid; la sinergia di dati di Osservazione della Terra da satellite e di • salute: Lisbona. dati in situ applicati all’interno di algoritmi e modelli meteIl progetto è organizzato e studiato appositamente per gli orologici e climatologici innovativi. Altrettanto ambizioso è utenti ed i realizzatori dei prodotti. Grande attenzione è l’obiettivo di realizzare i prodotti-servizi in stretta sinergia con dedicata al rapporto ed alla comunicazione con gli utenti. gli utenti, affinché siano in grado di comprendere e utilizzare Sono previste interazioni e sessioni di addestramento, non- i risultati nelle loro politiche energetiche e di prevenzione. ché la produzione di materiali informativi periodici, come In sintesi, i risultati attesi alla fine del progetto sono: la mesle newsletter. sa in opera di un sistema informativo adattato agli utenti Durante la prima fase del progetto, grande attenzione è che supporti le autorità locali nella valutazione, nel monitostata dedicata alla raccolta dei requisiti degli utenti delle raggio e nella previsione di ondate di calore e di Isole Urba-

20

GEOmedia n°3-2010


REPORTS ne di Calore, fornendo così una metodologia standard che sia utile in differenti regioni e città europee; la definizione dei requisiti di alto livello, per una missione satellitare per il monitoraggio delle Isole Urbane di Calore; far aumentare la conoscenza e la comprensione delle applicazioni EO in tale campo da parte degli utenti. Insieme al materiale divulgativo prodotto nel corso del progetto, saranno messi a disposizione elementi didattici e tutorial. Inoltre, si fornirà un contributo per risolvere alcune sfide scientifiche quali la determinazione della temperatura dell’aria a partire da immagini della temperatura del suolo, al momento raramente assimilate ‘direttamente’ all’interno dei vari modelli. Si prevede poi di aumentare la sinergia fra organizzazioni scientifiche e compagnie private.

Abstract Remote sensing and microclimatology models for the Urban Heat Islands An Urban Heat Island (UHI) is a metropolitan area which is significantly warmer than its surrounding rural areas. The main cause of the UHI is the modification of the land surface by urban development. The most disastrous consequences are the Heat Waves that periodically strike the city during summer. With the rise of thermal remote sensing technology it has become possible to study the UHI by means of satellite and airborne platforms, giving new elements for understanding the effect and its causes, using a combination of remote sensing observations and models of urban micro-meteorology. UHI is an ESA funded project lead by Planetek Italia and carried out by a Consortium of private companies and research institutes in 10 European cities.

visita il sito www.rivistageomedia.it

Riferimenti • http://dup.esrin.esa.it • www.urbanheatisland.info • www.protezionecivile.it/cms/view.php?dir_pk=395&cms_ pk=15731

Autori PAOLO MANUNTA MANUNTA@PLANETEK.IT

GIULIO CERIOLA CERIOLA@PLANETEK.IT MONIQUE VIEL VIEL@PLANETEK.IT DANIELA IASILLO IASILLO@PLANETEK.IT PLANETEK ITALIA SRL MARC PAGANINI MARC.PAGANINI@ESA.INT

ESA - EUROPEAN SPACE AGENCY

21


REPORTS

Geoportale Nazionale: il Piano Straordinario di Telerilevamento per l’Ambiente di Salvatore Costabile Continua la pubblicazione degli articoli dedicati al Geoportale Nazionale. Mentre sul precedente numero di GEOmedia veniva illustrata, nel dettaglio, la struttura del sistema evidenziandone gli aspetti innovativi, in questo secondo articolo si descrivono le ulteriori peculiarità del Geoportale e, soprattutto, vengono illustrate le funzionalità legate al rischio di dissesto idrogeologico. Per questa problematica, il MATTM (Ministero dell'Ambiente e della Tutela del Territorio e del Mare) ha sviluppato un Piano Straordinario di Telerilevamento Ambientale (PST), tramite il quale si intende fornire dati accurati del territorio nazionale.

L

a conformazione geomorfologica dell’Italia, a causa della sua giovane età, presenta un dissesto idrogeologico molto elevato, individuabile in modo capillare su tutto il territorio nazionale. Vi sono circa 13.000 aree soggette a rischio frana, alluvione e valanga; tali aree sono state individuate grazie ad uno strumento di pianificazione a disposizione dell’Autorità di Bacino: il Piano per l’Assetto Idrogeologico (PAI). Grazie ai PAI, applicabili a quasi tutta la penisola, si evidenzia una situazione in cui circa il 10% della superficie è a rischio e/o a pericolosità idrogeologica di grado più elevato (circa il 4% per alluvioni e circa il 6% per frane e valanghe); di questi, il 6,6% coinvolge direttamente zone con beni esposti (centri urbani, infrastrutture, aree produttive, ecc.) strettamente connessi con lo sviluppo economico del Paese. Bisogna tenere presente, però, che l’individuazione di tali aree non è puntuale, poiché è stata effettuata ad una scala medio piccola (1:25.000) e, cautelativamente, a gran parte di esse è stata attribuita la classe di massimo rischio (R3, R4, P3 e P4). Il progetto IFFI (Inventario dei Fenomeni Franosi) si ferma all’anno 2005; da allora sono mancati aggiornamenti costanti e duraturi delle zone a rischio frana. Un Piano Nazionale per la Gestione del Rischio si redige mettendo insieme dati provenienti dalle diverse Autorità di Bacino, le quali, nella realizzazione dei propri PAI, hanno seguito metodologie differenti, non standardizzate, ottenendo così un dato disomogeneo; questa condizione ha comportato necessariamente una correzione totale del dato originale al fine di ottenere un unico dato nazionale rappresentativo del tematismo stesso, che comunque resta sempre disomogeneo, disaggregato e non aggiornato.

22

credits: Arnaldo Zitti

Un’individuazione imprecisa delle aree a rischio genera inefficienze tecniche e diseconomie in fase di prevenzione, monitoraggio, pianificazione e programmazione. Tenendo presente che le risorse economiche messe a disposizione per la difesa del suolo sono sempre molto contenute e riescono a soddisfare solo una minima parte delle numerose richieste di interventi preventivi più urgenti, si rende quindi necessaria una verifica dei PAI stessi. A tal proposito, con l’articolo 27 della Legge n. 179/2002 è stato previsto un finanziamento per la realizzazione del Piano Straordinario di Telerilevamento ad alta precisione (PST) per le aree a rischio idrogeologico, che nasce per rispondere alle problematiche evidenziate in precedenza e si propone – ricorrendo alle moderne tecnologie di telerilevamento satellitare e/o aereo, attivo (radar) e passivo – di fornire un dato estremamente accurato e rappresentativo del territorio nazionale, utile a supportare la verifica e l’adeguamento dei PAI. Il PST nasce, dunque, per supportare le esigenze delle Amministrazioni Centrali che istituzionalmente hanno il compito di coordinare le attività per la difesa del suolo (il MATTM), prevedere e gestire le conseguenze degli eventi naturali nei casi di emergenza (Presidenza del Consiglio dei Ministri, Dipartimento Protezione Civile - DPC) e gestire le competenze nazionali di tipo geotopocartografico e di sicurezza (Ministero della Difesa, Stato Maggiore della Difesa - SMD). Analogamente, le amministrazioni territoriali – le Regioni, le Province e i Comuni – sono coinvolte nella gestione del territorio e dell’ambiente e nelle attività connesse all’emergenza (Conferenza Stato-Regioni).

GEOmedia n°3-2010


REPORTS L’attivazione del Piano è stata condizionata alla definizione di un accordo d’intesa tra MATTM, SMD, DPC e Conferenza Stato-Regioni. I dati, le metodologie ed i prodotti delle elaborazioni effettuate nell’ambito del PST – a fronte della stipula di un Protocollo di Intesa, come previsto alla Legge 244/2007 art. 2 comma 327 – vengono condivisi con tutte le Pubbliche Amministrazioni, in un’ottica di economia di scala, per le attività specifiche di ogni amministrazione o ente che ne faccia uso. Così – come anche precisato nell’accordo di programma – è stato previsto che l’interscambio delle informazioni geotopocartografiche acquisite avverrà attraverso il Geoportale Nazionale. I benefici derivanti da questa impostazione sono molteplici: il MATTM, infatti, potrà utilizzare i dati da telerilevamento provenienti dal PST per la predisposizione di un programma per la verifica dei Piani di Assetto Idrogeologico, finalizzato ad un’accurata individuazione delle aree a rischio idrogeologico e al conseguente riscontro del piano degli interventi e dei relativi costi. Il Piano Straordinario di Telerilevamento mira a potenziare gli strumenti di conoscenza che sono oggi a disposizione e intende rafforzare le capacità di osservazione e controllo del territorio mediante l’utilizzo di tecniche di telerilevamento – sia satellitari che aeree – contribuendo inoltre a sviluppare un processo di accrescimento delle conoscenze delle tecnologie e a diffondere l’utilizzo di tali tecniche in generale nella Pubblica Amministrazione. Grazie a tale accordo, oggi è possibile monitorare in maniera dinamica situazioni di criticità idrogeologica e attivare, con tempestività ed efficacia, le misure necessarie per la mitigazione del rischio e fronteggiare l’insorgenza di eventuali eventi catastrofici. L’allarme dissesto idrogeologico colpisce in Italia quasi l’80% dei comuni per un totale di 6.352 centri interessati. Valle d’Aosta, Campania, Emilia Romagna, Molise, Toscana e Piemonte sono le regioni che potenzialmente hanno più aree a rischio, mentre Lucca guida la classifica delle province. Il 10% della superficie nazionale risulta a ‘potenziale rischio idrogeologico più alto’ (31.504km2, di cui 13.760 per frane e 17.744 per alluvioni). Questo è quanto emerge da un rapporto del Ministero dell’Ambiente e della Tutela del Territorio sulla pianificazione territoriale provinciale e rischio idrogeologico. In particolare, nella

classifica regionale, la Valle d’Aosta è prima per la presenza di aree a rischio potenziali in rapporto alla superficie totale. Seguono Campania, Emilia Romagna, Molise, Toscana e Piemonte. Per le province, dopo Lucca seguono Parma, Piacenza, Caserta e Aosta. Sul fronte frane, è sempre Lucca la provincia in testa per presenza di aree a più alto rischio potenziale, mentre Livorno è la provincia che guida le altre per il capitolo alluvioni. Inoltre il MATTM – proprio nell’ottica di favorire la condivisione dei prodotti provenienti dal PST, il cui utilizzo potrà non solo essere orientato al rischio idrogeologico ma anche ad altre importanti aree di interesse – ha voluto estendere il perimetro del Piano Straordinario di Telerilevamento a tutte le problematiche di tipo Ambientale (PST-A). In considerazione di questa nuova impostazione e, a seguito dei lavori della commissione del tavolo tecnico del PST-A, è stato stabilito che i dati che andranno a costituire un archivio multitemporale saranno LiDAR e Interferometrici SAR. I dati LiDAR La scansione laser LiDAR (Light Detection and Ranging o Laser Imaging Detection and Ranging) rappresenta una tecnologia efficiente per l’acquisizione dei Modelli Digitali del Terreno (DTM – Digital Terrain Model) e di superficie (DSM – Digital Surface Model) di ampie porzioni di territorio. I DTM possono essere generati ad elevata risoluzione e dettaglio, rendendo la tecnologia più efficiente in termini di costi rispetto ai tradizionali metodi fotogrammetrici. Tanto i sistemi LiDAR su elicottero che quelli su aerei ad ala fissa, scansionano la superficie terrestre misurando la coltre vegetativa e penetrando fino al suolo, fornendo importanti informazioni sul terreno e rilevando quote con accuratezza centimetrica. In base al sistema, le velocità di scansione possono variare da 50.000 a 100.000 impulsi al secondo, producendo una fitta nuvola di punti quotati. L’utilizzo di informazioni supplementari, quali i valori di intensità laser, consente di determinare il tipo di superficie fra cui il terreno, la vegetazione e gli edifici. La densità dei punti del rilievo è superiore a 1,5 punti per m2; se ne deduce che l’applicazione di detti rilievi per la difesa del suolo sia molteplice. Infatti, nello studio delle frane è utile per ricostruire con alta precisione le morfologie dei rilievi montuosi, l’inclinazione dei versanti, i volumi dei

Figura 1 - Modello digitale altimetrico di un ghiacciaio. Serie storiche di dati Lidar permettono di calcolare le variazioni volumetriche subite dalle masse glaciali nel tempo. Le variazioni di massa dei ghiacciai sono importantissimi indicatori climatici.

visita il sito www.rivistageomedia.it

23


REPORTS

Figura 2 - Vista bidimensionale (a sinistra) e tridimensionale (a destra) del modello digitale altimetrico dell’asta fluviale Bussento (Campania) presente nel Data Base PST-A. Nel riquadro piccolo è riportato il profilo topografico di dettaglio della sezione segnata in giallo nell’immagine in alto.

materiali, le incisioni vallive, i bacini montani, ecc. Questo consente, unitamente ad altri parametri di rilievo, di meglio tracciare le aree a pericolosità di frana, le aree di influenza, individuare i beni a rischio ed effettuare simulazioni più realistiche dei fenomeni franosi temuti. Nello studio delle alluvioni, invece, è utile per la ricostruzione del bacino idrografico, della morfologia dell’alveo e delle zone soggette a allagamento, l’individuazione di situazioni di ostacolo al deflusso, ecc. Inoltre, la creazione di un Modello Digitale del Terreno ben definito, permette di sviluppare modelli idraulici molto più precisi. Ciò consente, unitamente ad altri parametri di rilievo, di tracciare meglio le aree a pericolosità idraulica, le possibili aree di rottura di piene, di individuare i beni a rischio e di effettuare simulazioni realistiche dei fenomeni alluvionali temuti, soprattutto nelle zone di pianura. Qui, infatti, è fondamentale rilevare differenze di quota minime, al fine di ottimizzare l’individuazione degli interventi più efficaci e di economizzare anche la spesa.

Le applicazioni dei modelli DTM e DSM comprendono: • Linee di trasmissione e distribuzione elettrica; • Modellazione accurata delle infrastrutture (strade, fiumi e ferrovie); • Ingegneria progettuale; • Modellazioni delle aree inondabili; • Inventari forestali e loro gestione; • Cartografia topografica; • Modellizzazione e pianificazione urbana; • Visualizzazione e simulazione. Permanent Scatterers Interferometry L’Interferometria Differenziale SAR è una tecnica che può essere efficacemente impiegata per mappare gli spostamenti superficiali legati a fenomeni franosi e di subsidenza. Infatti, la fase interferometrica è data da due contributi: dalla topografia della scena osservata e dall’eventuale deformazione del terreno, avvenuta nell’intervallo di tempo intercorso tra le due acquisizioni. Sottraendo la componente topografica è possibile stimare la componente dovuta allo spostamento. L’impiego della tecnica Permanent Scatterers (PSI - Permanent Scatterers Interferometry) permette di superare i limiti legati agli approcci più convenzionali dell’interferometria SAR, utilizzati per l’identificazione delle deformazioni superficiali. La tecnica PSI consente il riconoscimento nelle immagini di singoli punti di riferimento (denominati appunto Permanent Scatterers) da utilizzare per le misure di precisione degli spostamenti. Questi punti corrispondono solitamente sia a strutture di origine antropica - quali ad esempio palazzi, dighe, antenne - che a stabili riflettori naturali (rocce esposte). La tecnica PSI è, quindi, un valido mezzo per identificare e monitorare i diversi fenomeni geofisici quali, ad esempio, subsidenza, frane, faglie sismiche, oltre a verificare la stabilità di costruzioni e palazzi.

Figura 3 - Punti ottenuti con la tecnica Permanent Scatterers mostrano la traccia della faglia di Paganica.

24

GEOmedia n°3-2010


REPORTS I vantaggi del PST-A Attraverso i prodotti del PST-A, le Pubblica Amministrazioni Centrali e Locali saranno in grado di vigilare, per mezzo di strumenti di consultazione visiva, sulle aree di loro interesse. Il MATTM, in conformità ai suoi compiti istituzionali e vista la necessità di far fronte ad emergenze ambientali presenti e future, si è voluto dotare di un’infrastruttura tecnica e tecnologica capace di fornire e gestire in modo capillare informazioni geografiche su tutto il territorio nazionale. Tale struttura è proprio il Portale Cartografico Nazionale che, con il Decreto Legge n. 32 del 27 gennaio 2010 ai sensi dell’art. 8, assume la denominazione di Geoportale Nazionale; attraverso questo strumento si consente ai soggetti interessati, pubblici e privati, di avere certezza della disponibilità dell’informazione territoriale e ambientale. Conclusioni Si auspica, per il futuro, che le importanti ricadute operative del Piano di Telerilevamento Ambientale, unitamente alla condivisione da parte degli enti pubblici dei principi ispiratori del progetto stesso, determinino non solo il successo dell’iniziativa, ma anche l’evoluzione della stessa sia attraverso la sua diffusione a livello capillare sul territorio nazionale e in ambito internazionale che attraverso lo sviluppo di nuove funzionalità e servizi che siano realmente utili alle finalità operative degli utenti.

Abstract Geoportale Nazionale: the remote sensing special plan for environment Due to its geomorphological conformation, the italian territory is subject to a high hydrogeological instability. For this reason the PST-A, enacted by MATTM, is aimed at empowering the capability of land observation by collecting high-resolution remote sensing data. The multitemporal database, built from Lidar and Interferometric SAR data, is available through the Geoportale Nazionale. The web portal can provide and manage geographical informations of the whole Italian country, giving organizations a tool to organize soil protection activities

Autore SALVATORE COSTABILE COSTABILE.SALVATORE@MINAMBIENTE.IT

TEOREMA - SOLUZIONI PER LA TOPOGRAFIA

Leica TS/TM30

Leica GNSS Serie Viva

Leica C10

www.geomatica.it

Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 - Fax 02 57301988 • teorema@geomatica.it visita il sito www.rivistageomedia.it

25


REPORTS

Uso di gvSIG e SEXTANTE per la perimetrazione degli ambiti periurbani di Gabriele Nolè, Beniamino Murgante e Antonio Falciano

Le regole dell’abitare e dell’edificazione sono cambiate. Gli spazi aperti, individuabili fino a pochi anni fa, oggi si trasformano in aree urbanizzate secondo regole del tutto nuove e con caratteristiche che non ne permettono una semplice definizione. Nascono così le aree periurbane che evidenziano non solo la trasformazione urbanistica ma anche, e soprattutto, la perdita di aree rurali.

N

egli ultimi anni il modello di espansione insediativa ha subito variazioni significative. Infatti, è sempre più evidente la diffusione e la dispersione di edifici, frutto di una domanda abitativa che porta i flussi dalla città compatta verso le aree rurali. Gli insediamenti nel ‘territorio aperto’ vengono spesso considerati il luogo di una qualità ‘non urbana’. La dispersione insediativa è correlata alla casualità di nuove localizzazioni, ad una urbanizzazione senza regole della campagna che consuma il suolo e snatura il paesaggio, a tempi di spostamento intollerabili e costi di urbanizzazione, di infrastrutturazione e di trasporto pubblico sempre più elevati. Tutti i parametri appena citati, hanno destato l'attenzione nel tentativo di contenere i costi, pubblici e privati, della città diffusa. Si illustra in questo articolo l'implementazione di un modello di analisi spaziale per l’individuazione del territorio periurbano all’interno delle aree caratterizzate da dispersione insediativa, là dove per ‘periurbano’ si intende letteralmente la “alterazione dei bordi o della periferia di una città”. Lo sviluppo di tale modello si basa sulla KDE (kernel Density Estimation), una tecnica di interpolazione spaziale che fornisce una stima di densità di un fenomeno puntuale, utilizzando una funzione mobile a tre dimensioni che pesa gli eventi entro la loro area di influenza, a seconda della loro distanza dal punto nel quale viene stimata l’intensità. La KDE consente di creare una superficie di densità continua a partire da un set di dati puntuali, ottenendo una migliore rappresentazione della distribuzione dei punti sulla superficie. Tra le variabili che costituiscono la KDE è importante soffermarsi sulla ‘larghezza di banda’, che definisce il raggio della superficie circolare entro la quale la densità del punto è valutata (figura 1). Essa consente di ottenere superfici più o meno rispondenti al fenomeno, permettendo di analizzare la sua distribuzione alle diverse scale. Se la larghezza di banda è elevata, le densità stimate saranno simili ovunque e vicine al valore della densità media dell’intera configurazione. Se invece

Figura 1 - Kernel Density Estimation.

26

è piccola, la superficie risultante sarà focalizzata sui singoli eventi, con densità prossime allo zero per localizzazioni lontane da ogni evento. La scelta della larghezza di banda è legata al fenomeno di studio e, comunque, va determinata per aggiustamenti successivi. Il caso di studio: la provincia di Potenza Il modello è stato applicato alla Provincia di Potenza, caratterizzata da una superficie di circa 6.500 km2 e una popolazione pari a circa 400.000 abitanti. Granparte dei comuni della Provincia ha una popolazione inferiore ai 5.000 abitanti, con centri urbani che nascono su promontori e cercano di svilupparsi verso valle. In quest’area l’ubicazione dei nuovi insediamenti spesso non tiene conto dei limiti delle zone di nuova espansione previste dagli strumenti urbanistici e si colloca, invece, in quello che tecnicamente viene definito ‘territorio aperto’. Paradossalmente, sono più numerosi gli edifici in campagna di quelli presenti nelle zone di espansione. La metodologia adottata Per poter applicare il modello KDE si è proceduto con una prima fase che ha previsto l’acquisizione, la normalizzazione e l’elaborazione dei seguenti strati informativi: • • • • • •

edifici; sezioni di censimento (ISTAT 2001); località (ISTAT 2001); viabilità; idrografia; rischio idrogeologico (PAI delle Autorità di Bacino di competenza); • carta delle pendenze; • aree BioItaly. È stata analizzata la distribuzione del sistema insediativo, associando al centroide di ogni edificio i dati ISTAT della relativa sezione di censimento e calcolando l’indice abitazioni/edificio da utilizzare nella stima della densità di kernel. Così facendo, ogni edificio ha acquisito un certo ‘peso’, rilevante nello studio effettuato con la KDE. Mediante varie simulazioni, è stata ricercata la larghezza ottimale di banda, entro la quale effettuare lo studio della densità, posta pari a 400m. Sono stati inoltre individuati i valori di densità entro i quali analizzare i risultati: 1 abitazione/ha (al di sotto del quale è plausibile pensare al territorio rurale), tra 1 e 5 abitazioni/ha (range indicativo del periurbano) e al di sopra delle 5 abitazioni/ha (per i quali è consistente il carattere urbano dell'area).

GEOmedia n°3-2010


REPORTS

gvSIG e SEXTANTE gvSIG (www.gvsig.gva.es) è frutto dell’iniziativa intrapresa in Spagna dal Dipartimento delle Infrastrutture e dei Trasporti della Comunità Autonoma di Valencia (Generalitat Valenciana) a partire dal 2003. Il progetto è finanziato mediante il Fondo Europeo di Sviluppo Regionale (FERS/FEDER). Presenta un’interfaccia user friendly ed un rapido accesso ai formati raster e vettoriali più comuni. E’ in grado di integrare dati locali e remoti all’interno della stessa vista utilizzando servizi WMS, WFS, WCS, ArcIMS e sorgenti di dati JDBC, PostGIS, Oracle Spatial, ecc. e, inoltre, include una serie di funzioni fra cui l’editing avanzato, il geoprocessing, la gestione dei CRS, il supporto a diversi linguaggi di scripting, ecc.

Figura 2 - Dati in ingresso del modello.

Lo strato informativo relativo alle località ISTAT definisce il perimetro dei centri abitati e quindi dell’ambito urbano. Tale confine è utilizzabile come limite esterno oltre il quale ricercare aree adatte alla nuova espansione urbana. Sono state considerate quindi le fasce di territorio entro i 200m dalla rete stradale, ovvero la distanza limite oltre la quale la rete viaria non sembra influenzare la realizzazione di nuovi edifici e le aree comprese nella fascia dei 150m dai corsi d’acqua principali, sottoposte a tutela (art. 142,

Figura 3 - Densità di kernel del n° di abitazioni/(edificio*ha) sul territorio provinciale.

comma 1, lettera c del D.Lgs. 22 gennaio 2004). Sono state escluse poi le aree interessate dal rischio idrogeologico e con pendenza superiore al 35%, in quanto presentano controindicazioni alla nuova edificazione. Inoltre, sono state escluse le aree BioItaly da sottoporre a tutela ambientale, quali le Zone di Protezione Speciale (ZPS) e i Siti di Importanza Comunitaria (SIC) della Rete Natura 2000. Tutti i tematismi individuati sono stati rielaborati per poter applicare le regole di inclusione/esclusione necessarie per l’individuazione del periurbano. Le regole includenti caratterizzano le aree che, almeno in prima analisi, fanno parte del territorio periurbano, ovvero con valori di densità compresi tra 1 e 5 abitazioni/ha e distanza dalla rete viaria non superiore ai 200m. Le regole escludenti, invece, hanno interessato le aree BioItaly, a rischio idrogeologico (eccetto R1 e R2) e le aree con pendenza superiore al 35% e con distanza dai corsi d’acqua inferiore a 150m. In via schematica, tutto il procedimento è stato suddiviso in due fasi, definendo dapprima un periurbano ‘lordo’ abba-

visita il sito www.rivistageomedia.it

SEXTANTE (www.sextantegis.com) è una libreria di analisi spaziale sviluppata presso l’Università di Extremadura (Spagna), comprendente oltre 290 strumenti per layer raster e vettoriali, processi WPS, ecc. Nato come software standalone, inizialmente basato su SAGA GIS, è stato poi rilasciato come estensione per il software gvSIG. Attualmente, SEXTANTE è una libreria indipendente utilizzata da molti software e servizi web. Di recente, SEXTANTE si integra anche con il noto GRASS GIS (http://grass.itc.it).

stanza ampio, attraverso le regole includenti e, in seguito, a questo sono stati sottratti i territori interessati dalle regole escludenti. Per una migliore gestione di tutta la procedura sono stati implementati due modelli in SEXTANTE da utilizzare a cascata: l’output del primo modello (periurbano_1liv. model) diviene l’input del secondo (periurbano_2liv.model). In particolare, il primo modello realizza il calcolo della densità di kernel basata sui centroidi degli edifici e sull’attributo abitazioni/edifici con un raggio di ricerca di 400m. A tal fine, è stato creato opportunamente un sottomodello, basato sullo strumento Density (kernel) di SEXTANTE, in grado di operare il calcolo della densità utilizzando un kernel di tipo quartico rispetto alla superficie di 1 ettaro. Successivamente, la densità così ottenuta è riclassificata, assegnando alle aree con densità maggiori di 5 (aree urbane) e minore di 1 (aree agricole o non residenziali) un valore nullo, mentre per valori compresi tra 1 e 5 è stato assegnato un valore unitario. Lo strato informativo delle località ISTAT è rasterizzato e riclassificato con valore nullo. Allo stesso modo alle aree ricadenti nel buffer di 200m dalle strade è stato assegnato il valore 1. Le grid così riclassificate sono moltiplicate tra loro mediante il Raster Calculator. Il raster di output identifica un ‘primo periurbano’ contenente tutte quelle aree che possiedono caratteristiche pro-periurbano e identificate dal valore 1. Il secondo modello ha invece il compito di sottrarre al primo periurbano tutte le aree contemplate dalle regole escludenti. I fattori da trattare sono le pendenze, il rischio idrogeologico, l’idrografia e le aree BioItaly. Anche in questo caso le grid sono state riclassificate e poi moltiplicate con il raster che individua il primo periurbano.

Figura 4 - Workflow del modello di individuazione del periurbano di primo livello.

27


REPORTS

Figura 5 - Workflow del modello di individuazione del periurbano di secondo livello.

Figura 6 - Schema delle operazioni di Map Algebra per il periurbano di secondo livello. Figura 7 Interfaccia grafica del modello per il calcolo del periurbano di secondo livello.

Conclusioni Il territorio periurbano ottenuto non è risultato ampio. Questo significa che le aree a ridosso della città, nonostante un evidente proliferare di edificazione sparsa, sono caratterizzate perlopiù da costruzioni con massimo 1-2 abitazioni per edificio oppure da edifici non residenziali. Trattandosi di un modello a scala vasta, l’esito conseguito è utilizzabile come base di partenza per la pianificazione comunale o sub-comunale, in grado poi di poter fare ulteriori considerazioni su queste aree (analisi delle opere di urbanizzazione primarie e secondarie, dei trasporti, dei contesti sociali, ecc.) e giungere ad una perimetrazione del periurbano ancor più aderente alle singole realtà insediative. Il modello implementato è stato realizzato in ambiente completamente open source (Ubuntu 9.10, gvSIG 1.9 (BN1253) e SEXTANTE 0.55). In particolare, il modellizzatore grafico di SEXTANTE – tra i più potenti nel suo genere all’interno del panorama GFOSS – è uno strumento che si presta in maniera flessibile alla progettazione e alla definizione di un flusso di lavoro basato sulla Point Pattern Analysis e che prevede un uso intensivo della Map Algebra. In definitiva, il binomio gvSIG e SEXTANTE può ritenersi allo stato attuale abbastanza stabile e maturo da poter essere utilizzato nei modelli di pianificazione di area vasta.

28

Figura 8 - Periurbano di secondo livello (hinterland di Potenza).

Riferimenti • Bailey T. C., Gatrell A. C. (1995), Interactive spatial data analysis, Prentice Hall, Edimburgo. • Borruso G., Schoier G. (2004), Density Analysis on Large Geographical Databases. Search for an Index of Centrality of Services at Urban Scale, in Gavrilova, M. L., Gervasi, O., Kumar, V., Laganà Mun Y. A., Tan K. J. (eds.), Lecture Note in Computer Scienze Springer-Verlag, Berlin. • Camagni R. (1999), La pianificazione sostenibile delle aree periurbane, Il Mulino, Bologna. • Cavalcoli P. (1999), Il tema della sostenibilità nell’area periurbana, nel quadro della pianificazione di area vasta: quattro titoli di sperimentazione e ricerca, in Camagni R., La pianificazione sostenibile delle aree periurbane”, Il Mulino, Bologna, pp. 39-64. • Gatrell A. C., Bailey T. C., Diggle P. J., Rowlingson B. S. (1996), Spatial point pattern analysis and its application in geographical epidemiology, Transaction of Institute of British Geographer. • Las Casas G., Murgante B., Nolè G., Pontrandolfi P., Sansone A. (2005), L’uso della geostatistica per la delimitazione degli ambiti Periurbani della Provincia di Potenza, in Cecchini A., Plaisant A. (a cura di), “Analisi e modelli per la Pianificazione. Teoria e pratica: lo stato dell’arte”, Franco Angeli ed., Milano. • Murgante B. (2004), L’uso delle tecniche di analisi spaziale per la delimitazione delle aree periurbane del sistema insediativo della provincia di Potenza, Archivio di studi urbani e regionali A. XXXV, N°81, Franco Angeli ed., Milano. • Murgante B., Las Casas G., Danese M. (2007), The periurban city: geostatistical methods for its definition, in Rumor M., Coors V., Fendel E. M., Zlatanova S. (Eds), Urban and Regional Data Management, Taylor and Francis, London. • Murgante B., Las Casas G., Danese M. (2008), Where are the slums? New approaches to urban regeneration in Liu H., Salerno J., Young M. (Eds), Social Computing, Behavioral Modeling and Prediction Springer-Verlag, Berlin. • Nolè G., Falciano A., Murgante B. (2010), "Un modello di analisi spaziale per l´individuazione del territorio periurbano con gvSIG e SEXTANTE", 3e Giornate Triestine Utenti di gvSIG, 13-14 aprile 2010, Bagnoli della Rosandra - Boljunec, San Dorligo della Valle - Dolina (TS). O’Sullivan D., Unwin D. (2002), Geographic Information Analysis, John Wiley & Sons, New Jersey. • Tobler W. R., A (1970), Computer Model Simulating Urban Growth in the Detroit Region, Economic Geography, 46, pp.234-240.

Abstract

Autori

Use of gvSIG and SEXTANTE for the perimetration of periurban areas The periurban fringe is the portion of land with characteristics of urbanization that cannot be considered neither urban nor rural. These areas are often characterized by a building expectancy, whose detection requires careful consideration of several territorial and environmental variables. It was implemented using a model of spatial analysis based on kernel Density Estimation (KDE) for the detection of periurban areas. The model is tested in the province of Potenza using gvSIG and SEXTANTE on Ubuntu Linux.

GABRIELE NOLÈ GABRIELE.NOLE@UNIBAS.IT BENIAMINO MURGANTE BENIAMINO.MURGANTE@UNIBAS.IT

LABORATORIO DI INGEGNERIA DEI SISTEMI URBANI E TERRITORIALI, FACOLTÀ DI INGEGNERIA, UNIVERSITÀ DEGLI STUDI DELLA BASILICATA, POTENZA. ANTONIO FALCIANO AFALCIANO@YAHOO.IT

LIBERO PROFESSIONISTA, POTENZA.

GEOmedia n°3-2010


- GPS + GLONASS + GALILEO - Tracciamento di tutti i segnali - Radio modem e GSM / GPRS integrati - Completamente senza cavi

grafit-werbeagentur.de

- Resistente alla caduta da 2mt.

Aggancia . . . e parti

GR-3 Ricevitore Topcon con tecnologia G3 tripla costellazione di satelliti

www.geotop.it


REPORTS

Un Sistema Informativo Territoriale per la gestione della sicurezza pedonale di Carmelo D’Agostino, Natalia Distefano e Salvatore Leonardi

Figura 1 - Visualizzazione di attributi e riferimenti esterni di un tronco stradale.

Il Sistema Informativo Territoriale per la gestione della sicurezza dei percorsi pedonali è stato sviluppato nell’ambito dell’attività di ricerca condotta presso il Dipartimento di Ingegneria Civile e Ambientale dell’Università degli Studi di Catania. Il gruppo di ricerca, con questo progetto, intende porre le basi per la futura realizzazione di un sistema integrato SIT-ITS (Intelligent Transport System), mirato a garantire la gestione dinamica e la sicurezza dei flussi pedonali, attraverso l’utilizzo di dispositivi dislocati lungo il territorio.

P

rerogativa fondamentale del Sistema Informativo Territoriale che andiamo a presentare è la caratterizzazione della rete stradale, classicamente schematizzata in tronchi e nodi, mediante idonei indicatori. Il livello di sicurezza dei tronchi stradali è stato definito attraverso gli indici di sicurezza sviluppati dal Florida Department of Transportation; si tratta di indici che ampliano il concetto di ‘Livello di Servizio‘ - tradizionalmente indicativo delle prestazioni operative delle infrastrutture di trasporto - mettendo in conto tutti quei parametri direttamente ed indirettamente connessi al grado di sicurezza offerto ai pedoni. Per la determinazione del livello di sicurezza delle intersezioni stradali e degli attraversamenti pedonali si è fatto uso di una metodologia recentemente messa a punto da un gruppo di ricercatori dell’Università di Catania. Tramite tale procedura è possibile determinare un indice di rischio, quantificabile mediante il confronto tra la configurazione reale di ciascun incrocio ed il corrispondente schema virtuale delle caratteristiche che rendono l’intersezione rischiosa per i pedoni. Ai fini di un’agevole rappresentazione dei tematismi del SIT, gli indicatori di sicurezza ottenuti per i diversi elementi infrastrutturali (tronchi, attraversamenti ed intersezioni), sono stati omogeneizzati e ricondotti ad un unico indice di sicurezza pedonale variabile tra 1 e 4 (dove 1 indica il grado di sicurezza più elevato e 4 quello più scadente).

30

Struttura del SIT I dati necessari per la realizzazione del SIT sono stati rilevati direttamente in situ con apposite campagne di indagine. In particolare, per la caratterizzazione dei tronchi, dei nodi e degli attraversamenti pedonali, si possono distinguere tre tipologie di dati: i dati geometrici degli elementi relativi alla mobilità pedonale e all’ambiente stradale; i dati relativi alle dimensioni degli elementi di arredo urbano destinati alla mobilità pedonale e alla mobilità veicolare; i dati di traffico veicolare. Ad ogni tronco stradale sono stati assegnati tutti gli attributi necessari ad una complessiva caratterizzazione: la larghezza della corsia più esterna della strada (lato destro e lato sinistro), la larghezza della banchina o della corsia ciclabile (lato destro e lato sinistro), la percentuale di percorso che presenta stalli di sosta adiacenti al marciapiede (lato destro e lato sinistro), la presenza di eventuali barriere presenti sulla fascia di rispetto (lato destro e lato sinistro), la larghezza della fascia di rispetto (destro e sinistro), la larghezza del marciapiede (destro e sinistro), il volume di traffico nei 15 minuti di picco, il numero totale di corsie della strada, la velocità media del traffico veicolare, l’indice di sicurezza pedonale (lato destro e lato sinistro e per gli attraversamenti pedonali eventualmente presenti in ciascun tronco). Anche le informazioni attribuite ad ogni intersezione hanno l’obiettivo di consentire una loro descrizione globale. In particolare, sono stati introdotti i seguenti attributi: presenza di

GEOmedia n°3-2010


REPORTS attraversamenti pedonali rialzati, presenza di elementi di dissuasione per l’attraversamento dei pedoni, vicinanza degli attraversamenti al bordo dell’area d’intersezione, presenza di isole salvagente, disposizione degli attraversamenti pedonali in corrispondenza dei poli attrattori di traffico, assenza di fermate dei bus disposte lontano dagli attraversamenti pedonali, presenza di avanzamenti dei marciapiedi al fine di ridurre la lunghezza dell’attraversamento pedonale e di dissuasori di sosta (fittoni dissuasori, avanzamenti dei marciapiedi, ecc.), esistenza di impianto di illuminazione artificiale, presenza di marciapiedi di larghezza adeguata, idoneità della segnaletica e di altri Figura 2 - Mappa tematica dei livelli di sicurezza pedonale. trattamenti della superficie stradale (vernici, rivestimenti, ecc.), assenza di passi carrabili posti in cor- di linee e punti. Le linee hanno le stesse caratteristiche del grarispondenza degli attraversamenti pedonali, entità del flusso fo di partenza ovvero, in termini pratici, il database associato pedonale orario per ogni attraversamento pedonale posto in al segmento originario si conserva, associando ad ogni nuocorrispondenza dell’intersezione, indice di sicurezza pedonale vo tratto gli stessi record presenti nel database di partenza. (per ciascun ramo dell’intersezione). I punti generati dalla creazione della rete, si riferiscono, oltre Alla rete stradale sono stati associati - oltre ai dati relativi alla che alle intersezioni dei segmenti, anche ai punti estremi di geometria dei vari elementi che la costituiscono che sono con- ogni tratto. L’associazione del valore dell’indice di sicurezza tenuti nel database associato al grafo - dei riferimenti esterni, omogeneizzato a ciascuno dei suddetti elementi, avviene poi costituiti da fotografie delle aree ritenute particolarmente pe- relazionando i due database, quello delle intersezioni e quelricolose: queste possono essere richiamate utilizzando lo spe- lo generato nell’operazione di costruzione della rete, tramite cifico strumento per gli hyperlink dinamici (Figura 1). valori comuni legati alla posizione spaziale, che ovviamente sarà coincidente. Funzionalità del SIT L’ultimo passo per la creazione del modello dinamico risiede L’attribuzione ai vari elementi della rete degli indicatori della nella definizione delle regole di analisi del SIT. Il software persicurezza pedonale e la realizzazione delle mappe tematiche mette di effettuare analisi di tipo dinamico mediante la lettura permettono di effettuare analisi di tipo dinamico sul SIT. Me- nei database di alcune informazioni, in particolare quelle rediante un’applicazione aggiuntiva di ArcGIS è infatti possibile, lative al livello di sicurezza standardizzato associato ad ogni una volta definito un algoritmo, elaborare query spaziali defi- elemento della rete. L’algoritmo implementato minimizza la nite dall’utente. media della somma totale del livello di sicurezza standardizLa procedura per la realizzazione del modello dinamico ha ori- zato; questo su tutti i percorsi possibili tra due punti a caso gine con la realizzazione della mappa tematica, nella quale ad all’interno della rete stradale. ogni elemento della rete sono associate le informazioni con- La funzione da minimizzare è detta ’impedenza della rete’ ed cernenti la sicurezza (figura 2). è stata attivata all’interno del sistema mediante l’adattamento Segue poi la costruzione della rete dinamica, nella quale ogni della funzione di minimizzazione del costo di trasporto, inclusa elemento viene connesso agli elementi immediatamente suc- nel pacchetto delle funzioni standard dell’estensione Network cessivi o precedenti con regole topologiche. Analyst. L’ultimo punto consiste nella definizione delle regole logiche Una volta concluso l’iter appena descritto, è possibile interdi analisi della rete. rogare il sistema attraverso query spaziali, ottenendo così il La realizzazione della mappa tematica, oltre a rendere imme- percorso più sicuro. Il sistema infatti analizzerà tutti i possibili diatamente visibili e di facile comprensione i risultati ottenuti percorsi tra i due punti selezionati e restituirà quello più sicuro, dall’applicazione dei modelli, ha un’altra importante funzione, utilizzando come impedenza della rete la minimizzazione della cioè quella di caratterizzare interamente la rete stradale analizzata, associando ad ogni elemento tutta una serie di informazioni che un semplice software CAD non consentirebbe di riportare. In altri termini, l’indice di sicurezza pedonale associato ad ogni elemento della rete sarà funzione dei parametri caratteristici contenuti nel database relativo: variando quindi uno dei parametri, varia anche l’indice di sicurezza e la corrispondente rappresentazione sulla mappa. Il secondo passo per la costruzione del modello dinamico è quello della costruzione della rete. Il software utilizzato, grazie all’estensione Network Analyst ed al comando built network, sostituisce il grafo stradale con una serie logica Figura 3 - Selezione dei punti di origine e di destinazione del percorso pedonale.

visita il sito www.rivistageomedia.it

31


REPORTS funzione media dell’indice di sicurezza standardizzato. L’input dei dati del percorso - origine e destinazione - può avvenire in due maniere distinte: input a video o mediante geocodifica degli indirizzi. L’input a video si ottiene semplicemente mediante la selezione dei punti di origine e destinazione direttamente sulla mappa. Dopo aver individuato il punto di partenza e quello di arrivo si inseriscono, con lo stesso ordine, degli elementi grafici detti STOPS; il sistema riconoscerà tali elementi se avranno un certo offset dalla rete stradale. La tolleranza dell’offset si può modificare in qualunque istante e non dipende dal Figura 4 - Definizione del percorso più sicuro tra i punti di origine e di destinazione. grafo. L’input degli indirizzi geocodificati prevede che le informazioni relative al nome delle vie ed ai numeri civici su ogni tronco siano già presenti a monte, all‘interno del database. In particolare il sistema, una volta digitati gli indirizzi di origine e destinazione, verifica la corrispondenza di tali dati all’interno del database e restituisce, con una certa tolleranza (anche questa editabile a piacere), i risultati corrispondenti. Per il raggiungimento di tali esiti, il sistema ha bisogno di un file di collegamento, creato ad hoc e detto address locator, che ha il compito di collegare il database sorgente - da cui leggere l'indirizzo - alla maschera di ricerca. In termini pra- Figura 5 - Definizione del percorso più sicuro in caso di impedenze presenti nella rete. tici l’address locator definisce le regole di ricerca degli indirizzi, e stabilisce Abstract quali record del database sono utili per arrivare all’obiettivo prefissato. A GIS for pedestrian safety management Scelti gli indirizzi, il sistema risolve la query spaziale anaThe improvement of pedestrian safety can be pursued through lizzando i vari percorsi e visualizzando quello con le caan innovative management system that can drive them through ratteristiche scelte, secondo le impedenze della rete. the safest pedestrian footpaths. Thanks to the support of GIS, Quando si analizza un percorso, il software crea un nuovo one can now project future scenarios where pedestrians are warned in real time about the network elements offering the gruppo di tre layer, uno relativo ai punti di origine e destinabest safety performance. In this paper the characteristics of a zione (figura 3), uno relativo al percorso (figura 4) ed un terzo GIS created for the dynamic characterization of level of safety layer relativo ad eventuali tratti di strada non fruibili da pedoprovided by walkways will be explained. All the elements of ni, che possono essere definiti sia a monte dell’elaborazione, an urban road network have been linked with attributes used che ad elaborazione conclusa (figura 5). In quest’ultimo caso to define the level of safety. The query space allows to identify il software ricalcolerà il percorso escludendo il tratto vietato. the safest pedestrian route between origin and destination Ad ognuno dei layer appena descritti è associato un database choices. Selecting the best route, the GIS also impute any barche riporta le informazioni relative ad ogni elemento del perriers in the network. corso attraversato.

Riferimenti • Canale S., Distefano N., Leonardi S., Analisi comparativa del rischio di incidentalità pedonale in corrispondenza delle intersezioni stradali urbane, XVII Convegno Nazionale S.I.I.V. Università Kore di Enna. 10/12 settembre 2008. • Canale S., Distefano N., Leonardi S., Progettare la sicurezza stradale. Criteri e verifiche di sicurezza per la progettazione e l’adeguamento degli elementi delle infrastrutture viarie: intersezioni, tronchi, sovrastrutture, gallerie, opere idrauliche, barriere di sicurezza, illuminazione, segnaletica ed interventi di traffic calming, EPC Libri, maggio 2009. • Dixon L.B., Bicycle and Pedestrian Level-of-Service Performance Measures and Standards for Congestion Management Systems, Transportation Research Record 1538, 1996. • Elvik R., Vaa T., The handbook of road safety measures, Elsevier, 2006. • AIPCR (World Road Association), Road Safety Manual, published by Route Market, 2003. • FHWA (Federal Highway Administration), Implementing Pedestrian Improvements at the Local Level, Publication n. FHWA pp. 98-138, 1998.

32

Autori CARMELO D’AGOSTINO DAGOSTINO.CARMELO@YAHOO.IT

INGEGNERE, LIBERO PROFESSIONISTA NATALIA DISTEFANO NDISTEFA@DICA.UNICT.IT

SALVATORE LEONARDI SLEONA@DICA.UNICT.IT DIPARTIMENTO DI INGEGNERIA CIVILE E AMBIENTALE DELL’UNIVERSITÀ DEGLI STUDI DI CATANIA

GEOmedia n°3-2010


2aE

DIZ

ION

2 giorni di conferenze incontri b2b 3.000 mq di area espositiva

L’UNICA MANIFESTAZIONE EUROPEA DEDICATA ALLE INFRASTRUTTURE INTELLIGENTI E AI SERVIZI DI INFOMOBILITÀ E NAVIGAZIONE Aree tematiche AVL/AVM / Fleet Management

Innovators Forum

Emergency and Safety

Personal Navigation Devices

Galileo and GNSS

Smart Infrastructures

Green Mobility

On-board Telematics and Car Sensors

GIS 4 Mobility & Infrastructure

Smart ticketing and parking

Indoor Positioning & Asset Tracking

Web 2.0 & Geocontents

patrocini istituzionali

partner scientifico

D

partner

patrocini

movin com sharing the future

organizzatore

con il sostegno di

partner organizzativo

partner scientifico

networking partner

segreteria organizzativa

PARTECIPAZIONE GRATUITA RISERVATA AGLI OPERATORI DEL SETTORE Per maggiori informazioni: Wireless s.r.l. - Tel. +39 02 48100306 - info@itnexpo.com - www. itnexpo.com

E


REPORTS

Le tappe italiane del Trimble Express 2010 Il Trimble Express 2010 ha fatto tappa in sei città italiane. L’evento ha toccato Cervignano del Friuli (UD), Rivalta Scrivia (AL), Affi (VR) e Medicina (BO), Ragusa e Petrosino (TP), riscuotendo un grande successo di partecipanti. Il roadshow, organizzato in tutta Europa, anche quest’anno è stata un’occasione unica per scoprire e aggiornarsi su tutte le ultime novità di Trimble.

T

rimble Express è una manifestazione internazionale il cui obiettivo fondamentale consiste nel presentare, durante l’arco di una giornata, le soluzioni più adatte alle varie tipologie di problemi che deve affrontare l’utente finale. Organizzare più eventi e in diverse località, coprendo buona parte della nostra penisola, è una politica che Trimble ha intrapreso appositamente per mantenere un contatto diretto, continuo e stretto con i propri clienti, provenienti da vari mercati. Dal 13 aprile al 26 maggio 2010, tutta la strumentazione più innovativa e all’avanguardia di Trimble è stata dunque messa a disposizione di coloro che hanno approfittato dell’evento. I numerosi partecipanti hanno scoperto le novità e le potenzialità di una topografia ancora più efficace e produttiva, rispondente alle necessità di soluzioni avanzate per il rilievo che allo stesso tempo velocizzano le proprie attività. Gli utenti hanno avuto la possibilità di toccare con mano i dispositivi, di provare concretamente le potenzialità offerte dagli strumenti e hanno avuto l’opportunità di confrontarsi immediatamente con i tecnici Trimble. Inoltre, proprio a testimoniare l’importanza degli incontri, sono stati molti i professionisti che hanno indicato nel Timble Express la loro fonte di ispirazione per lo sviluppo di nuovi settori di attività: è così che spesso, nelle loro offerte di servizi, sono stati integrati progetti che non avrebbero mai immaginato di poter sviluppare. L’agenda di ogni tappa del road show ha visto la presentazione della nuova gamma di prodotti GNSS di Trimble, le nuove stazioni totali e non solo. Durante ogni singolo appuntamento, ci si è concentrati sulle necessità dell’utenza e chi vi ha partecipato ha potuto verificare direttamente le singole potenzialità degli strumenti.

34

Tra i prodotti presentati vengono annoverati il ricevitore GNSS Trimble R4, ideale per i topografi che necessitano di un dispositivo di posizionamento funzionante anche nelle condizioni più difficili, il software Trimble Digital Fieldbook, che fornisce la facilità d’uso di un ricevitore integrato e la solida affidabilità del celebre controller Trimble Recon. Poiché ogni singolo punto è importante, constatare la precisione di questi apparati è fondamentale per chi li usa quotidianamente nel proprio lavoro e per questo provare il GPS Trimble R8 è stata sicuramente un’opportunità da non lasciarsi scappare. Sono state presentate le nuove stazioni totali Trimble S3 e Trimble M3, soluzioni servoassistite e meccaniche che permettono di risparmiare tempo oltre ad avere il vantaggio di funzionare fino a 26 ore in modalità continua. Con la tecnologia della nuova stazione totale Trimble M3, gli utenti hanno la possibilità di sostituire rapidamente una batteria quando la carica sta per esaurirsi pur continuando a lavorare, senza dover spegnere il dispositivo. Inoltre, i comandi ergonomici con schermo e tastiera integrati ne semplificano l’uso. La rinomata ottica Nikon di Trimble M3 fornisce chiarezza, qualità e precisione comprovate, per mira e operatività migliori. Grande attenzione è stata anche prestata alla tecnologia Trimble S8 Vision, che offre la possibilità di osservare tutto ciò che vede lo strumento. Trimble S8 Vision offre la possibilità di effettuare il rilievo con le immagini video dal vivo sul controller in modo da essere liberi di acquisire le misurazioni sul prisma o in modalità Direct Reflex (DR), con tutta l’efficienza di un semplice puntamento. Durante le date del Trimble Express è stata anche presentata la nuova stazione totale ad alta precisione Trimble S8, dedicata alle applicazioni di monitoraggio.

GEOmedia n°3-2010


REPORTS

Gli eventi sono stati un’ottima occasione per lanciare la piattaforma field software Trimble Access, i servizi abbinati al software stesso e i moduli delle applicazioni speciali noleggiabili dall’utente o acquistabili in licenza perpetua. In tutte le sei città italiane è stata effettuata una presentazione interattiva di Trimble Assistant, soluzione offerta a completamento del pacchetto di servizi messo a disposizione per i topografi dai partner di Trimble, rappresentati in Italia da Assogeo e CGT; Trimble Assistant è un sistema di assistenza remota, grazie al quale un operatore di supporto, collegandosi direttamente al desktop del controller di un cliente, riesce a interagire con lui, riuscendo addirittura a prendere il controllo del palmare stesso; il tutto come in un’applicazione desktop-desktop, ma in questo caso da desktop-mobile. Durante il road show, Trimble ha puntato nel voler far assistere i partecipanti alla presentazione di qualcosa di nuovo ed assolutamente innovativo in un settore dove la connettività acquista sempre più spazio. A tal proposito, è stato possibile dimostrare come, attualmente, sia possibile inviare dati e informazioni senza far muovere le persone/operatori, attraverso il servizio Access Sync di Trimble Access e la Trimble Connected Comunity, all’interno della quale gli utenti possono condividere e sincronizzare i dati tra ufficio e campagna. Nelle dimostrazioni svolte durante il tour è stato più volte evidenziato che Trimble Access permette di gestire un gran numero di possibili difficoltà. Basta sincronizzare i file sul controller Trimble, in qualsiasi luogo ci si trovi, e caricare i file in ufficio allo stesso modo. Qualsiasi modifica ai file, sul campo o in ufficio, può essere aggiornata in maniera autoamatica e in tempo reale attraverso Access Sync. Ciò significa meno interruzioni, meno tempo sprecato per tornare in ufficio e minore necessità di risolvere i problemi per telefono. E’ possibile così evitare costosi tempi di inattività ed eseguire i rilievi in modo più funzionale, completando i lavori più velocemente. Così come la comunicazione dati in rete ha trasformato altri settori, il software Trimble Access fornisce alla topografia la prima soluzione completa per la raccolta di informazioni che mette in comunicazione il cantiere e l’ufficio. Essendo integrato nella soluzione field software Trimble Access, Trimble Access Sync mette fine all’impostazione manuale delle e-mail, al caricamento lento e problematico sugli FTP o alla dettatura per telefono, di per sé a rischio d’errori. Ognuna delle tante dimostrazioni svolte durante il Trimble Express, è stata l’occasione per assistere a demo e per provare gli strumenti ed i servizi abbinati alla piattaforma Trimble Access.

visita il sito www.rivistageomedia.it

Da sottolineare anche tappe con eventi particolari, come quello svoltosi in Sicilia, dove è stata presentata la rete VRS installata dal partner locale, CGT (www.vrssicilia.it); è stata illustrata l’infrastruttura della rete, costituita da un centro di controllo su cui è installato il software di gestione della rete stessa (RTKNet); la rete è costituita da diciannove stazioni permanenti ed offre i servizi di correzione per il posizionamento in RTK o in post-elaborazione. Durante la presentazione della rete VRS, CGT ha inoltre illustrato ai partecipanti i servizi offerti dal pacchetto VRSPlus, comprendenti tra gli altri il noleggio di strumentazione GNSS, l’accessoristica, il servizio di assistenza on-site e corsi di formazione per l’utenza. Altro evento con un fuori programma è stato quello di Medicina (BO), dove si è svolta un’attività extra che ha visto l’interessante presentazione e visita guidata al Radiotelescopio, osservatorio situato a circa 30km da Bologna e gestito dall’Istituto di Radioastronomia dell’INAF (Istituto Nazionale di Astrofisica); il sito ospita due strumenti: la grande Croce del Nord (di proprietà dell’Università di Bologna) e un’antenna parabolica da 32 metri di diametro. Sandra Leonardi

Abstract Trimble Express stopped over Italy Trimble Express stopped in Italy, in 6 cities. The european road show has been set up to promote the latest news regarding Trimble technologies such as Trimble Access, the software that offers to survey teams a new approach in surveying; Trimble Access expedites data collection, processing, analysis, and delivery through improved workflows, collaboration and control.

35


REPORTS

Il Geoportale della Lombardia Dati, mappe, servizi geografici del territorio lombardo di Donata Dal Puppo, Marco Panebianco Con questo numero di GEOmedia viene inaugurata una rassegna dedicata ai quattro geo-portali vincitori del Premio nazionale indetto da AM/FM nel 2009. Il Premio ha lo scopo di segnalare come best practices i portali geografici in cui si denota una maggiore ricchezza nella qualità dell’informazione geografica resa disponibile, nell’efficacia dell’interfaccia utente e nella comunicazione cartografica, nell’efficienza e congruenza delle soluzioni tecnologiche adottate. Il primo approfondimento è dedicato al Geoportale della Regione Lombardia. Nato nel 2008, il sistema rende fruibili, in modo organizzato, le informazioni geografiche ad un’ampia platea di utenti. I servizi e le funzionalità disponibili, sviluppati seguendo le regole definite dalla Direttiva INSPIRE, comprendono un catalogo delle informazioni, viewer geografici, servizi di download dei dati raster e vettoriali, un servizio per la trasformazione delle coordinate. Nel 2009 è stata migliorata l’affidabilità e la performance dell’architettura tecnologica di base; le modalità di presentazione sono state rese inoltre più facili e accessibili.

L

a conoscenza del territorio rappresenta uno degli obiettivi più complessi e stimolanti in cui Regione Lombardia ha l’opportunità di applicare il proprio ruolo di governance. Numerose sono a questo proposito le iniziative in corso, da parte degli Enti locali lombardi, per la realizzazione di Sistemi Informativi Territoriali a livello comunale e sovracomunale finalizzati ad una conoscenza approfondita della realtà sul territorio, che favorisca sia lo svolgimento delle procedure amministrative che i processi decisionali e di monitoraggio delle politiche; a loro volta i cittadini, nel loro vivere quotidiano, sono sempre più orientati ad un utilizzo digitale delle informazioni geografiche, spinti dal grande progresso nei settori della localizzazione satellitare e delle mappe digitali disponibili su internet. Per gestire questo processo – sulla base della Direttiva Comunitaria INSPIRE per lo sviluppo di una Spatial Data Infrastructure (SDI) europea – Regione Lombardia ha avviato, con il supporto di Lombardia Informatica, la realizzazione di una Infrastruttura per l’Informazione Territoriale (IIT). Dal punto di vista normativo, un’ulteriore spinta ad un approccio condiviso nella gestione, conoscenza e utilizzo dell’informazione territoriale, viene fornita dalla Legge Regionale di Governo del Territorio (L.R. 12/2005), che pone forte rilievo sul ruolo del Sistema Informativo Territoriale Integrato (SITI) nei processi di pianificazione, sottolineando la necessità di una forte sinergia tra le Pubbliche Amministrazioni lombarde.

36

Figura 1 - Il Geoportale della Lombardia.

Il Geoportale della Lombardia: le caratteristiche Il Geoportale della Lombardia è un sito web mediante il quale chiunque può ricercare e accedere a informazioni, servizi e applicazioni geografiche, messe a disposizione dai soggetti partecipanti alla IIT della Lombardia. L’elemento chiave del Geoportale è costituito dal Catalogo dell’Informazione Territoriale, un servizio tramite il quale

GEOmedia n°3-2010


REPORTS

Figura 2 – La funzione di ricerca nel Catalogo dell’Informazione Territoriale.

gli utenti possono facilmente eseguire ricerche di mappe, banche dati, documenti, applicazioni e servizi geografici relativi al territorio lombardo. E’ interessante notare che le informazioni descrittive dei dati e dei servizi geografici esistenti in Lombardia sono inserite anche dagli stessi soggetti produttori delle risorse geografiche (comuni, province, comunità montane, aggregazioni di enti locali, ecc.), sottoscrittori degli accordi di partecipazione alla IIT. Questa disponibilità ampia e distribuita sul territorio consente di accrescere la conoscenza di informazioni e di servizi che prima erano difficili da recuperare, se non con ricerche specifiche, spesso realizzate ‘porta a porta’ mediante richieste alle singole Amministrazioni. Per consentire una redazione semplice dei contenuti del Catalogo da parte di quanti più soggetti possibili (anche non esperti in materia geografica), è stata realizzata una serie di strumenti per l’inserimento via web di alcune informazioni descrittive delle risorse geografiche (i metadati). I metadati gestiti nel Catalogo dell’Informazione Territoriale della Lombardia sono compatibili con il profilo nazionale, adeguato a sua volta, a livello europeo, ad INSPIRE. In tal senso, sono stati sperimentati con successo i meccanismi di scambio con il Repertorio Nazionale dei Dati Territoriali implementato dal DigitPA, così da rendere ricercabili le informazioni relative alla Lombardia sia nel catalogo nazionale che, in prospettiva, in quello europeo di INSPIRE. Nel Catalogo sono contenute particolari sezioni in cui le informazioni territoriali vengono suddivise per ambiti tematici o comunità di utenti (acque, aree naturali e/o protette, attività economiche, trasporti, welfare) oppure catalogate a seconda del tipo di soggetto produttore (per province, comuni, comunità montane, ecc.). Già ora, infatti, è possibile la ricerca nel Catalogo del Geoportale di informazioni sulle risorse geografiche messe a disposizione dalle Province lombarde. Un ulteriore valore del Geoportale è dato dalla disponibilità di una serie di servizi trasversali, utilizzabili da diversi soggetti e sistemi per:

specialistico dell’utente. In tal modo è possibile l’accesso, tramite un browser, alle principali banche dati geografiche di interesse regionale, quali la Carta Tecnica Regionale (CTR) raster e vettoriale (CT10), le ortofotografie aeree, le carte fisiche e politiche della Lombardia. Una delle modalità – più orientata agli utenti non specialisti – è direttamente fruibile nella home page del Geoportale e consente la navigazione delle mappe e l’individuazione di località ed indirizzi in modalità semplice e veloce. Una seconda modalità è fornita dal viewer, un visualizzatore innovativo disponibile da aprile 2010 (vedi figura 2), caratterizzato da un’elevata interattività e semplicità d’uso e votato ad un pubblico più specializzato, che fornisce l’accesso sia alle mappe di riferimento pubblicate da Regione Lombardia, che a tutti i servizi di mappe digitali resi disponibili dai soggetti partecipanti alla IIT e pubblicati nel Catalogo dell’Informazione Territoriale. Inoltre, per esigenze di interoperabilità, le mappe di riferimento sono pubblicate in formato compatibile con gli standard internazionali relativi alla cartografia digitale (OGC WMS), in modo da poter essere visualizzate anche in sistemi realizzati da altri soggetti. Un ulteriore servizio di grande interesse ed utilità è quello che consente il download dei dati vettoriali messi a disposizione da Regione Lombardia. Il download ha una caratteristica che lo distingue da altri servizi analoghi disponibili in internet: la possibilità di scegliere uno o più livelli informativi geografici relativi ad un’area di interesse nel formato geografico desiderato, ottenendo l’estrazione dei dati ‘a caldo’ dalle corrispondenti banche dati geografiche; quando il processo di estrazione dei dati è terminato, viene notificata all’utente la disponibilità dei dati tramite una e-mail contenente il link ad un unico file ‘zippato’ che a sua volta contiene i dati richiesti. Di grande e rilevante utilità è pure il servizio di geocodifica, che consente la normalizzazione e localizzazione geografica

• la pubblicazione e visualizzazione di mappe; • il download di livelli informativi di interesse regionale; • l’elaborazione di dati geografici (ad esempio conversione di sistema di riferimento); • la localizzazione e geocodifica. In particolare, è disponibile un servizio di visualizzazione relativo ad alcune mappe di riferimento, fruibile in differenti modalità a seconda delle necessità e del livello più o meno

visita il sito www.rivistageomedia.it

Figura 3 e 4 - Il nuovo viewer del Geoportale.

37


REPORTS degli indirizzi; esso costituisce un elemento fondamentale nella IIT al fine di ‘abilitare geograficamente’ le informazioni gestite da sistemi non-geografici. Di fatto, il servizio è già integrato in numerose applicazioni esistenti nella IIT (viewer del Geoportale, viewer WMS, applicazioni di ricerca per prossimità), dove viene utilizzato per migliorare la qualità dei dati e per localizzare sul territorio un’informazione associata ad un indirizzo. Con la progressiva diffusione della tecnologia GPS di localizzazione satellitare, è aumentata la domanda di servizi geografici per la trasformazione di coordinate, anche in vista dell’adozione del sistema WGS 84 ETRF 2000 come riferimento del SIT integrato regionale. Per venire incontro a queste esigenze (ad esempio supportare il tecnico comunale che debba sovrapporre dei dati rilevati in sito ad alcuni livelli informativi della CTR, ora ancora in Gauss Boaga), la Regione mette a disposizione nel GeoPortale un servizio web per la trasformazione di punti e di file geografici in formato ESRI Shapefile, consentendo le conversioni nei sistemi di riferimento più diffusi, vale a dire quelli geografico, Gauss-Boaga e UTM32 WGS84.

formatica secondo il paradigma delle architetture orientate ai servizi (Service-Oriented Architecture - SOA), utilizza un’infrastruttura tecnologica ad alta disponibilità costituita da componenti hardware e software di mercato (Java J2EE, Microsoft .NET, Oracle, ESRI ArcSDE, ArcIMS e ArcGIS Server), aderenti ai principali standard nei settori dell’Information Technology e dei GIS. L’impatto del servizio nei confronti dell’utenza Dal monitoraggio del sito, emerge che il numero di visite annuali al Geoportale è pari a circa 145.000, mentre invece il servizio di download ne conta 36.000. Per migliorare i servizi è stata attivata una casella mail che permette agli utenti di entrare in contatto con l’amministrazione: questa può essere utilizzata per richieste di assistenza, segnalazioni ed osservazioni in merito ai servizi offerti. Le segnalazioni degli utenti forniscono un importante indicatore sulla qualità del servizio reso, nonché sulle esigenze dell’utenza. In conclusione, il Geoportale si pone come una vera e propria vetrina dell’Infrastruttura per l’Informazione Territoriale lombarda. L’obiettivo è che possa realmente contribuire, con il supporto delle opportune politiche a livello regionale, con la cooperazione degli enti locali lombardi e la crescente diffusione di standard e di tecnologie GIS innovative, al processo di condivisione dei dati con conoscitivi del territorio sempre migliori ed aggiornati.

Riferimenti www.cartografia.regione.lombardia.it www.territorio.regione.lombardia.it

Figura 5 - Esempio di servizio ai cittadini.

Abstract Un servizio non solo per specialisti Il GeoPortale vuole essere un punto di riferimento geografico non solo per gli utenti specialisti ma anche per le imprese e per i semplici cittadini; per questo motivo è stata rivolta particolare attenzione all’integrazione delle informazioni territoriali esistenti con le principali applicazioni geografiche del mondo consumer (Microsoft Virtual Earth, Google Maps e Google Earth). Sono state dunque sviluppate applicazioni (vedi figura 5) che consentono la ricerca di servizi o punti di interesse regionali (punti per il pagamento/assistenza della tassa auto, strutture sanitarie, centri di formazione professionale, Beni Culturali) in prossimità di una località o di un indirizzo fornito dall’utente e la loro rappresentazione su una mappa digitale di Microsoft Virtual Earth. Dal punto di vista tecnologico, occorre sottolineare l’importanza fondamentale dell’adozione di standard e regole comuni, utili sia a consentire una reale interoperabilità tra i diversi sistemi presenti nella IIT, che a garantire la conservazione degli investimenti effettuati in dati, macchine e risorse umane. Regione Lombardia si è dotata di una vera e propria piattaforma geografica applicativa, denominata REGIS (Regional Enterprise platform for Geographic Information Services), che ad oggi ospita oltre 80 applicazioni geografiche, circa 600 livelli informativi geografici e oltre 150 servizi di mappa di varia tipologia. Tale piattaforma, progettata e realizzata da Lombardia In-

38

Lombardy Geoportal Region Lombardy is setting up the regional SDI in the INSPIRE perspective, involving both local Public Administrations and the private sector in the process of disseminating and sharing the geographic data and services available in Lombardy. The access point of the regional SDI is the Lombardy Geoportal, a Web place where users can publish or search for geographic data, applications and services, view maps, download data and share their geographic knowledge. The Lombardy Geoportal has been implemented by customizing the ESRI GIS Portal Toolkit, in order to be compliant with the Italian and the INSPIRE needs; The Geoportal is built on top of REGIS, the Regional Enterprise platform for Geographic Information Services, which consists of an technological infrastructure (based on ESRI Enterprise components) and basic services to build up geographic solutions.

Autori DONATA DAL PUPPO DONATA_DAL_PUPPO@REGIONE.LOMBARDIA.IT

REGIONE LOMBARDIA MARCO PANEBIANCO MARCO.PANEBIANCO@LISPA.IT

LOMBARDIA INFORMATICA

GEOmedia n°3-2010


Nell’anno della Grande Crisi siamo sbarcati in America. Immaginate cosa faremo con la ripresa. Per molti il 2009 è stato il punto più basso della crisi.

geospatial, creare interfacce sempre più intuitive e integrare in

Noi, invece, lo ricorderemo come l’anno in cui abbiamo rag-

maniera trasparente i dati geo-spaziali nella filiera produttiva,

giunto un traguardo significativo: abbiamo superato l’Atlantico e

migliorando in modo significativo la performance del sistema IT.

acquisito un incarico nel Nuovo Continente (per la precisione, la

Abbiamo percorso prima di altri la strada del software open

realizzazione di un sistema informativo geografico per il gover-

source, per proporre la massima qualità a costi competitivi.

no di St. Vincent e delle isole Grenadines, nei Caraibi).

Abbiamo messo a punto procedure di lavoro che consentono di

Non è il primo cliente estero per cui lavoriamo, e non sarà l’ulti-

raggiungere l’eccellenza di prodotto nel rispetto dei tempi e dei

mo: aiutati dall’esperienza maturata lavorando per alcune tra le

costi, con un livello qualitativo sempre certificato.

maggiori aziende italiane, da diversi anni ci siamo messi in gioco

Se volete maggiori informazioni sulle nostre competenze, i

andando a competere con successo in Russia, Kosovo, Romania,

nostri servizi e ciò che abbiamo realizzato in Italia e all’estero,

Siria, Turchia. E oggi affrontiamo nuove sfide in un contesto sempre

visitate il nostro sito o contattateci direttamente.

più globale che comprende realtà come la Cina, lo Yemen, il Brasile.

Capirete perché siamo la più importante azienda privata italiana

Come abbiamo fatto?

nel settore geospatial.

Abbiamo scelto di sviluppare progetti specifici, calibrati sulle

Ma, soprattutto, scoprirete come, crisi o non crisi, possiamo ren-

esigenze di ognuno dei nostri committenti. Abbiamo formato

dere il vostro business ancora più produttivo.

uno staff altamente specializzato, composto da professionisti laureati in tutte le discipline legate alla gestione del territorio. Abbiamo continuato a investire in R&D, studiando soluzioni innovative per semplificare drasticamente l’uso delle applicazioni GESP Srl

MILANO - BOLOGNA

http://w w w.gesp.it - gespsrl@gesp.it


REPORTS

CNR e Protezione Civile verso un know-how condiviso Il Consiglio Nazionale delle Ricerche, insieme al Dipartimento della Protezione Civile, ha un ruolo fondamentale nelle fasi di prevenzione, gestione e intervento durante disastri ed emergenze. Questo connubio non gode però del giusto risalto, anche a causa dei diversi punti di vista che caratterizzano i due enti: uno improntato sugli aspetti teorici e l’altro su aspetti più pratici. La giornata di studio svoltasi presso la sede del CNR rappresenta in questo senso il primo passo verso un nuovo tipo di collaborazione.

L

o scorso 27 maggio si è svolta, presso l’Aula Marconi della sede del CNR a Roma, la giornata di studio intitolata La ricerca del CNR per il sistema nazionale di Protezione Civile. La giornata ha visto presenziare alcune importanti figure, portavoce rispettivamente dei due enti e del dipartimento che ha ospitato l’evento: Luciano Maiani, presidente del Consiglio Nazionale delle Ricerche, Bernardo de Bernardinis, vice-capo del Dipartimento della Protezione Civile, e Giuseppe Cavarretta, direttore del Dipartimento Terra e Ambiente del CNR. Un evento del genere non poteva far altro che partire da casi particolari; per questo, l’intera prima parte della giornata, è stata dedicata alle attività di supporto scientifico messe in opera dal CNR, o in collaborazione con esso, durante gli eventi catastrofici dell’Abruzzo e durante le emergenze causate dalle ceneri del vulcano islandese Eyjafjallajökull (il cui vero nome è in realtà Eyjafjalla, mentre quello comunemente utilizzato è il nome del ghiacciaio che lo ricopre) e dagli eventi alluvionali in Sicilia. Durante questa prima parte sono stati dunque presentati i vari interventi scientifici che hanno contribuito a fornire alla Protezione Civile informazioni adeguate, utili per la gestione delle criticità: dalla misura delle deformazioni co- e post-sismiche, agli aspetti geologici e geofisici della microzonazione sismica; dai fenomeni di dissesto idrogeologico, alla stima dei danni al patrimonio costruito, fino alla gestione tramite piattaforme open cource condivise delle informazioni territoriali. I grandi risultati ottenuti a livello scientifico si pongono come soluzioni allo stato dell’arte anche in campo internazionale; esse fanno da complemento all’attività sul campo svolta dalla Protezione Civile ed è proprio questa fase collaborativa – o, quantomeno, la scarsa conoscenza che si ha di essa – che ha spinto i due enti a sedersi allo stesso tavolo. Il modello sviluppato in Italia è qualcosa di cui andare fieri e che molti paesi attualmente ci invidiano. Resiste, però, una sorta di reticenza nel pubblicizzare i grandi risultati ottenuti dall’unione degli sforzi dei due enti. Il CNR, da una parte, non riconosce forse al DPC un adeguato spessore scientifico, mentre la Protezione Civile, dal canto suo, chiusa in una gabbia normativa a cui bisogna per forza di cose far riferimento, ha bisogno che il CNR stesso assecondi queste limitazioni, fornendo dati utili ed in maniera ‘speditiva’. Le capacità operative del CNR e del DPC non si discutono, comunque: De Bernardinis le definisce “uniche al mondo”, eppure esse si scontrano con due visioni differenti della gestione delle emergenze: se per il CNR prevale una visione accademica e altamente scientifica – che ha dunque ha che fare con modelli ‘differiti’ – per il DPC vi è invece la necessità di avere risposte a domande precise ed in maniera rapidissi-

40

ma, per poter scendere preparati sul campo. Qui, il ruolo del singolo ricercatore è importantissimo: deve superare il suo carattere individualista, responsabilizzandosi come persona che può fornire contributi strumentali utili e fondamentali in situazioni di emergenza. Il ruolo di entrambi gli enti è comunque fondamentale: una migliore cooperazione non può nascere se non c’è una comunicazione più efficace, sia intra-ente, tra i vari dipartimenti. La giornata di studio del 27 maggio è, in questo senso, un ottimo punto di partenza verso una nuova fase di collaborazione tra CNR e DPC. I presupposti scientifici e operativi – il know-how – sono di altissimo livello e tutti ne sono consapevoli. L’obiettivo è trovare un punto d’incontro tra le esigenze dei due enti, sempre con un occhio di riguardo allo scopo di ogni attività, che è – questo è ovvio – la salvaguardia della comunità, di noi cittadini. Fulvio Bernardini

Abstract CNR and Civil Protection towards a shared know-how The Italian National Council of Researchers (CNR) and the Civil Protection Department have a central role in preventing and managing natural disasters and emergencies. However, this union is not considered at a national level: this happens because of the different point of views that characterize these two figures. CNR is more focused on a scientifical approach while CPD is more interested on the practical issues of calamities. The workshop which this report refers to has been aimed to solve this 'opposition'.

GEOmedia n°3-2010


D] fgklj] kgdmragfa \a Dg[Ylagf Afl]dda_]f[] h]j \an]flYj] Yf[gjY ha” [geh]lalana kmd e]j[Ylg Pi�pid^\ o`^ijgjbd\ k`m 5

<g^pid ijnomd kmj_jood 5

Â&#x; <i\gdnd \i_\h`ioj _`g h`m^\oj

Â&#x; H\kDiaj Kmja`nndji\g ¢

Â&#x; N`bh`io\udji` ^gd`iod

Â&#x; Nk`^omph ¢

Â&#x; Ndo` Gj^\odji

Â&#x; H\kDiaj B`jh\mf`odib

Â&#x; Dio`mjk`m\]dgdo‚

M`kjmo ¢

Â&#x; ?\o\ Lp\gdot

Â&#x; Nom``oKmj ¢

Â&#x; Di_dqd_p\udji` ipjq` \m`` _d h`m^\oj

Half]q :go]k :mkaf]kk Afka_`l

Qd\ Gp^\ B\pmd^j 4

O`g)5 &.4 +10/3.---/

++,/. Mjh\

k]]d)do\gt;k])^jh

ooo&hZafka_`l&al


REPORTS

Evoluzione dei sistemi GNSS di Gianluca Pititto, Fabrizio Bernardini La diffusione del posizionamento satellitare GPS è ormai capillare, avendo raggiunto non solo il remunerativo consumer-level (vedi i navigatori stradali portatili ed i cellulari), ma anche settori più critici come quello dell’aviazione civile. Tuttavia oggi non si parla più di GPS in generale, ma di Global Navigation Satellite Systems (GNSS); oltre al sistema di posizionamento americano vengono così incluse anche le nuove costellazioni quali Galileo, GLONASS e Compass. In aggiunta esistono sistemi, detti Augmentation Systems, che migliorano la qualità di servizio del GPS e la sua precisione, i sistemi GBAS e SBAS. Tutto ciò sarà argomento di una serie di articoli con i quali GEOmedia intende fare il punto della situazione per quanto riguarda il posizionamento satellitare e discutere alcune implicazioni per i vari settori di applicazione.

EGNOS, uno degli Augmentation System che migliorano la qualità del segnale GPS.

L’

idea di impiegare satelliti artificiali come infrastrut- chiarato operativo nel 1995. L’insieme di satelliti GPS prentura per il posizionamento risale addirittura ai tem- de il nome di ‘costellazione’ ed i suoi originari 24 veicoli pi dello storico lancio del satellite russo Sputnik-1, oggi sono diventati 29 ed una nuova generazione di satelliti avvenuto il 4 ottobre del 1957. In quel periodo il è in fase di definizione. Dipartimento della Difesa degli Stati Uniti si rese conto che Nel corso degli Anni ‘70 anche gli apparati dell’allora Unione sfruttando la misura dell’effetto Doppler sui segnali emessi Sovietica compresero l’importanza strategica del possesso da un satellite artificiale (di orbita nota), era possibile stima- di una infrastruttura satellitare proprietaria per il posizionare delle linee di posizione del ricevente a Terra. Tracciate mento globale. Dopo un primo lancio avvenuto nel 1982, almeno tre linee di posizione, in passaggi diversi, era possi- la GLONASS (Global’naya NAvigatsionnaya Sputnikovaya bile dunque ricavare la posizione di chi effettuava la misura. Sistema) venne dichiarata operativa nel 1995, per poi subiOvviamente il processo funzionava anche al contrario e con re il declino tecnologico e finanziario legato al particolare misure analoghe fu possibile tracciare con precisione l’or- momento storico della società russa. Dopo una fase di stagnazione, nel 2002 la Federazione Russa ha avviato un probita dello Sputnik. L’anno dopo venne dunque avviato negli Stati Uniti il primo gramma di rilancio di GLONASS e la progettazione di una programma di sviluppo di un sistema satellitare di localizza- nuova generazione di satelliti, che dovrebbero raggiungere zione, battezzato TRANSIT, che raggiunse l’operatività nel la piena operatività nel 2015. 1964. Si trattava di una costellazione di soli sei satelliti che, per limitazioni intrinseche sia nell’architettura che nella tecnologia dell’epoca, non consentiva una copertura globale della superficie terrestre, né una disponibilità H24. L’accuratezza inoltre variava tra i 200 ed i 500m. In seguito, mentre a terra le necessità globali della navigazione stimolavano lo sviluppo dei sistemi Loran-C ed Omega, gli Stati Uniti intrapresero una nuova linea di ricerca alimentata anche dagli sviluppi tecnologici del programma Apollo (per esempio per quanto riguarda le comunicazioni). Il progetto Timation venne avviato nel 1964 per dimostrare la misura di distanza da un satellite che recava a bordo un riferimento temporale di alta precisione. Il successo di questi esperimenti diede corpo ad un progetto ben più complesso, il NAVSTAR-GPS (NAVigation System with Time and Ranging, Global Positining System), il cui primo satellite venne lanciato nel 1978, mentre l’intero sistema venne di- Un satellite GPS in orbita (rappresentazione artistica).

42

GEOmedia n°3-2010


L’Europa dal canto suo non è stata a guardare e per garantirsi una propria indipendenza in questo ambito ha progettato ed in buona parte sviluppato, a partire dalla metà degli anni ’90, una propria infrastruttura satellitare per il posizionamento denominata Galileo. Le prestazioni del sistema saranno superiori a quelle del servizio GPS ‘open’, ma sarà interoperabile sia con quest’ultimo che con GLONASS. Si prevede la piena operatività di Galileo a partire dal 2014. Infine, anche la Cina ha deciso di realizzare una propria costellazione satellitare per il posizionamento. Con il sistema Beidou (nome cinese della costellazione dell’Orsa Maggiore) il gigante asiatico ha avviato l’implementazione di una soluzione regionale, il cui lancio del primo satellite è avvenuto nel 2000. Questa infrastruttura regionale verrà gradatamente estesa per formare un sistema globale denominato Compass, ma le notizie sul suo sviluppo sono scarse nonostante il fallito tentativo di creare una cooperazione con Galileo. NAVSTAR-GPS Il GPS eroga due diversi servizi: uno più accurato e riservato alle esigenze militari, il secondo ‘open’ per applicazioni civili. Il sistema è sotto l’esclusivo controllo del Dipartimento della Difesa americano che fino al 2000 offriva un segnale per usi civili degradato con un meccanismo noto come Selective Availability (SA). Oggi il GPS offre le massime prestazioni, ma esiste sempre la possibilità che i segnali civili vengano degradati (con la SA o con altri sistemi) secondo le necessità belliche o di sicurezza degli Stati Uniti. E’ questo aspetto il cavallo di battaglia dei proponenti di sistemi alternativi, indipendenti dalla sovranità di un solo paese. Il GPS opera su due bande di frequenza note come L1 ed L2. I satelliti usano tutti le stesse frequenze centrali e sono distinti mediante i codici digitali usati per modulare i rispettivi segnali. Inoltre, a seconda del codice utilizzato, è possibile accedere a servizi di posizionamento più preciso (entro il metro, per usi militari) oppure entro i 10/15 metri per usi civili. L’utilizzo contemporaneo di entrambe le bande permette soprattutto di annullare gli effetti cui sono soggetti i segnali radio quando attraversano la ionosfera ed aumentare così la precisione del posizionamento. Per migliorare le prestazioni civili del sistema il GPS verrà progressivamente migliorato (con l’avvicendarsi di nuovi satelliti che andranno a rimpiazzare quelli in via di obsolescenza) con due nuovi segnali, detto L1C ed L2C trasmessi rispettivamente sulla bande L1 ed L2 già in uso. Un quinto segnale, in una nuova banda L5, verrà usato per aumentare prestazioni ed integrità per applicazioni, come quelle aeronautiche, in cui è richiesto un alto grado di affidabilità. Il GPS fornisce coordinate definite sul riferimento geodetico noto come WGS84 e ormai di universale impiego. GLONASS Il GLONASS opera anch’esso con 24 satelliti in orbita cosiddetta ‘media’ (o MEO, intorno ai 20.000 Km di quota). I veicoli originari operavano su 15 diversi canali radio con un sistema di comunicazione meno sofisticato di quello del GPS, ma l’intera costellazione sta ora migrando per un sistema a condivisione di frequenza, come il GPS. Le bande utilizzate per scopi civili stanno anch’esse migrando verso la compatibilità con quelle del GPS per semplificare la realizzazione di ricevitori multi-standard. A partire dall’aprile di quest’anno, il sistema GLONASS ha 21 satelliti funzionanti e la costellazione è in un buon stato operativo ed in accordo ai piani originali di ripristino della Federazione Russa. Il GLONASS usa un sistema di riferimento geodetico noto come PZ-90. Recentemente il sistema è stato aggiornato per differire dal WGS-84 di meno di 40 centimetri in ogni direzione. COMPASS La decisione di passare dal sistema regionale Beidou al sistema globale Compass ha sorpreso molti, ma è in linea con l’imperscrutabilità del programma spaziale cinese. Anche la sua compatibilità con i sistemi esistenti è da vedersi, ma sicuramente verranno generati segnali in bande comuni sia al GPS che a Galileo. Sembra addirittura che Compass possa vantare diritti di priorità sulle bande già allocate a Galileo essendo il primo ad utilizzarle effettivamente.


REPORTS Il satellite Giove-A, ideato per validare l’orbita del futuro sistema di posizionamento Galileo, fotografato in laboratorio prima del lancio, avvenuto il 28 dicembre 2005.

Il sistema COMPASS prevede di raggiungere uno stato di operatività regionale nel 2012, con 5 satelliti in orbita geostazionaria, 5 in orbita geostazionaria inclinata e 4 in orbita MEO. Per il 2020 è prevista l’operatività globale, con 27 satelliti in orbita MEO. Il sistema opererà in 5 bande di cui 2 aperte ad usi civili. Il sistema di riferimento utilizzato è il CGS2000 che è stato dichiarato coincidere con un errore di pochi centimetri con ITRF. Galileo Il sistema Galileo è forse l’unico ad avere una genesi ed una gestione delle operazioni, completamente civili e prevede un inizio operatività per il 2014. Il sistema opererà con 30 satelliti in orbita MEO per offrire servizi civili di precisione superiore a quelli di GPS e GLONASS indipendenti da qualsiasi interferenza militare. Solo due satelliti di prova sono attualmente in orbita, GIOVE-A e GIOVE-B, ed il lancio dei primi 14 satelliti operativi è previsto a partire dal dicembre 2012. Il contratto per la realizzazione di questi 14 satelliti è stato dato alla Surrey Satellites Technology Ltd. Galileo opera sulla banda L1, compatibile con quella del GPS e sulle bande E5 ed E6, fornendo anche segnali di integrità per applicazioni Safety of Life. Il sistema di riferimento usato da Galileo sarà ITRF.

Nel prossimo numero La discussione sui sistemi GNSS continuerà con una descrizione del ruolo e dello stato dei sistemi che migliorano la precisione e l’integrità del segnale GPS.

Riferimenti Esistono moltissimi riferimenti utili per ampliare le proprie conoscenze sui diversi sistemi di navigazione. Un buon punto di partenza è, come al solito, Wikipedia: HTTP://EN.WIKIPEDIA.ORG/WIKI/GLOBAL_NAVIGATION_SATELLITE_SYSTEM HTTP://EN.WIKIPEDIA.ORG/WIKI/GLOBAL_POSITIONING_SYSTEM HTTP://EN.WIKIPEDIA.ORG/WIKI/GLONASS HTTP://EN.WIKIPEDIA.ORG/WIKI/COMPASS_NAVIGATION_SYSTEM

Abstract Evolution of GNSS systems With this article GEOmedia is starting a review on the latest updates concerning GNSS technology. Since the first GPS satellites, the evolution of GNSS sector witnessed the grow of other constellations: GLONASS, Beidou (Compass) and Galileo. The development of positioning techniques even brought to the creation of specific Augmentation Systems, capable of the enhancement of the localization signals (GBAS and SBAS). The aim of this review is to provide a general-to-particular knowledge of all the positiong and augmentation systems, from a historical point of view to real applications.

Autori GIANLUCA PITITTO GPITITTO@RIVISTAGEOMEDIA.IT FABRIZIO BERNARDINI FB@AEC2000.IT Sistema Galileo.

44

GEOmedia n°3-2010



UNIVERSITA' E RICERCA

Controllo e mitigazione dei rischi naturali attraverso la sinergia fra università e realtà imprenditoriale di Paolo Mazzanti La mitigazione dei rischi naturali e dei rischi connessi alle grandi opere costituisce il principale obiettivo di NHAZCA, spin-off della ‘Sapienza’ Università di Roma. Attraverso la costante sinergia tra il mondo imprenditoriale e quello della ricerca NHAZCA intende porsi come azienda di riferimento nel settore, affiancando a tecniche innovative di analisi e monitoraggio una forte sensibilità geologica.

I

l forte impatto che i rischi naturali e geologici hanno sulla comunità è ormai sempre più evidente, anche a causa delle numerose calamità che si sono verificate di recente (eruzioni vulcaniche, frane, terremoti, ecc.). Risultano meno noti invece i notevoli progressi ottenuti dal mondo della ricerca in questi ambiti. Esistono, infatti, strumenti molto potenti di previsione e controllo in grado di fornire un supporto alla mitigazione dei rischi. Tale consapevolezza ha portato alcuni ricercatori della ‘Sapienza’ Università di Roma – da anni impegnati nello studio dei rischi geologici (terremoti, vulcani, frane, valanghe di neve, tsunami) – a promuovere NHAZCA (Natural HAZards Control and Assessment), un’azienda dai contenuti fortemente innovativi la cui mission è quella di fornire soluzioni all’avanguardia per il controllo e l’analisi dei rischi naturali e dei rischi connessi alle grandi opere. L’idea imprenditoriale L’idea di NHAZCA è nata partendo dalla consapevolezza che solo una realtà dagli elevati contenuti scientifici e tecnologici e dotata, al tempo stesso, del pragmatismo di una società di servizio, potesse riuscire a colmare il gap tra le ricerche e la loro applicazione pratica. La volontà di due professori universitari – Francesca Boz-

zano e Gabriele Scarascia Mugnozza – del Dipartimento di Scienze della Terra della ‘Sapienza’ ed afferenti al CERI (Centro di Ricerca per la Previsione, Prevenzione e Controllo dei Rischi Geologici), e di un giovane ricercatore che opera presso lo stesso Dipartimento – Paolo Mazzanti – si è fusa con quella di IMG Srl (società operante nel campo del monitoraggio e della geofisica che annovera un personale di circa cinquanta unità, per la quasi totalità laureate). La proposta di instituire NHAZCA come spin-off accademico è stata sottoposta alla ‘Sapienza’ a maggio del 2009 e il 28 luglio il Consiglio di Amministrazione ne ha decretato l’approvazione definitiva. NHAZCA è oggi uno dei dodici spin-off accademici della Sapienza. La mission di NHAZCA NHAZCA è una società di consulenze e servizi che opera nell’ambito dei rischi geologici e dei rischi connessi alle grandi opere. Nello specifico, il suo obiettivo è di testare e/o sviluppare strumenti e metodi operativi, con i quali fornire un servizio di monitoraggio e di analisi di eventi naturali che possano generare rischi per l’uomo. Inoltre, vengono prese in esame anche le grandi opere (dighe, ponti, gallerie, strade di grande comunicazione, ecc.) e le strutture di particolare pregio storico e artistico, con la finalità di fornire un supporto alla loro salvaguardia. Questi obiettivi vengono perseguiti con una costante attività di ricerca e sviluppo promossa anche attraverso la collaborazione con enti di ricerca e aziende, sia in ambito nazionale che internazionale. NHAZCA mantiene inoltre uno sguardo costante alla formazione e all’aggiornamento professionale e in quest’ottica ha recentemente organizzato, in collaborazione con il CERI, il primo Corso Teorico Pratico per il Monitoraggio di Versanti Instabili. Date le sue prerogative, NHAZCA si rivolge sia ad enti pubblici (inclusi istituti di ricerca) che a società private come azienda di riferimento nel settore. L’offerta tecnologica L’offerta tecnologica di NHAZCA spazia dalle più innovative tecniche e strumentazioni per il monitoraggio ed il rilievo geomatico e geotecnico, fino ai modelli numerici per la simulazione di evento. Tuttavia, pur nel suo forte slancio innovativo e tecnologico, la società mantiene anche la tradizionale vicinanza al territorio e alla realtà geologica. Tra le varie proposte, merita una menzione particolare il

46

GEOmedia n°3-2010


UNIVERSITA' E RICERCA

Monitoraggio strutturale con Interferometria Terrestre nella città di Roma.

monitoraggio delle deformazioni con Interferometria SAR Terrestre (T-InSAR). Dal 2003 il personale di NHAZCA ha maturato, grazie anche alla collaborazione con il CERI e IMG Srl, una considerevole esperienza nell’applicazione di questa tecnica per il monitoraggio di vulcani, frane, scarpate in roccia, opere ingegneristiche, monumenti ecc. La tecnica T-InSAR consente di generare in continuo (sia di giorno che di notte ed in qualsiasi condizione atmosferica) mappe bidimensionali degli spostamenti dell’area indagata, completamente da remoto (senza installare sensori o target). In alcuni casi, come ad esempio nel monitoraggio delle scarpate in roccia, è stato anche proposto un approccio integrato con il laser scanner terrestre per l’esatta identificazione e mappatura dei blocchi instabili. Per quanto riguarda le strutture in aree urbane, NHAZCA sta conducendo il monitoraggio della Basilica di Massenzio nell’ambito dei lavori di realizzazione della linea C della Metropolitana di Roma. La tecnica interferometrica, però, può essere utilizzata anche per il monitoraggio dinamico (vibrazionale) delle strutture, con il grande vantaggio di operare

completamente in remoto (senza la necessità di installazioni sulla struttura). A tal proposito sono in corso di svolgimento sperimentazioni su alcuni monumenti della città di Roma. Tra le proposte più innovative, ricordiamo anche i modelli numerici di simulazione, capaci di prevedere l’impatto degli eventi naturali, sull’uomo e sul territorio. Tali modelli sono stati sviluppati dal personale di NHAZCA nell’ambito di collaborazioni con istituti di ricerca nazionali ed internazionali e sono stati ampiamente testati su frane (subaeree e sottomarine) e valanghe di neve. Il progetto MODE T-InSAR MODE T-InSAR è un progetto di NHAZCA ideato nell’ambito della piattaforma ESA Business Incubation. Tale progetto è dedicato allo sviluppo tecnologico e commerciale di nuove soluzioni per il monitoraggio con Interferometria SAR Terrestre, con particolare riferimento al monitoraggio delle strutture in ambito urbano. La valutazione positiva di questo progetto da parte dell’ESA (Agenzia Spaziale Europea) rappresenta un importante riconoscimento delle competenze e del livello di innovazione di NHAZCA in questo specifico settore.

Abstract NHAZCA: a spin-off dedicated to natural risks control and mitigation The mitigation of natural risks and risks related to large infrastructures is the main purpose of NHAZCA, a spin-off company of the “Sapienza” Università di Roma. NHAZCA aims at becoming a reference company, both at national and international level, by the constant interaction between the research and entrepreneurial worlds. NHAZCA offers to customers a strong geological experience coupled with innovative analysis and monitoring techniques such as Terretrial SAR Interferometry and numerical models for the simulation of natural events.

Autore PAOLO MAZZANTI PAOLO.MAZZANTI@NHAZCA.COM

AMMINISTRATORE DELEGATO NHAZCA VIA CORI SNC, 00177, ROMA WWW.NHAZCA.COM

Simulazione numerica di una frana costiera con modelli ad Automi Cellulari.

visita il sito www.rivistageomedia.it

47


OPEN SOURCE

SpatiaLite, un innovativo spatial DBMS di Alessandro Furieri

Ormai da tempo gli Spatial DBMS occupano un ruolo di assoluto rilievo nell'ambito delle tecnologie GIS. Le specifiche tecniche OGC-SFS ne definiscono le caratteristiche minime; di fatto tutte le soluzioni oggi presenti sul mercato rispettano questo standard e ciò ne garantisce un ragionevole livello di compatibilità e di interoperabilità.

I

n ambito Open Source ormai da diversi anni è disponibile una soluzione di assoluta eccellenza rappresentata dall’ormai noto PostgreSQL/PostGIS: si tratta di uno Spatial DBMS di altissimo livello, paragonabile con le più rinomate alternative disponibili in ambito proprietario. Nonostante le sue apprezzabili caratteristiche, PostgreSQL/PostGIS soffre di un’evidente limitazione che, in alcuni casi, può anche rivelarsi estremamente fastidiosa: un prodotto altamente professionale e molto sofisticato è naturalmente molto complesso, ciò implica una gestione problematica in ordine di tempo e di risorse. Da queste argomentazioni nasce l’esigenza di sviluppare uno Spatial DBMS Open Source alternativo, che parta da un approccio completamente diverso: esso deve puntare in primo luogo alla semplicità, pur senza sacrificare nulla in termini di velocità e di completezza delle funzionalità. SQLite è un interessante e leggero DBMS che non ha alcun bisogno di essere installato e gestito: la complessità è veramente minima. E’ veloce, stabile, affidabile ed è in grado di gestire DB anche di grandi dimensioni. SpatiaLite è invece un modulo di estensione che consente a SQLite di supportare adeguatamente i dati geografici in modo conforme rispetto allo standard OGC-SFS; dato che utilizza le medesime librerie di base utilizzate anche da PostGIS (proj4, geos) le capacità di manipolazione e di analisi dei dati geografici è sostanzialmente identica per i due prodotti. Tuttavia SpatiaLite eredita l’incredibile semplicità e leggerezza offerte da SQLite, ed è quindi concretamente in grado di offrire agli utenti una buona capacità di elaborazione spaziale in modo assolutamente semplice ed immediato. E' logico chiedersi dunque se SpatiaLite si candida a sostituire PostGIS.

La risposta è negativa, in quanto si tratta di due prodotti che hanno alla base un’architettura ed una filosofia di impiego completamente differente. PostGIS resta comunque la soluzione ottimale in ambito client-server e per le applicazioni WebGIS: insomma, per tutti i contesti sofisticati. SpatiaLite, viceversa, si candida come la soluzione più adeguata per gli ambiti desktop e per i dispositivi portatili, anche in configurazioni HW molto spartane. Si tratta di due prodotti complementari, non alternativi. Dato che migrare i dati nelle due direzioni è molto semplice, un’armoniosa coesistenza è possibile ed auspicabile. SpatiaLite è già attualmente supportato da QGIS e da OpenJump, ma anche da GeoDjango, da Mapnik e da GDAL/OGR: inoltre, è in corso l’integrazione con gvSIG. Quindi, almeno in ambito Open Source è possibile fin da oggi utilizzarlo con le applicazioni GIS maggiormente diffuse. Ad ogni buon conto, il DBMS offre direttamente una serie di strumenti di gestione - anche con interfaccia grafica (vedi figura) – ivi compreso un visualizzatore GIS. Questi strumenti consentono di importare ed esportare i dati geografici direttamente nel formato ESRI shapefile, e ciò rende semplice l’alimentazione dei DB e l’interoperabilità con le applicazioni proprietarie. Infine, un ultimo punto di forza: un intero DB SpatiaLite è semplicemente un singolo file. Per di più questi file-DB hanno un’architettura universale e possono essere copiati ed utilizzati su piattaforme differenti senza alcuna operazione di conversione. Ne consegue che un DB SpatiaLite si presta in modo ottimale per il trasferimento e la redistribuzione di basi di dati geografici anche molto complesse e di grandi dimensioni: è forse giunta l’ora di pensionare il venerabile (e vetusto) shapefile?

Riferimenti www.opengeospatial.org/standards/sfs www.postgresql.org/ http://postgis.refractions.net/ www.sqlite.org/ www.gaia-gis.it/spatialite/ http://groups.google.com/group/spatialite-users www.qgis.org/ www.openjump.org/ http://geodjango.org/

Abstract SpatiaLite, an innovative open source DBMS For a long time PostgreSQL/PostGIS have represented the high-end Open Source Spatial DBMS: PostGIS implements a sophisticated client-server architecture, and this sometimes introduces an undesirable complexity. SpatiaLite is an extension module for SQLite, implementing the full OGC-SFS function set: this allows the deployment of a really light-weight but powerful Spatial DBMS. SpatiaLite is quickly gaining support and integration in mainstream open source GIS.

Autore ALESSANDRO FURIERI A.FURIERI@LQT.IT

48 48

GEOmedia n°3-2010


GI IN EUROPE - di Mauro Salvemini

La maturità di INSPIRE La Conferenza INSPIRE 2010 si è tenuta a Cracovia dal 23 al 25 giugno; vi hanno preso parte oltre settecento partecipanti provenienti da più di trenta paesi. Durante l’evento l’entusiasmo è stato unanime per il percorso che la direttiva sta compiendo e ormai lo sguardo si rivolge alla dimensione internazionale in virtù dei risultati raggiunti, pronti per essere esportati.

L

a trasposizione nelle legislazioni nazionali è stata completata in quasi tutti i ventisette paesi europei anche se, purtroppo, il livello di attenzione non è stato uguale per tutti e una minoranza di nazioni è in ritardo con la consegna del rapporto per il monitoraggio e il controllo dell’implementazione della direttiva. Diciassette stati hanno ottemperato fornendo chiare informazioni sull’implementazione dell’infrastruttura a scala nazionale. Durante la conferenza INSPIRE di Cracovia è stato evidenziato il progresso nelle attività congiunte tra i governi e in quelle di ricerca, utili per l'avanzamento delle infrastrutture e dell'ineroperabilità dei dati. Anche in questa occasione sono emersi alcuni aspetti rilevanti. Sotto il profilo dell'imprenditorialità, il dato che emerge fa notare che più il numero di piccole imprese coinvolte nel processo aumenta, tanto la Direttiva stessa rappresenta un driver per il settore dell'ICT. Il più volte citato studio sull'impatto di INSPIRE ci conforta col fatto che il ROI (Return Of Investment) per le amministrazioni pubbliche che hanno deciso di applicare fattivamente la pratica delle infrastrutture, soddisfa le rosee aspettative. Ovviamente l’evoluzione della domanda evidenzia ed amplia componenti specifici delle infrastrutture quali ad esempio i transformation service che sono sempre più diffusi. Del resto non poteva che accadere quanto appena riportato a fronte dell’au-

mento di dataset per temi diversi. Gli utenti aumentano costantemente e quindi vengono considerati maggiormente quali utenti finali della 'macchina' INSPIRE. Ciò coinvolge il processo di modifica dell’approccio ed il modo in cui la Direttiva viene implementata, spostando il focus dall’infrastruttura all’utenza. Ovviamente tutto ciò è possibile, ma occorre possedere chiari principi di implementazione. Tra questi emergono quelli relativi al copyright, alla proprietà e licenze di uso dei dati. Uno dei nodi centrali della questione consiste nella relazione che intercorre tra pubblico e privato che lascia intravedere come sia assolutamente necessario trattare questi status separatamente, dividendo gli aspetti di licenza di uso da quelli di solo uso. Su questo punto alcuni stati sono certo più avanti di altri. Così come lo sono quelle nazioni che investono in una diffusione nazionale dei risultati dei team dei gruppi di lavoro sulle specifiche dei dati (ora soprattutto dell’allegato 2 e 3) continuamente protesi a mettere a punto le specifiche per i temi e per i servizi da fare approvare attraverso il consolidato sistema comitologico. In termini di ricerca applicata e di servizi hanno attirato l’attenzione gli invoke service proprio a dimostrare che la complessità crescente dell’offerta nella ESDI di dati e servizi necessita di metodi e tool ad hoc. La conferenza di quest’anno, magistralmente organizzata dal Governo Polacco Credits foto di Tomas Mildorf

(Office of Geodesy and Cartography) ha evidenziato che il piano di lavoro della EC è stato rispettato: ciò è stato dimostrato anche dalle due norme approvate nel 2009 dal Parlamento: Commission Regulation (EC) n. 976/2009 e n. 268/2010. Tra breve saranno disponibili i risultati della verifica in corso d’opera che la CE sta facendo svolgere circa l’implementazione e l’ottemperanza rispetto a quanto previsto dalla direttiva negli stati membri; intanto già alcuni dati sono stati mostrati a seguito della presentazione della prima relazione monitoring e reporting da parte di diciotto dei 27 stati membri (tra i quali non figura l’Italia): circa settemila dataset solo per parte dei temi dell’allegato uno e due, più di mille data web service e ben settecento network service. Da quanto è emerso e dalle cifre appena riportate, possiamo affermare che il modo di avere accesso ai dati e la possibilità di utilizzarli non può far altro che cambiare!

Riferimenti http://inspire.jrc.ec.europa.eu/events/ conferences/inspire_2010/

Abstract INPIRE's maturity The INSPIRE Conference 2010 took place from 23 to 25 June 2010 in Kraków, Poland. On 22 June pre-conference workshops have been organized. The theme of this year’s edition has been "INSPIRE as a Framework for Cooperation". The INSPIRE Conference has been organised through a series of plenary sessions addressing common policy issues, and parallel sessions focusing in particular on applications and implementations of SDIs, research issues and new and evolving technologies and applications and poster presentations.

Autore MAURO SALVEMINI MAURO.SALVEMINI@UNIROMA1.IT

visita il sito www.rivistageomedia.it

49


AZIENDE E PRODOTTI StereoSpace: visualizzare foto in 3D StereoSpace è il nuovo software per la visualizzazione 3D di Menci Software. Rendendo ancora più innovativa la fotocamera Fujifilm FinePix Real 3D, strumento utile anche per le applicazioni fotogrammetriche, Menci ha realizzato un apparato che riesce a coniugare le richieste di un appassionato di fotografia e le esigenze di un professionista. StereoSpace permette di creare automaticamente fotografie in 3D a cui aggiungere eventualmente la profondità qualora il fotografo ne ricordi le dimensioni; in alternativa è possibile utilizzare il CAD, sia per conoscere le dimensioni dell’immagine che per disegnare sopra di essa ed esportarla nei formati più diffusi. Specificatamente progettato per qualsiasi situazione che richieda un livello descrittivo superiore, StereoSpace ha tutto ciò che è necessario per scattare delle meravigliose foto in 3D che permettono di fare delle misurazioni da visualizzare poi su qualsiasi monitor, PC o televisore. Immortalare le caratteristiche di antichi monumenti per propositi scientifici, di ispezione, documentazione o semplicemente per svago, da oggi è possibile.

NASA e Microsoft: incontri ravvicinati con Marte in 3D

(Fonte: Redazionale)

ERDAS LPS eATE per l’estrazione automatica di DEM ad alta risoluzione Il nuovo modulo eATE, aggiuntivo a Leica Photogrammetry Suite (LPS), rilasciato con la versione 10.1 dei prodotti ERDAS, è la risposta alla crescente disponibilità e risoluzione spaziale dei dati da satellite, insieme alle quali si è manifestata anche la necessità di disporre di dati altimetrici con elevato dettaglio ed accuratezza. Sinora questo grado di dettaglio era raggiungibile utilizzando rilievi LIDAR ed eseguendo elaborazioni ad hoc finalizzate all’estrazione di DTM (cosiddetti Bare Earth) privi delle informazioni relative a edificato ed alberi. Oggi, lo stesso risultato è ottenibile grazie alla quantità di informazioni estraibili da una coppia stereoscopica di immagini multispettrali (telerilevate da satellite o da aereo). LPS eATE (enhanced Automatic Terrain Extraction) è lo strumento ideale per l’estrazione automatica di queste informazioni. I modelli digitali ottenuti con LPS eATE hanno la stessa elevata densità nell’informazione sul terreno; si tratta senza dubbio di un validissimo supporto alle applicazioni in campo geologico e in tutti gli altri settori in cui l’informazione altimetrica accurata si rende fondamentale. Per scoprire tutte le potenzialità e le caratteristiche è possibile visitare il sito: www.planetek. it/lps/eATE (Fonte: Planetek Italia)

Annunciati miglioramenti al laser scanner FX 3D di Trimble Il laser scanner FX 3D di Trimble è stato migliorato in modo da adattarsi ad applicazioni che richiedono un’elevata accuratezza all’interno di impianti industriali. Le nuove funzionalità estendono il range operativo del Trimble FX permettendo allo strumento di acquisire informazioni georiferite in alta risoluzione fino a una distanza di 80 metri. L’aumento del range operativo permette, per ogni setup, di ‘catturare’ una maggiore quantità di dati, riducendo i tempi di lavoro sul campo ed estendendo la flessibilità di utilizzo della soluzione ad una più ampia gamma di applicazioni. Lo scanner Trimble FX si presenta anche con un nuovo design ed una scocca più resistente, che lo rendono più facile da trasportare e più flessibile da utilizzare in ambienti industriali particolarmente angusti. La gestione del ciclo di vita di un impianto richiede una profonda conoscenza della posizione e della condizione degli asset che lo compongono. In questo senso, il laser scanner Trimble FX si propone come una delle soluzioni più adatte a questo scopo. (Fonte: Redazionale)

50

La NASA, in partnership con Microsoft Research, sta rilanciando l’interesse per Marte grazie alle nuove possibilità offerte dal software WorldWide Telescope, che rende disponibile una mappa 3D in alta risoluzione della superficie del Pianeta Rosso. Il telescopio virtuale online di Microsoft permette l’esplorazione dell’Universo utilizzando le immagini ottenute dalle sonde interplanetarie della NASA. Il software è stato sviluppato da due team di esperti, uno presso Ames Research Center della NASA a Moffett Field (California) e l’altro presso la Microsoft a Redmond (Washington). Con i nuovi dati della NASA e le immagini pienamente interattive, gli utenti saranno in grado di esplorare virtualmente il pianeta ed effettuare le loro personali scoperte. Le nuove funzionalità includono la mappa interattiva di Marte alla più alta risoluzione mai resa disponibile, realistici rendering 3D della superficie del pianeta e diversi tour video in compagnia di due scienziati della NASA, James Garvin del Goddard Space Flight Center di Greenbelt e Carol Stoker di Ames. Le mappe contengono 74.000 immagini acquisite dalla MOC (Mars Orbiter Camera) della sonda Mars Global Surveyor ed oltre 13.000 immagini ad alta risoluzione della superficie del pianeta acquisite dal sensore HiRISE (High Resolution Imaging Science Experiment) della sonda Mars Reconnaissance Orbiter. Ogni singola immagine di HiRISE contiene più di un miliardo di pixel. Le mappe complessive sono renderizzate in un mosaico contenente oltre mezzo miliardo di immagini più piccole.

(Fonte: Redazionale)

GEOmedia n°3-2010


L’offerta di Teorema in mostra al SAIE Teorema srl, Agenzia Leica per la Lombardia e Piacenza, offre l’opportunità di conoscere e provare le nuove tecnologie per il rilievo topografico ed architettonico. Generazioni di topografi si sono affidate alla precisione ed alla qualità di Leica Geosystems: tutto è iniziato più di 75 anni fa con il teodolite Wild T3, che conquistò la comunità topografica con misure di estrema precisione. Oggi, dopo quattro generazioni, Leica Geosystems continua a creare soluzioni con gli stessi standard di precisione e qualità. La nuova stazione totale Leica TS30 ha ridefinito la topografia di precisione offrendo prestazioni e qualità senza eguali. Mai più lavori impegnativi accettando compromessi: la stazione totale TS30 è pronta per qualsiasi sfida ed ha raggiunto l’apice delle prestazioni. Leica Geosystems vanta un’esperienza ineguagliabile anche nel monitoraggio di precisione: Leica TM30 rappresenta l’ultima generazione di stazioni totali progettate specificatamente per questo scopo e può essere installata in siti di monitoraggio nuovi o esistenti offrendo piena compatibilità con sistemi precedenti. Teorema sarà presente al SAIE di Bologna dal 27 al 30 ottobre, presso il pad. 31 Stand B21 (Fonte: Teorema)

Sistemi di riconoscimento 3D con tecnologia laser scanner

La tecnologia laser scanner è ormai sempre più diffusa e le sue applicazioni sono sempre più varie, toccando anche il settore dei controlli per la sicurezza. Il sistema di acquisizione e riconoscimento realizzato dalla eBIS Srl (spin-off del Politecnico di Bari) è costituito da una speciale telecamera per la cattura rapida di immagini tridimensionali di volti e di un applicativo installabile su PC. Il software di base, strutturato a moduli, gestisce la telecamera per l’acquisizione dei dati, l’elaborazione delle registrazioni, la visualizzazione ed il salvataggio delle immagini 3D. L’acquisizione prevede una distanza strumento-soggetto di 1.25m che può essere modificata per le diverse applicazioni. La frequenza delle acquisizioni può arrivare fino a 1 immagine ogni 5s (con tempo di acquisizione di 1/50s), con risoluzione, in direzione orizzontale di 4px, in direzione verticale di 8px. Le immagini 3D acquisite possono essere esportate nei formati WRL, STL, ed altri formati. L’architettura software prevede due moduli funzionali: uno (enrollment), costituito da una postazione di acquisizione dotata di telecamera 3D a luce strutturata in grado di fornire il rendering volumetrico del volto del soggetto inquadrato. E’ possibile completare questi dati con le informazioni anagrafiche del soggetto indicandone l’eventuale appartenenza a particolari liste (dipendenti, fornitori…); il secondo (identificazione) costituito da una postazione di acquisizione dotata di telecamera 3D che, mediante gli algoritmi di matching sviluppati, fornisce l’identificazione e attiva gli eventuali alert previsti per il soggetto individuato. (Fonte: eBIS Srl)


AZIENDE E PRODOTTI Accuratezza ed efficienza nelle comunicazioni in caso di emergenze e disastri La Tactical Communications distribuirà in Texas la serie Ike1000 di strumenti per la raccolta sul campo di dati geospaziali. In precedenza, per la misurazione dei propri asset, i team di valutazione delle varie agenzie texane per la sicurezza pubblica dovevano munirsi di vari dispositivi (tra cui una fotocamera digitale), annotare separatamente i luoghi specifici per ogni immagine e caricare manualmente le informazioni su un computer. Questo modo di procedere rendeva più lenta la trasmissione di informazioni critiche ai centri operativi per le emergenze ed era caratterizzato da un alto rischio di errore umano. L’integrazione avanzata di Ike 1000 con telemetro, GPS, bussola e macchina fotografica molto accurati implica l’utilizzo di un solo dispositivo portatile, semplificando il trasferimento delle informazioni. Ike 1000 consente ad un team da campo indipendente o ad un team di valutazione dei danni di acquisire dati GPS con discrezione e sicurezza, effettuare fotografie marcate con dati spaziali, registrare gli attributi delle feature geografiche e degli asset infrastrutturali e, quindi, esportare tutti questi dati verso database visuali e geografici. Ike 1000 ha recentemente debuttato durante una delle più importanti simulazioni di disastro organizzate dallo stato del Texas, nell’ambito della Texas Rapid Response Task Force. Si tratta di una Task Force multi-agenzia e multi-giurisdizionale che viene schierata nel corso degli eventi disastrosi di maggiore entità. Questa occasione è stata la prima in cui la Task Force è stata mobilitata per un’esercitazione da Uragano ed impiegata con il Tactical Communications Team. (Fonte: Redazionale)

Disponibile la nuova versione di MapInfo Professional E' disponibile la versione 10.5 di MapInfo Professional. La demo della nuova versione è scaricabile dal sito www.pbinsight.com. Sono 3 i punti fondamentali di innovazione della nuova versione 10.5: accesso, elaborazioni, condivisione delle analisi e delle mappe. Tramite l’accesso alle mappe è possibile l’individuazione della cartografia necessaria attraverso l'utilizzo dei cataloghi dei metadati e, a seguito dell'accordo globale con Microsoft, MapInfo Professional 10.5 potrà accedere alle immagini di Bing, oltre a supportare il formato KML di Google KML format. L’elaborazione permette la creazione e la modifica degli stili in maniera ancora più rapida e con la possibilità di effettuare l'immediata verifica. Un’altra novità è la finestra con l'elenco delle tavole in una versione semplificata e potenziata. Per la Condivisione delle Analisi e delle Mappe è possibile la pubblicazione delle mappe in PDF – standard, layered (con controlli dei livelli) o georiferito e su web – utilizzando MapInfo Status. Da fine ottobre, MapInfoProfessional 10.5 sarà disponibile anche in versione italiana. (Fonte: Pitney Bowes Business Insight)

52

GEOmedia n°3-2010



AGENDA

2010 26-27 agosto Como 1a Conferenza Internazionale WebMGS2010 Web: http:// webmgs2010.como. polimi.it Email: nadia.tasini@ centrovolta.it

9-10 settembre Chartreuse de Villeneuve-lès-Avignon, Francia Photogrammétrie au service des acrhéologues e des architectes Web: http://cipa.icomos. org/index.php?id=34

6-9 settembre Barcellona, Spagna FOSS4G 2010 Web: http://2010.foss4g. org

16-17 settembre Taranto Dal telerilevamento alla geospatial intelligence Web: www.enea.it/ eventi/eventi2010/ GeoSpatial160910/ GeoSpatial160910.html Email: francesco. immordino@enea.it

6-8 settembre Pisa 85° Congresso della Società Geologica Italiana ‘L'Appennino nella Geologia del Mediterraneo Centrale’ Web: www.dst.unipi.it/ sgi2010/index.php Email: sgi2010@dst. unipi.it

5-7 ottobre Colonia, Germania Intergeo 2010 Web: www.intergeo2010. de Email: dkatzer@hintemesse.de

13-15 ottobre Firenze Convegno nazionale IUGI Web: www.iugi.it 19-21 ottobre Braunschweig, Germania ENC GNSS 2010 Web: www.enc-gnss2010. org Email: dgon.bonn@tonline.de 20-22 ottobre Milano 16th Ka and Broadband Communications, Navigation and Earth Observation Conference Web: www.kaconf.org Email: clotilde.fertini@ kaconf.org

9-12 novembre Brescia 14a Conferenza Nazionale ASITA Web: www.asita.it Email: conferenza@ asita.it 11 novembre Torino ITN 2010 Infrasctructure Telematics And Networks Web: www.itnexpo.it 17 novembre GISday Web: www.esriitalia.it

27-30 ottobre Bologna SAIE Web: www.saie. bolognafiere.it/

10a conferenza internazionale: “From Imagery to the map: digital photogrammetry technologies” Si svolgerà a Gaeta dal 20 al 23 settembre la conferenza internazionale “From Imagery to the map: digital photogrammetry technologies”. La conferenza è organizzata da Racurs, la società russa leader nel software per fotogrammetria digitale e proprietaria del software PHOTOMOD, distribuito in Italia da Sistemi Avanzati; l'evento è sostenuto dalla International Society of Photogrammetry and Remote Sensing (ISPRS) e dalla Russian GIS Association. E’ prevista la partecipazione di tecnici e manager delle agenzie statali russe per il catasto terreni e la cartografia, nonché delle principali imprese operanti nel settore petrolifero e del gas naturale, insieme a rappresentanti nei campi della fotogrammetria, GIS e telerilevamento di altre nazioni. Per dettagli sulla conferenza ed informazioni sulla partecipazione www.sistemiavanzati.com

GEOmedia incoraggia i nuovi autori: il tuo contributo editoriale è benvenuto GEOmedia è il punto di riferimento nel panorama informativo dedicato al mondo della geomatica e della geografia intelligente con una decisa apertura verso tutte le esperienze tecnico-scientifiche che approcciano il settore con un carattere divulgativo. Per questo la Redazione di GEOmedia è sempre pronta a pubblicare articoli ritenuti di particolare interesse per la comunità geomatica e geografica del terzo millennio. Il tuo contributo, compatibilmente con gli spazi già assegnati ed in linea con gli argomenti delle varie uscite, consultabili sulla Guida Editoriale 2010, è dunque benvenuto, soprattutto in rubriche quali:

54

ESRI EMEA User Conference 2010

Focus: gli articoli di approfondimento su questioni tecnico-filosofiche e metodologiche nel mondo della geomatica. Reports: per pubblicare risultanze di convegni ed eventi, esperienze professionali ed applicative. Cartografica: ove approfondire tutte le tematiche inerenti il mondo della cartografia e delle tecnologie correlate. Università e Ricerca: per dar visibilità alle facoltà, ai centri di ricerca ed ai laboratori attivi nella formazione e nell’aggiornamento. Invia le proposte all'indirizzo: redazione@rivistageomedia.it

Dal 26 al 28 ottobre 2010, presso l’Ergife Palace Hotel/ Convention Centre di Roma, si svolgerà la EMEA (European, Middle East and Africa) User Confernce 2010, il grande evento biennale dedicato al GIS e alle applicazioni aerospaziali, con partecipanti provenienti da oltre 60 paesi. L’evento sarà per tutti un’occasione da non perdere grazie anche alla presenza di Jack Dangermond e di gran parte del top management ESRI, che durante la sessione plenaria presenterà la nuova vision di ESRI relativamente all’evoluzione del GIS nei prossimi anni, con un focus particolare sulla release 10 del software ArcGIS. Sono aperte ufficialmente le iscrizioni: www.esriemeauc.com Per tutte le informazioni sulla ESRI EMEA User Conference 2010 è possibile consultare il sito ufficiale dell’evento: www. esri.com/events/emea

Indice Inserzionisti Codevintec Copernico DB CAD Epsilon Geo4all Geogrà Geotop Gesp Intergraph ITN expo 2010 ITT NBL Pitney Bowes Planetek Sinergis Sistemi Avanzati Teorema Trimble VidaLaser Zenit

pag. 55 pag. 52 pag. 11 pag. 16 pag. 13 pag. 17 pag. 29 pag. 39 pag. 56 pag. 33 pag. 2 pag. 43 pag. 41 pag. 45 pag. 53 pag. 51 pag. 25 pag. 4 pag. 21 pag. 12

GEOmedia n°3-2010


sotto controllo saperlo prima è meglio

foto SGG Siena

Strumenti per rilievi non distruttivi del sottosuolo: georadar con antenne a frequenza diversa per ogni applicazione, sismografi, geoelettrica, logger da foro, inclinometri…

Sistemi per controlli avanzati: strumenti per ingegneria civile, geognostica preliminare a costruzioni, monitoraggio e manutenzione infrastrutture, studio del dissesto idrogeologico…

tel 02.4830.2175 y info@codevintec.it www.codevintec.it

Rilievi 3D terrestri, marini, sotto costa: Laser Scanner, Multibeam, Sub Bottom Profiler integrati per rilievi 3D ad alta risoluzione per protezione civile, ingegneria, city modeling, catasto…


Strada 7 Palazzo R1 Milanofiori 20089 Rozzano (MI) Telefono: +39 02.575451

Via Sante Bargellini, 4 00157 Roma Telefono: +39 06.43588889


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.