Rivista bimestrale - anno XVII - Numero 4/2013 Sped. in abb. postale 70% - Filiale di Roma
www.rivistageomedia.it
La prima rivista italiana di geomatica e geografia intelligente
N°4 2013
GEOGRAPHIC CONTEXT ANALYSIS ESIGENZA DI PREVISIONI AFFIDABILI Strumenti a supporto per la riforma del Catasto
Il WebGis sugli tsunami in Italia
Rilevare in sella a un Quad
Un SIT per la gestione selvicolturale
Come si fa a dire che dobbiamo mettere in sicurezza www.rivistageomedia.it
GEOmedia, bimestrale, è la prima rivista italiana di geomatica. Da oltre 15 anni pubblica argomenti collegati alle tecnologie dei processi di acquisizione, analisi e interpretazione dei dati, in particolare strumentali, relativi alla superficie terrestre. In questo settore GEOmedia affronta temi culturali e tecnologici per l’operatività degli addetti ai settori dei sistemi informativi geografici e del catasto, della fotogrammetria e cartografia, della geodesia e topografia, del telerilevamento aereo e spaziale, con un approccio tecnico-scientifico e divulgativo. Direttore RENZO CARLUCCI direttore@rivistageomedia.it Comitato editoriale Fabrizio Bernardini, Luigi Colombo, Mattia Crespi, Luigi Di Prinzio, Michele Dussi, Michele Fasolo, Beniamino Murgante, Mauro Salvemini, Domenico Santarsiero, Donato Tufillaro Direttore Responsabile FULVIO BERNARDINI fbernardini@rivistageomedia.it Redazione redazione@rivistageomedia.it SANDRA LEONARDI sleonardi@rivistageomedia.it GIANLUCA PITITTO gpititto@rivistageomedia.it Marketing e Distribuzione ALFONSO QUAGLIONE marketing@rivistageomedia.it Diffusione e Amministrazione TATIANA IASILLO diffusione@rivistageomedia.it Progetto grafico e impaginazione DANIELE CARLUCCI dcarlucci@rivistageomedia.it MediaGEO soc. coop. Via Palestro, 95 00185 Roma Tel. 06.62279612 Fax. 06.62209510 info@rivistageomedia.it ISSN 1128-8132 Reg. Trib. di Roma N° 243/2003 del 14.05.03 Stampa: SPADAMEDIA srl VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA) Editore: mediaGEO soc. coop. Condizioni di abbonamento La quota annuale di abbonamento alla rivista è di 45,00. Il prezzo di ciascun fascicolo compreso nell’abbonamento è di 9,00. Il prezzo di ciascun fascicolo arretrato è di 12,00. I prezzi indicati si intendono Iva inclusa. L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo. La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo. Numero chiuso in redazione il 15 Novembre 2013. Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la riproduzione anche parziale del contenuto di questo numero della Rivista in qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore. Rivista fondata da Domenico Santarsiero.
il territorio a posteriori? A valle del disastro che ha colpito la Sardegna, molti stanno invocando la necessità di mettere in sicurezza il territorio, come se il tutto fosse provocato da mancati interventi per opere infrastrutturali. Sono dell’opinione che invece servirebbe il contrario, troppi interventi dannosi vengono effettuati e quello che succede è colpa dei lavori, spesso anche definiti “pubblici”, che l’uomo effettua indiscriminatamente sul territorio violentando in qualsiasi modo quella macchina perfetta, il nostro habitat, duramente sconvolto dall’antropizzazione spinta. La mia è la visione di un ingegnere civile, che tenta di discernere tra le varie modalità di realizzazione delle infrastrutture e dell’edificato, in modo da valutare qualsiasi effetto “collaterale” possa instaurarsi, prima di realizzare interventi strutturali. Ogni azione dell’uomo sulla natura porta un effetto, spesso non prevedibile che può manifestarsi anche parecchi anni dopo. Abbiamo per questo varato, in un momento di particolare saggezza, una legge ambientale, la legge Galasso, che definiva regole semplici e chiare per salvaguardare il territorio. Le abbiamo poi sempre infrante, in modo del tutto legale ovviamente, creando altre leggi che consentivano di violare le leggi precedenti, per poi creare interventi per riparare i danni creati da un astruso complesso legislativo dal quale oggi, in questa situazione, non si esce. Il sistema di tutela del paesaggio e dell’ambiente previsto dalla Galasso, la legge dell'8 agosto 1985, n. 431, affidava allo Stato poteri molto forti in materia di beni paesaggistici e ambientali. Lo Stato, per tale legge, poteva annullare qualsiasi autorizzazione rilasciata dalla Regione o dalla Provincia o da un Comune, se questa autorizzazione consentiva opere in danno all’ambiente. Giuseppe Galasso era sottosegretario di Stato per i Beni culturali e ambientali, la legge fu approvata dal Parlamento all’unanimità con la sola astensione del Movimento sociale italiano. Le attuali leggi di fatto hanno abolito il potere di annullamento sostituendolo con un blando parere preventivo non vincolante, per altro da esprimere in trenta giorni. In questa situazione non abbiamo più chiarezza per il settore giuridico ambientale e chiunque voglia farsi beffa del territorio non deve far altro che attendere che passino i fatidici 30 giorni, dopo i quali, se una alluvione distruggerà tutto, la colpa sarà di chi in 30 giorni non è riuscito a prevedere ciò. Dire che non si può costruire a 200 metri di distanza da un corso d’acqua, come recitava la Galasso, era una cosa sacrosanta, come pure che non si possa edificare sopra i 1500 metri di altezza, ma noi abbiamo preferito rinunciare a tutto ciò. Questo significa oltretutto disprezzo della storia e dell’esperienza dei nostri avi che, a seguito di disastri del genere, avevano legiferato in prevenzione. Abbiamo anche forzato mappe e sistemi cartografici per dare autorizzazione a tutto ciò, rendendoci complici di astruse regole per le cosiddette Valutazioni di Impatto Ambientale che non riescono a reggere l’Impatto Umano. Oggi a valle dell’ennesimo disastro ambientale ci troviamo a ipotizzare interventi strutturali per la messa in sicurezza del territorio che vengono anche ben quantificati, 30 miliardi di euro. Per fare cosa? Altre opere pubbliche per soddisfare i soliti falchi speculatori? Non abbiamo bisogno di questi interventi se prima non cambiamo il nostro modo di pensare. Il vero danno è l’aver fatto dei condoni edilizi che hanno permesso di costruire pure sopra ai torrenti. E oggi continuiamo a consentire tutto ciò. L’unico vero intervento per mettere in sicurezza il territorio è evitare di costruirci ancora sopra. Qualsiasi altra direzione potrebbe nel futuro rivelarsi fatale. E la geomatica, quella vera, in questo avrà un ruolo essenziale.
Buona lettura, Renzo Carlucci
Conserva il piacere di sfogliare GEOmedia, sottoscrivi l'abbonamento! www.rivistageomedia.it/abbonamento
In mare parliamo la stessa lingua. MaRS è il marchio italiano di noleggio di strumentazione per rilievi in mare. MaRS ha gli strumenti in Italia. Ti permette di risparmiare tempo e denaro. E ti da assistenza tecnica immediata. In italiano. MaRS offre noleggi a breve e lungo termine. Anche con operatore. Consulenze, installazione ed elaborazione dati. > > > > > > > > > >
Multibeam Beamformer Reson Multibeam interferometrici SEA Posizionamento e assetto Applanix POS MV/LV Side Scan Sonar Edgetech Sub Bottom Profiler Edgetech ROV GEI Pollux III ADCP USBL GPS/GNSS RTK, OmniStar e MarineStar Strumentazione ausiliaria: SVS, SVP, Link radio UHF, GPS Compass ...
MaRS noleggi & soluzioni
Lungomare P. Toscanelli, 64 00122 Lido di Ostia RM tel. +39 333 6670058
Via Labus, 13 - Milano tel. +39 02 4830.2175 mars@codevintec.it
SOMMARIO 4 - 2013
FOCUS
6 18
Tecnologie e dati spaziali per una moderna governance del territorio Strumenti a supporto per una riforma del catasto A cura della redazione
REPORTS
34 Esri Italia presenta tutte le nuove funzionalità di ArcGIS 10.2
Geographic di
context scanning
&
analysis: il Modello Riferimento e le Operazioni di
A cura di Esri Italia
36 Edoardo de Orel: la fotogrammetria diventa adulta
di
Attilio Selvini
Maurizio Rosina
40 Rilievi in sella a un quad
di
Fulvio Bernardini
44 Il WebGis sugli tsunami: un utile strumento di consultazione
di Paola Fago, Cosimo Pignatelli, Arcangelo Piscitelli, Maurilio Milella, Maria Venerito, Paolo Sansò, Giuseppe Mastronuzzi
30
Inserzionisti
Modello logico e realizzazione di un Sistema Informativo Territoriale per la gestione selvicolturale di
Federico Foria
Archeomatica 55
Intergraph
27
Aerobotix
17
Microsurvey
50
Applanix
49
Planetek
53
CGT
22
R3GIS
25
Codevintec
4
Sinergis
2
Crisel
24
SISTER
43
Epsilon
23
Teorema
42
Esri
56
Geotop
15
Geogrà
54
Trimble
13
Gesp
28
VirtualGeo
51
In copertina due immagini satellitari ad alta risoluzione Pléiades fornite da Astrium per aiutare le operazioni di soccorso nelle Filippine. Gli effetti del tifone Haiyan, che ha colpito le Filippine l'8 novembre 2013 sono stati ripresi il 13 novembre 2013 da un satellite Pleiades, che aveva catturato le immagini della stessa zona (Tacloban) il 7 aprile 2013. Astrium costruisce e gestisce i satelliti ad alta risoluzione Pléiades che forniscono tali immagini nel quadro dell’International Charter on Space and Disasters. Queste immagini sono state messe a disposizione di squadre di soccorso e delle autorità e possono essere scaricate al link: ftp://ftp.astrium-geo.com/Philippines/
ALTRE RUBRICHE
22 MERCATO 48 SMART CITIES 50 ASSOCIAZIONI 52 RECENSIONE 54 AGENDA
FOCUS
Tecnologie e dati spaziali per una moderna governance del territorio Strumenti a supporto per una riforma del catasto A cura della Redazione
L’articolo illustra le metodologie e le attività del settore cartografico a supporto dell’importante processo di rinnovamento dell’intero sistema catastale.Vengono descritte le moderne tecnologie ed i dati spaziali oggi disponibili che possono essere di ausilio nell’impostazione delle complesse problematiche di riforma del sistema estimativo catastale e, più in generale, nei processi per la lotta all’evasione fiscale nel settore immobiliare.
L
a recente introduzione dell’IMU (Imposta Municipale sugli Immobili) ha portato nuovamente alla ribalta l’annosa questione della sperequazione esistente negli estimi del Catasto, recentemente evidenziata dal Direttore dell’Agenzia del Territorio, nell’audizione alla Camera dei Deputati, VI Commissione Finanze, del 13 settembre 2012; sta diventando, quindi, sempre più consistente l’ipotesi di una radicale riforma del sistema estimativo catastale. Nell’ambito dell’attuale dibattito in corso sull’argomento, si riportano di seguito i principi e criteri di- rettivi sui quali si ipotizza di basare la revisione del sistema estimativo catastale, che rilevano ai fini di questo contributo: • uso di funzioni statistiche che esprimano la relazione tra il valore di mercato, la localizzazione e le caratteristiche posizionali ed edilizie dei beni per ciascuna destinazione catastale e per ciascun ambito territoriale; • utilizzo del metro quadrato come unità di consistenza delle unità immobiliari urbane. Come si può osservare dai principi e criteri operativi sopra riportati, i dati relativi alla geolocalizzazione degli immobili in relazione al contesto urbano e alle caratteristiche edilizie dei fabbricati giocano un ruolo fondamentale nel processo revisionale, sia per la determinazione corretta degli estimi sia per i tempi e le risorse necessarie per la loro acquisizione.
6
Per affrontare con efficacia queste sfide, occorre una conoscenza puntuale, completa e qualificata del patrimonio immobiliare italiano. Pare però opportuno evidenziare, già in premessa, come indipendentemente dalla piattaforma tecnologica che verrà illustrata più avanti, l’efficacia dei risultati dipenderà fortemente dalla qualità dei dati (completezza, coerenza, correttezza, aggiornamento, accuratezza posizionale, ecc.) e soprattutto dal loro grado di correlazione nei diversi archivi del Catasto. Questa memoria vuole offrire un contributo alla documentazione e alla comprensione dei dati georiferiti riguardanti il patrimonio immobiliare in Italia e dei relativi strumenti di elaborazione e di analisi, sia in relazione all’ipotesi di riforma del sistema estimativo catastale e più in generale alla lotta all’evasione fiscale sul patrimonio immobiliare, sia in relazione alle attività ordinarie istituzionali dell’Agenzia del Territorio, recentemente accorpata all’Agenzia delle Entrate. Nella prima parte dell’articolo verranno illustrati i dati e le tecnologie propri dell’Agenzia e successivamente i dati e le tecnologie esterne al proprio dominio, ma strettamente correlati ed interoperabili con i primi. Dati e tecnologie propri dell’agenzia del territorio L’Agenzia del Territorio, si presenta oggi come una realtà complessa e dinamica, caratterizzata dal massivo utilizzo di tecnologie all’avanguardia
che le consentono di colloquiare a distanza con i propri utenti attraverso piattaforme web. Elevato è il grado di informatizzazione raggiunto nell’aggiornamento dei dati, ma soprattutto nella scelta e nello sviluppo di soluzioni tecnologiche innovative che permettono l’aggiornamento in tempo reale degli archivi cartografici, catastali e di Pubblicità Immobiliare, nel rispetto della totale trasparenza dei procedimenti amministrativi. L’Agenzia del Territorio, forte delle sue radici e consapevole della necessità di un proprio costante aggiornamento, mette oggi al servizio del Paese le proprie informazioni, le competenze, le conoscenze e i saperi per l’attuazione di una moderna governance del territorio. Al fine di sviluppare importanti ed essenziali sinergie con le altre Pubbliche Amministrazioni ed Enti, l’Agenzia interpreta la propria missione assumendo il ruolo di mediatore inter-istituzionale, al fine di agevolare la circolazione delle informazioni, la loro condivisione e lo sviluppo di soluzioni tecnologiche innovative (Garnero, Cogoni, 2012; Ferrante, 2009). Il vero punto di forza dell’organizzazione è costituito dal patrimonio di conoscenze e di dati relativi agli immobili italiani, ereditato dalle precedenti Amministrazioni statali: Catasto, Servizi Tecnici Erariali e Conservatorie dei Registri Immobiliari, unitamente ad uno straordinario patrimonio di professionalità dei propri dipendenti. GEOmedia n°4-2013
FOCUS Il patrimonio informativo gestito dall’Agenzia è articolato su tre sistemi: • il Sistema informativo catastale, con oltre 82 milioni di particelle del Catasto terreni e 63 milioni di unità immobiliari del Catasto fabbricati, descritte nelle loro caratteristiche tecniche e censuarie e arricchite dalle planimetrie delle singole unità immobiliari, prerogativa unica nel panorama dei catasti europei; • il Sistema informativo della Pubblicità Immobiliare, con oltre 45 milioni di note meccanizzate e 40 milioni di note in formato digitale, per l’individuazione dei titolari dei diritti reali sugli immobili; • il Sistema informativo dell’Osservatorio del Mercato Immobiliare, con oltre 340.000 schede di rilevazione delle caratteristiche dei fabbricati di 1.280 Comuni e oltre 180.000 valori immobiliari relativi a 31.000 zone di osservazione per 17 tipologie edilizie, nella quasi totalità dei Comuni italiani. Grazie all’investimento di notevoli risorse, l’Agenzia è attualmente impegnata nella realizzazione di un’evoluta e innovativa modalità di consultazione e di fruizione del proprio patrimonio conoscitivo attraverso un’infrastruttura denominata Anagrafe Immobiliare Integrata, rivolta a tutte le Amministrazioni, Enti, professionisti e cittadini che si occupano del governo del territorio; prevista dall’art. 19 del D.L. 31 maggio 2010, n. 78, è il frutto dell’integrazione dei tre sistemi informativi appena descritti. L’Anagrafe Immobiliare Integrata è un’infrastruttura tecnologico-organizzativa, su base geografica, realizzata con tecnologia Web-Gis, capace di correlare la cartografia catastale, il Catasto (archivi censuari dei terreni, dei fabbricati e delle planimetrie) e gli archivi della Conservatoria dei Registri Immobiliari e dell’Osservatorio del Mercato Immobiliare. Attraverso un’interfaccia cartografica evoluta e di facile utilizzo, ottenuta dall’integrazione della cartografia catastale con ortofoto ad alta definizione e grafi stradali, consentirà ai cittadini, ai professionisti, alle Pubbliche Amministrazioni e agli Enti di navigare, via internet, sull’intero territorio nazionale e di eseguire, con estrema semplicità, la “visura ipo-catastale”, che integra i dati della mappa, del Catasto dei terreni e dei fabbricati (oggetti) con quelli della Conservatoria dei Registri immobiliari (soggetti).
visita il sito www.rivistageomedia.it
Il patrimonio cartografico del catasto Dopo questa panoramica generale, focalizziamo ora l’attenzione sul sistema cartografico del Catasto, che costituisce la base per la geolocalizzazione degli immobili in Italia. Con il termine “geolocalizzazione“ intendiamo la capacità del sistema informativo catastale di individuare un immobile, sull’intero territorio nazionale, in modo semplice e univoco, senza ambiguità. L’Agenzia gestisce per conto dello Stato il sistema informativo degli immobili in Italia, sotto il profilo della individuazione, della descrizione delle caratteristiche tecniche, della valutazione economica e della registrazione dei diritti. La geolocalizzazione degli immobili è basata sul sistema cartografico catastale. Il Catasto, a partire dal 1960, in qualità di organo cartografico ufficiale dello Stato, è responsabile della gestione della cartografia catastale e soprattutto del suo continuo e costante aggiornamento. Il sistema cartografico del Catasto risulta oggi completo, e relativamente omogeneo, sull’intero territorio nazionale; è basato su cartografia a grande scala e gestito completamente in formato vettoriale; è collegato agli archivi amministrativocensuari attraverso un identificativo univoco, per l’intero territorio nazionale, costituito dal numero di particella. Il sistema è oggi integrato con ortoimmagini digitali ad alta risoluzione e con i grafi stradali, ma il vero punto di forza è costituito dal suo sistema di aggiornamento.
za nel tempo, anche in relazione alla ingente quantità di atti che vengono presentati annualmente presso gli Uffici, ha sempre rappresentato per il Catasto, una sfida e un obiettivo da perseguire a tutti i costi. Nel più generale quadro d’interscambio di informazioni con gli altri Enti territoriali, in cui le Banche Dati catastali assumono e si caricano di grandi potenzialità di utilizzo per rispondere alle esigenze di conoscenza territoriale, risulta di fondamentale importanza il puntuale e tempestivo aggiornamento degli archivi con procedure automatizzate e standardizzate, che assicurino la costante attualizzazione e sincronizzazione delle informazioni contenute nei diversi archivi catastali. Per far fronte alla mole degli oltre 600.000 atti di aggiornamento che vengono presentati annualmente presso gli Uffici provinciali del Catasto e che movimentano mediamente 1.500.000 particelle, al fine di eliminare qualunque possibile soggettività nell’esame tecnico degli atti, il sistema di aggiornamento della cartografia e dell’archivio censuario del Catasto dei Terreni è stato totalmente automatizzato con la nuova procedura informatica denominata “Pregeo10”: • nel nuovo sistema, l’aggiornamento degli archivi catastali ha inizio con la richiesta, per via telematica, dell’estratto della mappa e dei corrispondenti dati censuari da parte del professionista; • l’Ufficio provinciale, eseguite le opportune verifiche sulla Banca Dati, trasmette al professionista, ordinariamente entro un giorno e comunque non oltre due giorni, ancora per via telematica, l’estratto della mappa comprensivo di tutti i dati utili alla predisposizione dell’atto di aggiornamento;
Il Sistema di aggiornamento cartografico e censuario del catasto Il legame indissolubile tra la componente tecnica e giuridica della mappa con la componente amministrativocensuaria, rappresentato dall’identificativo catastale (numero della particella), deve essere mantenuto costantemente aggiornato ed allineato in entrambi gli archivi durante tutti i processi di conservazione, al fine di rendere efficace l’informazione catastale in tutti i procedimenti fiscali, civili e di governo del territorio. L’aggiornamento dei dati in archivi separati ed il mantenimento della loro congruen- Fig. 1 - Schema logico del processo di aggiornamento automatico con la procedura Pregeo10.
7
FOCUS • sulla base della documentazione ricevuta e del rilievo eseguito sul terreno, il professionista predispone l’atto tecnico per l’aggiornamento del catasto, con l’ausilio della procedura informatica Pregeo10; • a seguito di tutti i controlli formali e sostanziali, la procedura stabilisce, direttamente presso lo studio del professionista, se l’atto di aggiornamento sarà registrato in automatico negli archivi catastali; • la documentazione predisposta dal professionista viene inviata, ancora telematicamente, all’Ufficio competente; • presso l’Ufficio, un sistema di gestione e di controllo completamente automatico, basato sulla procedura Pregeo10, verifica la correttezza dell’atto e la congruenza dei dati con quelli presenti negli archivi catastali e provvede, in caso di esito positivo dei controlli, all’aggiornamento automatico della cartografia e dell’archivio censuario del Catasto dei Terreni; in caso contrario trasmette al professionista l’atto di aggiornamento riportando in chiaro i motivi che ne hanno impedito la registrazione negli atti catastali e le correzioni da apportare; • il processo si conclude con la trasmissione automatica al professionista dell’estratto della mappa e dei dati censuari aggiornati. Il nuovo sistema di aggiornamento, messo a punto con la partecipazione attiva dei Consigli Nazionali degli Ordini Professionali, è entrato in vigore su tutto il territorio nazionale dal 15 ottobre 2009. Con il raggiungimento di questo importante traguardo, il Catasto ha segnato un’altra importante tappa di efficienza e di civiltà amministrativa. Il nuovo sistema di aggiornamento basato sulla condivisione di regole e di dati sul web qualifica il Catasto come Amministrazione Pubblica di tipo 2.0. Il sistema di coordinate e l’interoperabilità della cartografia catastale con altri dati di conoscenza del territorio Il Catasto italiano, durante i 70 anni della sua formazione (Kraus, 1994), dal 1886 al 1956, per l’inquadramento della propria cartografia ha avuto la necessità di istituire oltre 800 sistemi di coordinate diversi che hanno costituito, fino a poco tempo fa, un notevole ostacolo per la georeferenziazione degli immobili e per l’interoperabilità e l’integrazione automatica del sistema catastale con altri sistemi di conoscenza del territorio quali le orto-immagini, la cartografia tecnica, i Data Base Territoriali, gli strumenti urbanistici, i grafi stradali, ecc. 8
Fig. 2 - I sistemi di coordinate catastali presenti in Italia.
Per unificare i sistemi di coordinate e per trasformare le mappe catastali nel sistema nazionale Roma1940 è stato necessario un notevole sforzo di carattere scientifico, organizzativo e tecnologico, che ha impegnato il Catasto negli ultimi 10 anni e che oggi possiamo dire essere avviato alla conclusione (Godone, Garnero 2013; Ferrante, 2009; Chiabrando, Garnero, Godone, 2008). La trasformazione della cartografia nel sistema nazionale è già stata realizzata su oltre l’80% del territorio nazionale, con metodo rigoroso, assicurando la precisione di qualche decimetro nel passaggio di coordinate. Al momento della pubblicazione di quest’articolo sono in corso le attività, svolte in collaborazione con l’Università di Roma La Sapienza, Dipartimento di Idraulica Trasporti e Strade, per la validazione delle soluzioni operate dal Catasto, a garanzia del corretto passaggio dai sistemi di coordinate cata- stali al sistema Roma1940. La trasformazione della cartografia del restante 20% del terri-
torio è stata al momento realizzata solo con metodo analogico, assicurando comunque una precisione dell’ordine del metro; attualmente sono in corso le attività per la trasformazione di questa parte residuale di mappe con metodo rigoroso e si prevede il completamento entro la fine dell’anno 2013. Come previsto dalla Direttiva INSPIRE, tutti gli stati Europei devono rendere disponibili i propri dati geografici nel sistema di riferimento unificato; con il D.P.C.M. 10 Novembre 2011 è stato ufficialmente adottato in Italia il nuovo Sistema Geodetico Nazionale costituito dalla realizzazione ETRF2000 al- l’epoca 2008.0 del Sistema di Riferimento Europeo ETRS89. Per realizzare questo ulteriore passaggio, dal sistema nazionale al sistema geodetico europeo, il Catasto ha stretto una collaborazione con l’Istituto Geografico Militare, il quale ha messo a punto le griglie di trasformazione che consentono il passaggio diretto dal sistema nazionale al sistema ETRF2000.
GEOmedia n°4-2013
FOCUS automatica della congruenza topologica viene ricreata automaticamente prima all’interno di ciascun foglio di mappa e poi tra mappe adiacenti; infine, attraverso un intervento interattivo, vengono risolte tutte le problematiche che la procedura automatica non ha potuto definire. E’ appena il caso di evidenziare come questa condizione risulti essenziale per realizzare il “mosaico” (continuum territoriale) e quindi di rendere applicabili tutte le potenzialità, basate sulla topologia, che la tecnologia GIS mette oggi a disposizione.
Fig. 3 - Copertura delle aree nelle quali sono disponibili i parametri per il passaggio rigoroso dal sistema catastale al sistema nazionale.
Entro la fine di quest’anno (2013) sarà quindi possibile riproiettare la cartografia catastale nel sistema di riferimento WGS84 nel frame ETRF2000. E’ appena il caso di evidenziare come la disponibilità della cartografia catastale nel nuovo sistema di riferimento unificato rappresenti un valore aggiunto per tutto il sistema informativo catastale, in quanto garantisce la piena interoperabilità e la automatica integrazione con gli altri dati di conoscenza del territorio, anche con quelli al di fuori del proprio dominio. Recupero della precisione delle mappe e costruzione delle congruenze topologiche attraverso la valorizzazione delle mappe originali d’impianto La mappa originale d’impianto rappresenta un patrimonio informativo di inestimabile valore tecnico, giuridico e storico; presente in unico esemplare, questa mappa viene tutt’ora utilizzata quale documento probante nell’azione
visita il sito www.rivistageomedia.it
di regolamento dei confini e, anche solo per questa ragione, andrebbe comunque preservata dalle insidie del tempo. Questo progetto, già avviato nell’anno 2008, prevede l’acquisizione digitale e la georeferenziazione dei supporti in “cartaforte” sui quali è rappresentata la mappa originale di impianto del catasto. L’integrazione delle mappe originali di impianto, in formato digitale, nel sistema cartografico del Catasto, in considerazione delle sue elevate caratteristiche tecniche, permetterà di migliorare la qualità delle mappe vettoriali acquisite da supporti più aggiornati ma di minor pregio, e di recuperare gli errori sistematici che il processo di informatizzazione e aggiornamento ha fatalmente introdotto; il processo, parte automatico e parte interattivo, prevede inizialmente la calibrazione della mappa vettoriale su quella originale di impianto. Come già descritto in un precedente studio degli stessi Autori [Garnero, Ferrante 2009], la creazione
Recupero della coerenza tra i dati presenti nelle mappe con i dati presenti nell’archivio censuario del Catasto dei Terreni Le mappe ed i corrispondenti archivi censuari sono, come già ricordato, tra loro strettamente correlati e devono risultare costantemente aggiornati e congruenti per assolvere a tutte le funzioni fiscali e civili di un catasto moderno, soprattutto se si intendono realizzare progetti complessi e delicati quali, ad esempio, la riforma del sistema estimale. Durante tutto il primo periodo della conservazione del Catasto e fino alla fine degli anni ’80 del secolo scorso, l’aggiornamento della mappa è stato conseguito separatamente dai corrispondenti registri censuari: è stato eseguito dai tecnici catastali, sui rispettivi supporti cartacei, registrando manualmente le variazioni contenute negli atti tecnici. Tale modalità di aggiornamento ha comportato, nel tempo, un inevitabile graduale disallineamento tra i due archivi. Attualmente, ma già dalla fine degli anni ’80, gli archivi cartografici e censuari vengono aggiornati simultaneamente con la procedura Pregeo cui si è fatto cenno precedentemente: viene così garantita la completa congruenza degli archivi sui flussi di dati oggetto di aggiornamento. E’ quindi necessario provvedere al recupero dei disallineamenti prodotti nel passato, prima delle procedure di tipo automatico. Molti sono stati gli interventi in questa direzione, sia mirati (progetti finalizzati interni, collaborazioni con enti esterni), sia operati in caso d’uso (risoluzione degli eventuali disallineamenti prima del rilascio degli estratti di mappa), volti a risolvere i disallineamenti tra la mappa e l’archivio censuario del Catasto dei Terreni. Come si può osservare dalle due immagini sotto riportate, i disallineamenti ancora presenti sono concentrati solo su una decina di Uffici. 9
FOCUS Sono attualmente in corso attività di sperimentazione per l’adozione di un nuovo modello organizzativo che consentirà la loro risoluzione, senza alcun impatto con le attività ordinarie degli uffici. Recupero della coerenza tra i dati presenti nelle mappe con i dati presenti nell’archivio censuario del Catasto dei Fabbricati Il Catasto di Fabbricati, come è noto, è stato istituito alla fine degli anni ’30 del secolo scorso, ed è stato, per alcune aree geografiche, basato su una mappa urbana completamente avulsa dalla mappa del Catasto dei Terreni in conservazione: questa condizione ha generato nel tempo una serie di disallineamenti tra i dati cartografici e censuari del Catasto dei Terreni con i dati censuari del Catasto urbano. Il Catasto, consapevole della necessità di rendere congruenti i due archivi, già da oltre un decennio è impegnato, con notevoli risorse qualificate interne, a realizzare la correlazione tra i dati cartografici e censuari del Catasto terreni con quelli del Catasto urbano; al momento le attività sono ancora in corso. La coerenza dei dati negli archivi catastali getta il ponte per la georeferenziazione, sulla mappa catastale, delle Unità Immobiliari Urbane presenti nell’archivio del Catasto dei Fabbricati. Si creano così le condizioni che consentono di sfruttare appieno le potenzialità dei moderni sistemi GIS. E’ appena il caso di evidenziare come l’efficacia delle analisi e, conseguentemente, delle soluzioni, dipendono fortemente dal grado di correlazione tra gli archivi. Dati e tecnologie esterni al dominio dell’agenzia del territorio Le ortoimmagini prodotte da Agea e l’individuazione dei fabbricati sconosciuti al Catasto Nell’ambito delle informazioni territoriali disponibili sul territorio nazionale, occupano senz’altro una posizione di rilievo le ortoimmagini prodotte da Agea (Agenzia per le Erogazioni in Agricoltura) nel contesto dei controlli previsti da norme comunitarie per la gestione dei contributi concessi nell’ambito della PAC (Politica Agricola Comunitaria). Agea infatti è responsabile, ai sensi del D. Lgs. n. 99/2004, del coordinamento e della gestione del SIAN - Sistema Informativo Agricolo Nazionale, nel cui ambito è prevista la copertura aerofotogrammetrica con cadenza triennale dell’intero territorio nazionale e la produzione dei tematismi colturali su base catastale per il territorio agricolo. 10
Fig. 4a - Disallineamenti tra archivi cartografici e censuari: particelle presenti in cartografia e non presenti negli archivi censuari del Catasto terreni.
Il D. Lgs. 82/2005 (Codice dell’Amministrazione Digitale) sancisce il principio del “riuso” dei dati generati da ciascuna Pubblica Amministrazione e della fruibilità degli stessi, mediante opportune convenzioni, da parte di altre Amministrazioni interessate. A partire dall’anno 2010, al fine di ottimizzare proprio gli aspetti connessi al riuso delle ortoimmagini, è stata modificata la pianificazione dei programmi di ripresa, che divengono ora su base regionale anziché provinciale, e viene aperta la possibilità, per le Amministrazioni interessate, di acquisire congiuntamente ad Agea le ortoimmagini con risoluzione del pixel a terra di 20 cm anziché dei 50 cm, istituzionalmente previsti: tale incremento di risoluzione, nel caso venga attuato, a partire dal prossimo triennio 2013-2015 porterà ad un concreto miglioramento nelle possibilità di utilizzo delle basi fotocartografiche prodotte all’interno del SIAN per l’aggiornamento delle informazioni
sull’edificato. Le ortoimmagini con risoluzione del pixel a terra di 20 cm consentirebbero infatti di determinare con maggiore accuratezza i parametri posizionali e di micro-intorno degli immobili e, conseguentemente, di affinare la stima dell’estimo delle Unità Immobiliari Urbane, limitando considerevolmente l’intervento diretto sul terreno. Nel più ampio quadro della lotta all’evasione fiscale, l’Agenzia del Territorio (AdT) ha messo in campo da tempo una serie di azioni volte a far emergere le potenziali sacche di evasione nel settore immobiliare, con progetti ad alto contenuto tecnologico. Nel recente passato, in base alle prescrizioni della Legge Finanziaria del 2007, l’AdT come è noto ha realizzato un importante progetto finalizzato alla “individuazione dei fabbricati sconosciuti al Catasto”. Il progetto, caratterizzato da un avanzato contenuto tecnologico, è stato curato dall’AdT in collaborazione
GEOmedia n°4-2013
FOCUS
Fig. 4b - Particelle presenti negli archivi censuari del Catasto terreni e non presenti in cartografia .
con Agea e Sogei (Società Generale di Informatica) e rappresenta uno degli esempi più significativi di collaborazione e integrazione tra sistemi informativi delle Pubbliche Amministrazioni. Attraverso una specifica convenzione stipulata nel maggio del 2007, le due Agenzie hanno individuato il terreno comune dove le rispettive competenze potessero trovare utili sinergie per le stesse Amministrazioni e per i cittadini, nell’interesse generale dello Stato. Per il conseguimento dell’obiettivo, è stata condotta una ricognizione generale dell’intero territorio nazionale, ad esclusione delle Province Autonome di Trento e Bolzano. L’indagine territoriale è stata realizzata attraverso l’integrazione della cartografia catastale in formato vettoriale con le ortoimmagini digitali a colori ad alta definizione, il Modello Digitale del Terreno (DTM), il Modello Digitale delle Superfici (DSM) e le immagini all’infrarosso vicino.
visita il sito www.rivistageomedia.it
I risultati ottenuti sono stati successivamente sottoposti a controlli di qualità sistematici, eseguiti attraverso la fotointerpretazione tradizionale sulle stesse ortofoto digitali ad alta risoluzione (pixel 50 cm), al fine di eliminare gli errori che un processo automatico a livello industriale fatalmente comporta, soprattutto in relazione alla “qualità” dei dati utilizzati. Il prodotto finale dell’attività, condotta in sinergia con Agea, è costituito da un elenco di particelle sulle quali insistono dei fabbricati non presenti nelle mappe del Catasto; l’elenco delle particelle è stato successivamente incrociato con i dati contenuti nei diversi archivi catastali. Tale operazione ha consentito di eliminare dall’elenco iniziale le particelle su cui insistono fabbricati che, seppur non rappresentati nelle mappe, sono comunque noti al Catasto, essendo presenti in altri archivi interni. Il progetto, avviato a metà dell’anno 2007, è stato concluso nei primi mesi dell’anno 2010 e ha consentito di individuare oltre 2.000.000 di particelle sulle quali sono presenti fabbricati sconosciuti dal Catasto. Tra le ricadute positive di questo progetto si vuole evidenziare la piena disponibilità per il Catasto, delle ortoimmagini ad alta definizione che sono state immediatamente integrate nel proprio sistema cartografico per lo sviluppo di importati progetti, non ultimo quello relativo alla riforma del Catasto. Con riferimento alle attuali previsioni normative (D.L. 78/2010, art. 19, Comma 12), a decorrere dal 1° gennaio 2011 l’AdT, sulla base di nuove informazioni connesse a verifiche tecnico-amministrative, da telerilevamento e da sopralluoghi sul terreno, deve provvedere ad avviare il monitoraggio costante del territorio
La prima fase, eseguita sulla base del DTM e del DSM, ha riguardato l’individuazione automatica degli oggetti presenti sul soprassuolo; questi sono stati successivamente classificati, prima in funzione dell’altezza e poi con l’ausilio delle immagini all’infrarosso vicino: è stato così possibile discriminare la vegetazione dagli altri manufatti del soprassuolo, determinando, in modalità automatica, i poligoni dei fabbricati. L’intersezione spaziale tra i poligoni relativi agli oggetti del soprassuolo ed i poligoni dei fabbricati presenti nelle mappe catastali ha consentito di individuare le particelle sulle quali insistono dei fabbricati presenti sul terreno e non presenti nelle mappe del Catasto. Fig. 5 - Sensori obliqui
integrati nel processo di presa fotogrammetrica.
11
FOCUS individuando, in collaborazione con i Comuni, ulteriori fabbricati che non risultano dichiarati in Catasto. Per realizzare tali previsioni normative e per rendere più efficace l’azione di indagine territoriale, si sta va- lutando l’opportunità di far uso di soluzioni ad avanzato contenuto tecnologico quali ad esempio le immagini aeree acquisite con sensori obliqui, come meglio si dirà in seguito. Applicazioni connesse con l’utilizzo di Google Earth e Microsoft Virtual Earth La diffusione di strumenti web condivisi che rendono disponibili in forma totalmente gratuita repertori dinamici di immagini aeree e satellitari su scala globale è ormai una realtà consolidata: le basi di Google Earth e Microsoft Virtual Earth, che tutti abbiamo imparato velocemente a conoscere ed utilizzare per le applicazioni non professionali più disparate, stanno diventando veri strumenti integrati che si propongono come repository di informazioni territoriali non limitate ai dati inseriti in rete dai gestori del sistema, ma strumenti nei quali è possibile integrare e condividere informazioni, con differenti modalità (Ferrante, 2010; Garnero, Ferrante, 2009). Recentemente tale potenzialità è stata estesa al mondo dei sistemi informativi geografici, con l’opportunità di integrare basi dati locali con database remoti di immagini: lo strumento è di sicuro interesse per lo studio delle tematiche territoriali e paesaggistiche, data l’integrazione tra strumenti GIS, già ampiamente impiegati nel settore, e immagini di buona qualità e potenzialmente aggiornate con continuità, che consentono un’attenta lettura del territorio e delle sue modificazioni. L’implementazione nei sistemi GIS consente inoltre una partecipazione attiva al processo di analisi territoriale, con la facoltà di estrarre quanto interpretato dalle immagini in database geografici vettoriali e/o alfanumerici. Sono già stati fatti numerosi studi sulle possibilità di utilizzo di questi supporti innovativi nei processi di analisi territoriale e paesistica, al fine di individuare la scala di soglia oltre la quale le basi in argomento non costituiscono più un supporto geometricamente affidabile. Sia Google Earth che Virtual Earth utilizzano un sistema di rappresentazione cartografica che non trova al momento altre applicazioni, almeno in Italia: si tratta del sistema 3785 Web Mercator WGS84, così codificato nell’EPSG Geodetic Parameter
12
Dataset. L’EPSG (European Petroleum Survey Group), organizzazione ora assorbita nell’OGP SurFig. 6 - Google Street veying and PoView Car in acquisizione sitioning Com(Fonte Wikipedia). mittee, organo dell’International Association of Oil & Gas Producers (OGP) per scopi facilmente intuibili, provvede a mantenere e pubblicare un database dei sistemi cartografici e geodetici a livello mondiale e dei relativi parametri di trasformazione. Ai fini della presente memoria risultano di particolare utilità le immagini georiferite di Google Street View implementate all’interno di Google Maps e Google Earth, il quale fornisce viste panoramiche a 360° gradi in orizzontale e a 290° in verticale lungo le strade (a distanza minima di 10-20 metri l’una dall’altra) e permette agli utenti di vedere porzioni di varie città del mondo a livello del terreno. Introdotto nel maggio 2007, il servizio Street View è attivo in Italia dall’ottobre 2008 e, soprattutto nell’anno 2009, si è avuto un rapidissimo incremento delle vie servite: la copertura viene mostrata trascinando un omino arancione (pegman, presente nella barra dei comandi) e posizionandolo su un punto della viabilità, in modo da attivare la corrispondente fotografia panoramica. Per la realizzazione delle foto, Google Street View si serve di apposite fotocamere (le Dodeca 2360, dotate di 11 obiettivi e prodotte dall’azienda canadese Immersive Media) collocate sul tetto di automobili. Nelle aree pedonali, nei parchi e nelle strade non attraversabili con le automobili, vengono invece utilizzate delle biciclette appositamente attrezzate: il servizio è esteso attualmente alla maggior parte della viabilità principale e a moltissime vie urbane di centri grandi e piccoli, con una copertura estesa a tutte le regioni italiane; la copertura aggiornata del servizio è disponibile on line all’indirizzo http://www.google.com/help/maps/streetview/learn/where-is-street-view.html. E’ evidente come la possibilità di visualizzare, se non altro, i fronti via delle zone già raggiunte dal servizio, può essere di immediato e rapido utilizzo al fine di consentire agli utenti un primo accesso visivo alle caratteristiche estrinseche dei fabbricati e delle aree limitrofe.
Riprese fotogrammetriche “oblique” Sono operative sul mercato nazionale imprese in grado di realizzare, oltre alle tradizionali riprese nadirali, coperture fotogrammetriche eseguite con set di camere disposte in modo tale da riprendere il territorio con inclinazioni oblique, in maniera da privilegiare l’acquisizione delle facciate degli edifici. Le soluzioni industriali, che vanno sotto il nome di Pictometry®, Midas® di Track’air, iOne® di Visual lntelligence, …, prevedono l’utilizzo di sistemi di presa costituiti da più camere connesse in modo rigido tra loro, montate su un unico supporto sul quale è applicato il sensore inerziale (IMU) per l’acquisizione delle componenti angolari di presa. Nei sistemi Pictometry e Midas sono presenti 5 camere, di cui 4 sono installate con una inclinazione di 4045° rispetto alla verticale e secondo le quattro direzioni di vista perpendicolari tra loro (in avanti, indietro, a sinistra e a destra); la quinta camera è installata come le tradizionali camere fotogrammetriche in modo da riprendere il territorio sorvolato dallo zenit. I fotogrammi vengono scattati in modo simultaneo e risultano quindi cinque immagini che condividono il medesimo istante di presa. I tools disponibili consentono, non solo di gestire la cospicua massa di dati in ambienti di navigazione a partire dall’ortoimmagine di base, ma anche di effettuare interrogazioni quantitative e misurazioni sulle dimensioni plano-altimetriche degli edifici, fornendo quindi agli operatori strumenti performanti per l’analisi e il controllo del costruito. Per quanto noto agli Autori, sono attualmente disponibili sul territorio nazionale le riprese aeree oblique di tutti i capoluoghi di provincia e dei principali centri abitati con una popolazione superiore ai 50.000 abitanti, con prese a partire dal 2005 e con un refresh temporale triennale. Inoltre, nel corso degli anni 2010 e 2011, la Regione Autonoma della Sardegna ha fatto eseguire i servizi relativi all’appalto per le “Attività di riprese fotografiche a bassa quota negli agglomerati urbani della Sardegna e relativi contesti architettonici”, con riferimento ai “centri di antica e prima formazione o centri matrice”, così definiti all’art. 51 delle Norme di Attuazione del Piano Paesaggistico Regionale. In sostanza, tutti i centri urbani sono stati acquisiti, con tecnologia Pictometry e con pixel a terra dell’ordine dei 5 cm,
GEOmedia n°4-2013
FOCUS
MAppAre oLTre ognI LIMITe, e AncorA dI pIù La nuova soluzione Trimble UX5 Aerial Imaging sta creando un nuovo standard per la raccolta aerea di dati rapida e sicura, conservando inalterata la produttività per tutto il giorno, indipendentemente dal lavoro eseguito. Che scegliate di volare sotto la pioggia lungo scogliere ventose, in deserti torridi o in un territorio montuoso e innevato, Trimble UX5 è una soluzione sicura progettata per i professionisti della cartografia e della topografia, che richiedono la massima precisione. In combinazione con gli intuitivi flussi di raccolta dati Trimble Access™ e con la potente funzionalità di elaborazione dei dati fotogrammetrici di Trimble Business Center, sarete subito a un livello superiore, oltre tutti gli altri. Provate voi stessi presso trimble.com/uas Unitevi alla conversazione: #TrimbleUX5
visita il sito www.rivistageomedia.it
© 2013, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi commerciali di Trimble Navigation Limited, registrati negli Stati Uniti e in altri paesi. Tutti gli altri sono marchi dei rispettivi proprietari. SUR-218-ITA
13
FOCUS in modo tale da documentare il contesto paesistico in cui si trovano i centri matrice e di evidenziare le differenze morfologico-insediative esistenti fra i centri, con particolare riferimento alle morfologie di pianura, di collina, di montagna, di costa, di versante, ecc. L’insieme delle foto nadirali e oblique consente quindi di comprendere meglio il modo col quale questi centri si sono sviluppati e di cogliere le differenti tipologie edilizie attraverso l’analisi sia dei prospetti degli edifici che di parti interne, nonché l’evidenziazione di problematiche legate al recupero e alla ristrutturazione degli edifici di pregio, in un’ottica di controllo del territorio dal punto di vista urbanistico relativamente al centro urbano e alle strutture insediative circostanti. L’alta definizione permette di documentare lo stato attuale delle abitazioni e delle trame viarie, in modo tale da permettere la costituzione di un archivio fotografico di supporto all’attività istituzionale di pianificazione e di regolamentazione del territorio (Cina, Ferrante, Piras, Porporato, 2012). Quindi la disponibilità di riprese oblique già realizzate, relativamente recenti e, per quanto è stato precedentemente descritto, direttamente relazionabili con le mappe catastali con la tecnologia che verrà descritta più avanti, è tutt’altro che trascurabile, in quanto si può valutare che copra non
zate le immagini oblique relative alla stessa area presente nella parte centrale. Rimane però ancora difficile, soprattutto nei centri storici delle città ed in particolare in quelli con morfologia complessa, individuare in modo univoco sulle viste prospettiche il fabbricato selezionato sulla mappa catastale e del quale si vogliono conoscere le caratteristiche edilizie. Tale ambiguità viene risolta con la tecnologia che verrà illustrata più avanti, in occasione della descrizione dei modelli 3D degli edifici. Da più parti si considera inoltre la possibilità di integrare le riprese fotogrammetriche eseguite da Agea, cui abbiamo fatto cenno in precedenza, con almeno 2 camere disposte obliquamente, in modo da ottenere, in contemporanea all’acquisizione dei fotogrammi per le ortoimmagini, anche riprese oblique da utilizzarsi per le applicazioni sul contesto edificato. Tali riprese, qualora venissero realizzate con sistematicità, non potranno ovviamente risultare paragonabili con le prese appositamente prodotte come riprese oblique, in ragione delle ovvie carenze relativamente alla scala e quindi alla dimensione del pixel, di insufficienti direzioni di presa e di conseguenti carenze di informazioni, con direzioni di profili di fabbricazione completamente esclusi dall’acquisizione.
Fig. 7 - Consultazione delle riprese oblique di un centro della Regione Sardegna.
meno del 70% dell’edificato; è quindi ragionevole ipotizzare la messa a sistema di questo patrimonio informativo per le finalità de quo in tempi ragionevolmente rapidi, in modo da evitare la naturale obsolescenza degli stessi. Tra le tecnologie immediatamente disponibili, il Sistema BLOM-Urbex consente di integrare la cartografia catastale con le ortofoto, visualizzate nella parte centrale dello schermo, mentre nella parte laterale vengono visualiz14
E’ comunque corretto ritenere che tali possibilità, che dovrebbero essere prodotte con costi molto contenuti data la contemporaneità con le osservazioni primarie, potrebbero essere proficuamente utilizzate nei contesti extraurbani, dove minori sono le problematiche di copertura reciproca tra gli edifici e dove non è, e non può essere, economicamente proponibile una ripresa inclinata realizzata in modo canonico.
Nel contesto economico che caratterizza il momento attuale, è comunque naturale prevedere la messa a sistema e la valorizzazione di quanto disponibile e utilizzabile con quanto può essere realizzato con costi sostenibili, in modo da garantire la fattibilità anche economica di quanto occorre per il raggiungimento degli obiettivi. Riprese realizzate con gli UAV In realtà la sola individuazione e relativa documentazione delle caratteristiche estrinseche dei fabbricati potrebbe essere ottenuta anche con strumentazioni decisamente meno performanti e costose di quelle appena descritte in quanto, per le applicazioni in oggetto, non si richiede tanto una qualità metrica a partire dalla quale poter andare ad eseguire misure e stime quantitative, quanto piuttosto una buona qualità fotografica che consenta all’operatore di individuare fotograficamente tutte o la maggior parte delle caratteristiche che potrebbero essere rilevate in campagna con un sopralluogo, o quanto meno di poter limitare i sopralluoghi ai casi controversi. E’ quindi oggetto di particolare attenzione la possibilità di utilizzo di strumentazioni fotografiche di tipo pseudo-amatoriale a bordo di velivoli senza pilota, tecnicamente definiti droni ovvero UAV (Un- manned Aerial Vehicle), intendendo con questo termine dai velivoli per applicazioni militari dalle di- mensioni decisamente rilevanti agli aeromodelli giocattolo di piccole dimensioni. La disponibilità di sistemi di posizionamento sufficientemente precisi ottenibili con ricevitori GNSS di piccolissime dimensioni e peso (generalmente UBlox), unita all’esistenza di microscopici accelerometri e sensori giroscopici con tecnologia MEMs, controllati con software oggi generalmente disponibili in open source, aprono nuove possibilità di realizzazione di sistemi per l’acquisizione delle immagini digitali a bordo di velivoli di varie dimensioni. La recentissima normativa emanata dall’ENAC (Ente Nazionale per l’Aviazione Civile) NI-008-2012 del 2 Agosto 2012 sul “Rilascio di permesso di volo per Aeromobile a Pilotaggio Remoto per l’effettuazione di attività sperimentale” definisce appunto le attività dei cosiddetti mini- e micro-UAV (rispettivamente di peso inferiore ai 20 e ai 5 Kg) e comunque fino al limite dei 150 kg relativamente ad attività che, pur essendo ancora definite “sperimentali”, possono evidentemente avere interessanti ricadute professionali.
GEOmedia n°4-2013
FOCUS
- Maggiore produttività con Powertrac™ - TSShield™ sicurezza e manutenzione
www.topcon-italia.it visita il sito www.rivistageomedia.it
- 600m comunicazione Longlink™
15
FOCUS Sarà quindi possibile, in un immediato futuro, eseguire riprese anche da bassa quota, con strumenti di tipo APR (Aeromobile a Pilotaggio Remoto), per recuperare fotogrammetricamente informazioni che non sarebbero acquisibili mediante sopralluogo, sia per impossibilità di accesso sia per ragioni di maggiore convenienza economica. Tecnologia per la ricostruzione virtuale dell’edificato La richiamata disponibilità di informazioni già acquisite e la concreta possibilità che altri canali di acquisizione vengano attivati, per estese porzioni di territorio come per comparti territoriali decisamente contenuti, consente di delineare un proficuo utilizzo di tali metodologie di osservazione all’interno delle problematiche catastali, anche in relazione alla disponibilità di tecnologie che possono essere agevolmente customizzate per le esigenze specifiche. Un operatore che dovesse porsi l’intento dell’acquisizione ovvero della verifica delle caratteristiche estrinseche dei fabbricati mediante riprese aeree oblique, dovrebbe poter operare in un ambiente software dedicato, che gli consenta di poter vedere la mappa catastale integrata all’ortoimmagine, e dovrebbe poter consultare le riprese oblique con l’ausilio di un software che minimizzi le possibilità di errata identificazione catastale dell’immobile, sincronizzando la vista obliqua sul fabbricato puntato sulla mappa. A tal fine, oltre alla customizzazione degli ambienti di consultazione delle prese oblique cui si è fatto cenno, è oggi proponibile la realizzazione, seppur in modalità semplificata, di un 3D City Model dedicato alle applicazioni catastali. Con tale termine vengono tecnicamente definiti gli ambienti di consultazione nei quali gli edifici vengono ricostruiti geometricamente come solidi e le cui facce risultano “vestite” a partire dalle informazioni radiometriche disponibili sui fotogrammi: in tale maniera il fruitore dimentica i fotogrammi e ritrova un modello virtuale ricostruito sul quale eseguire le osservazioni o, eventualmente, le misurazioni. La costruzione dei 3D City Model è da tempo presente nell’ambito dei prodotti geomatici disponibili sul mercato, ma solo i recenti miglioramenti nelle tecniche di autocorrelazione consentono di pensare a processi di generazione realizzabili in modalità praticamente del tutto automatiche, con conseguente abbattimento dei costi di produzione e quindi aperture verso usi più generalizzati.
16
Naturalmente, una volta disponibile, la base prodotta potrà essere posta a sistema ed essere utilizzata anche a scopi diversi, ad esempio per la tutela e il controllo, integrata nelle banche dati comunali. Integrazione in ambiente gis delle tecnologie e dei dati interni ed esterni al dominio dell’AdT Da quanto rappresentato in premessa si evince come per la realizzazione del progetto di riforma del sistema estimativo catastale risultino strategici i dati geografici (cartografia catastale, ortoimmagini, dati LiDAR, immagini acquisite con sensori obliqui, grafi stradali, zonizzazione dell’Osservatorio del Mercato Immobiliare, …) ed alfanumerici (DB censuario terreni ed urbano, DB dell’OMI e delle Conservatorie dei Registri Immobiliari, …) di conoscenza del patrimonio immobiliare italiano.
L’efficace valorizzazione di tutte queste componenti informative in un idoneo ambiente capace di integrare e correlare i dati di diversa provenienza, risulta di fondamentale importanza per il successo del progetto di riforma del sistema estimativo del catasto dei fabbricati. L’ambiente capace di integrare dati, geografici e alfanumerici, insieme alle tecnologie, com’è noto è il GIS (Geographic Information System). Per gli aspetti connessi al progetto di riforma del Catasto, le piattaforme GIS consentono ad esempio di correlare i dati delle Unità Immobiliari Urbane (UIU) direttamente alla mappa catastale: è possibile eseguire analisi puntuali o statistiche su qualunque attributo delle UIU (valore/rendita, classamento, consistenza, …) e rappresentare i report sulla cartografia catastale che, opportunamente integrata con le ortofoto ad alta risoluzione, consente di
Fig. 8 - Realizzazione prototipale di un 3D City Model utilizzando una presa obliqua Midas (proprietà Blom CGR) con tecnologia Menci Software, sul territorio della Città di Milano.
Fig. 9 - Cartografia catastale integrata con ortofoto e grafi stradali – Visualizzazione dei risultati delle analisi spaziali sui dati di “classamento” delle Unità Immobiliari Urbane (grafici “a torta” e relativa legenda).
GEOmedia n°4-2013
FOCUS mettere in correlazione i dati di posizione e/o di affaccio con i dati di classamento o di consistenza delle UIU. Nella figura che segue sono riportati, a titolo di esempio, sulla cartografia catastale integrata con le ortofoto, i report di analisi statistiche condotte sui dati di classamento delle UIU di una zona centrale di Roma; il confronto tra i dati statistici di classamento delle Unità Immobiliari, sia all’interno dello stesso fabbricato sia con quelli dei fabbricati della stessa area di indagine, mette in evidenza alcune delle sperequazioni nei classamenti che proprio la revisione degli estimi dovrà annullare o quantomeno ridurre. Risulta così possibile integrare ed analizzare sulla stessa piattaforma GIS i dati relativi alle caratteristiche estrinseche dei fabbricati: tali informazioni possono essere efficacemente desunte dalle immagini ravvicinate dei sensori obliqui acquisiti contemporaneamente alle immagini nadirali e consentono, cosi come indicato, di relazionare i prospetti dei fabbricati con i poligoni “fabbricati” rappresentati sulla mappa catastale, senza alcuna ambiguità. Nota L'Agenzia del Territorio è stata recentemente incorporata all'interno dell'Agenzia delle Entrate. Ogni riferimento a tale Agenzia pertanto è oggi da ricondurre alla Agenzia delle Entrate.
Conclusioni da quanto fin qui illustrato, si possono trarre alcune conclusioni. Le informazioni relative alla posizione ed all’affaccio e quelle relative alle caratteristiche estrinseche dei fabbricati desumibili attraverso i dati e le tecnologie illustrati, consentono di alimentare efficacemente l’algoritmo per la stima del valore dell’immobile, limitando fortemente l’intervento di rilievo di- retto sul terreno, con un ovvio contenimento dei tempi e dei costi. La piattaforma GIS ipotizzata è fondamentale nella fase di analisi e gestione dei dati, propedeutica alla stima dei valori immobiliari, ma diventa strategica soprattutto nella fase conclusiva del processo, quando si tratta cioè di verificare ed armonizzare i valori e le rendite di UIU appartenenti a fabbricati limitrofi ricadenti però su microzone o zone OMI diverse o su comuni diversi o addirittura su differenti province o regioni.
Autori
This article outlines the methods and activi-
Questo articolo è stato tratto a cura della Redazione da:
ties of the sector mapping in support of the cadastral system.
Describes the modern technologies and spa-
Riforma del Catasto; Cartografia Catastale; Valori Immobiliari
visita il sito www.rivistageomedia.it
• Chiabrando, R., Garnero, G., Godone, D. (2008), Basi dati condivise per l’analisi e la progettazione territoriale: Google Earth e Virtual Earth cambiano le prospettive sulla gestione dei dati territoriali, Congresso AIIA 2008: “Segni dell’uomo e trasformazioni del paesaggio: analisi storica e prospettive di va- lorizzazione”, Marina di Pisticci (MT), settembre 2008. • Cina, A., Ferrante, F., Piras, M., Porporato., C. (2012), La trasformazione dal Datum Catastale al Datum Roma 1940 e ETRF2000, Territorio Italia, n. 1/2012. Di Filippo, S., Ferrante, F., Garnero, G., Gnesivo, P. R., Rao, S. (2005), Unificazione dei sistemi d’asse catastali di piccola estensione, Atti del Convegno Nazionale SIFET 2005, PalermoMondello, giugno-luglio 2005. • Ferrante, F. (2010), Il sistema di aggiornamento della cartografia catastale, Un tesoro Ritrovato, Cangemi Editore 2010. Ferrante, F. (2009), Il nuovo sistema di aggiornamento del Catasto dei Terreni, Rivista dell’Agenzia del Territorio, n. 2/2009. • Ferrante, F. (2009), L’integrazione del catasto con Google Earth, Google Maps e Street-View, Territorio Informa, gennaio/marzo 2009. • Garnero, G., Cogoni, A. (2012), Activity at low altitude photography in urban agglomerations of Sardinia and its architectural context, in Planning Support Tools: Policy Analysis, Implementation and Evaluation. Proceedings of the Seventh International Conference on Informatics and Urban and Regional Planning INPUT 2012, E-book ISBN code: 9788856875973, Franco Angeli, Milano, 2012. • Garnero, G., Ferrante, F. (2009), La valorizzazione delle mappe originali di impianto del catasto per la ricostruzione delle congruenze topologiche tra fogli adiacenti, Atti della XIII Conferenza Nazionale ASITA, Bari, dicembre 2009. • Godone, D., Garnero G. (2013), The role of morphom etric parameters in Digital Terrain Models interpolation accuracy: a case study, European Journal of Remote Sensing, n. 46/2013 (doi: 10.5721/EuJRS20134611). • Kraus, K. (1994), Fotogrammetria (trad. italiana di S. Dequal), Ed. Levrotto e Bella, Torino, 1994. • Paroli, A. (1958), Metodi e strumenti di Rilevamento nei 70 anni di formazione del Catasto Terreni, Rivista del Catasto e dei Servizi Tecnici Erariali, Nuova serie – anno XIII – n. 4/1958.
Abstract
important process of renewal of the entire
Parole chiave
Bibliografia
tial data available today that can assist in
G.Garnero, F.C. Ferrante - Tecnologie e dati spaziali per una moderna
setting up complex issues of reforming the
governance del territorio.
system of quantities cadastral and, more
supporto della riforma del
generally, in the processes for the fight against tax evasion in real estate.
Territorio Italia n. 1/2013
Strumenti a Catasto.
17
FOCUS
Geographic context scanning & analysis: il Modello Di Riferimento e le Operazioni di Maurizio Rosina La puntale conoscenza ed analisi del contesto geografico (Geographic Context Analysis) è oramai divenuta una necessità al fine di poter individuare ed attivare iniziative di consapevole «buon» governo del territorio. Monitorare fenomeni e trend, stilare previsioni e scenari su base territoriale, tutto dipende da una iniziale definizione del contesto geografico d’interesse e dalla selezione/estrazione dei suoi dati, a cui deve far seguito una attenta fase di analisi che, qualora volesse sfociare nel forecasting, potrebbe fruire delle metodologie e tecniche proprie dei DSS (Decision Support Systems), che vedono nei metodi della Analisi Multicriteri (ottimo di Pareto, Topsis, AHP, ecc), gli strumenti che permettono di giungere ad individuare decisioni quanto più possibile «dominanti» ed efficaci.
L’
analisi del contesto (Context Analysis) più che una metodologia o una disciplina è una esigenza. E’ sempre più frequente la necessità di analizzare un contesto, al fine di «conoscere» ed «analizzare» per un qualche fine ultimo, non escluso quello di effettuare previsioni (forecasting). Estremamente vari possono essere il contesto, il fine dell’analisi e l’eventuale attività di previsione, talché la context analysis, più che una disciplina corredata da proprie specifiche metodologie diviene una sorta di mashup di metodiche e tecniche sviluppate in discipline ed ambiti assai diversi. Nell’ambito geografico/territoriale è possibile sviluppare analisi in cui il contesto sia mappato/mappabile sul territorio, ovvero Geographic Context Analysis, il cui primo e propedeutico passo è una attività di Geographic Context Scanning. Con il termine Geographic Context Scanning indicheremo l’estrazione/il reperimento di tutti i dati (accessibili) correlati ad un contesto geografico. La Geographic Context Analysis si nutre di quanto ottenuto dallo scanning, potendo attivare una molteplicità di metodi di analisi, e qualora l’analisi volesse sfociare nel forecasting, potrebbe avvalersi delle metodologie e tecniche proprie dei DSS (Decision Support Systems), che vedono nei metodi della Analisi Multicriteri (ottimo di Pareto, Topsis, AHP, ecc), gli strumenti che permettono di giungere ad individuare decisioni quanto più possibile «dominanti» ed efficaci. Per giungere ad una Geographic Context Analysis è quindi necessario prima operare uno scanning dell’ambito territoriale da esaminare, ovvero occorre definire come individuare/selezionare il contesto geografico da esaminare, come estrarne i dati e le informazioni ad esso correlate ed infine definire l’ambito geografico sul quale verranno mappati i dati e le informazioni così estratte e le successive risultanze dell’analisi.
riamente localizzati/istanziati sul territorio. A ciascuna entità geometrico/cartografica così localizzata è previsto sia sempre associato/correlato un set di dati alfanumerici, che si presentano sotto forma di stringhe alfanumeriche rappresentative di dati, informazioni, hyperlink, ecc. Accedendo all’entità geometrica si è quindi sempre in grado di accedere al set di dati alfanumerici ad essa associati/correlati. Ogni entità geometrica è quindi assimilabile ad oggetto complesso costituito da due insiemi ed una relazione: il primo insieme contiene la geometria dell’entità, ed è in corrispondenza biunivoca con il secondo insieme, che contiene i dati alfanumerici correlati alla entità. Si può, infatti, facilmente verificare che in termini di insiemi e funzioni, detto P l’insieme contenente la geometria (il dominio), detto A l’insieme contenente i dati alfanumerici (il codominio), detta g una funzione iniettiva e suriettiva g: PA, una entità Eg è il grafico della funzione g, ovvero è l’insieme delle coppie ordinate ottenute come sottoinsieme del prodotto cartesiano PxA. Infine, il modello concettuale/logico su cui si opera prevede che le varie istanze delle entità geometrico/cartografiche georiferite sul territorio vengono ulteriormente associate a vari layer cartografici (strati logici), che fungono da contenitori tematici di entità geometrico/cartografiche relative/descrittive di specifici temi. Nella pratica implementativa la creazione e gestione delle entità, dei dati alfanumerici, delle associazioni/correlazioni tra entità geometriche/cartografiche istanziate sul territorio e dati alfanumerici e dei layer tematici può essere realizzata nei modi e con i meccanismi più vari e dipendenti dalla architettura del sistema.
Il modello concettuale/logico dei dati geografici Operare sui dati di un contesto geografico prevede la conoscenza del modello concettuale/logico dei dati con cui il contesto è rappresentato. L’approccio qui assunto è quello di prevedere un modello dei dati geografico/territoriali estremamente «generale», sul quale molti SIT web-oriented nella pratica convergono. Il modello prevede la presenza di diverse tipologie di entità geometrico/cartografiche vettoriali (punti di interesse, poligonali, poligoni, ecc), i cui esemplari, individualmente univocamente distinguibili, siano va-
Il Modello di Riferimento di una attività di Geographic Context Scanning and Analysis risulta quello descritto in fig. 1.
18
Il Modello di Riferimento di una attività di Geographic Context Scanning and Analysis
Fig . 1 – Il Modello di Riferimento di una attività di Geographic Context Scanning and Analysis. GEOmedia n°4-2013
FOCUS Il modello distingue quindi quattro task, da condursi logicamente in sequenza. I primi tre task, nel loro insieme, realizzano la macro-attività di Geographic Context Scanning. In particolare il modello prevede che tale macro-attività si appoggi a due oggetti complessi (il Geo-Contesto e la Geo-Zona) ed a due operazioni (lo scanning del GeoContesto ed il mapping dei dati desunti dallo scanning alla Geo-Zona). Il Geo-Contesto definisce quindi l’ambito territoriale da esaminare; la Geo-zona definisce l’ambito territoriale sul quale verranno mappati i dati e le informazioni desunte dal Geo-Contesto tramite una operazione di scanning, Questa differenziazione tra Geo-Contesto e GeoZona dispiegherà tutta la sua efficacia nel successivo ed ultimo task di Analysis, nel quale ad es. si potrebbe voler analizzare come specifici dati di business desunti da uno specifico Geo-Contesto (magari un distretto industriale nazionale) vadano ad impattare su di una Geo-Zona totalmente diversa (ad es. uno stato estero extra-europeo). L’ultimo task del Modello realizza la macro-attività di Geographic Context Analysis, che potrà essere condotta tramite una molteplicità di metodi di analisi, sino a poter sfociare nel forecasting e nell’avvalersi di metodologie e tecniche proprie dei DSS. Il Modello di Riferimento sopra esposto può essere complicato qualora sia necessario che la macro-attività di Analysis non fruisca solo dei dati estratti dal Geo-Contesto e mappati sulla Geo-Zona, ma si avvalga anche di dati estratti direttamente dalla Geo-Zona. Il tal caso il Modello di Riferimento assume la struttura descritta in fig. 2.
Fig . 2 – Modello di Riferimento con scanning su Geo-Contesto e Geo-Zona .
Le differenze rispetto al primo modello risiedono essenzialmente nell’attività di scanning, che ora è applicata anche alla Geo-Zona, e nell’attività di mapping, che ora associa/mappa alla Geo-Zona sia le informazioni desunte dal Geo-Contesto che quelle desunte dalla Geo-Zona stessa. E’ quasi ovvio notare che questa complicazione del Modello di Riferimento ha senso di esistere solo nei casi in cui Geo-Contesto e Geo-Zona risultano essere ambiti territoriali diversi. Descritti i Modelli di Riferimento è ora necessario indicare con un minimo di maggiore dettaglio significati e struttura del Geo-Contesto e della Geo-Zona. Il Geo-Contesto Un Geo-Contesto (GC) intuitivamente è un oggetto complesso costituito da un insieme di poligoni di un piano α disgiunti e/o incidenti solo sui bordi, in cui ciascun poligono è in corrispondenza biunivoca con un set di stringhe di simboli di un linguaggio finito. Il Geo-Contesto generalmente definisce il contesto geografico sul quale operare lo scanning, ovvero l’estrazione di tutti i dati accessibili ad esso correlati. L’oggetto complesso Geo-Contesto, essendo anch’esso descritto in termini di geometrie e dati alfanumerici correlati, è quindi congruente con il modello concettuale/logico «generale» dei dati geografici su cui si opera. Un Geo-Contesto può, quindi, essere popolato da poligoni disgiunti e/o incidenti solo sui bordi, ciascuno dei quali anche policiclico (con i cicli descrittivi di parti piene e/o vuote) ed in corrispondenza biunivoca con il proprio set di informazioni. visita il sito www.rivistageomedia.it
Poligoni incidenti solo sui bordi, che realizzano una mosaicatura di una porzione di piano, sono quindi idonei a concorrere ad un Geo-Contesto. Ciò comporta che una qualsiasi rete poligonale derivata da un grafo planare, si presta a concorrere alla componente geometrico/cartografica di un Geo-Contesto, con la parte di piano relativa al Geo-Contesto che risulta complessivamente individuata dal circuito massimale della rete poligonale che circonda l’intero grafo con tutte le sue facce (vedi fig. 3). Fig. 3 – Esempio di rete poligonale indotta da un grafo planare con evidenziato il circuito massimale – l’insieme dei poligoni potrebbe definire la parte geometrico/cartografica di un GeoContesto.
La presenza di una mosaicatura è d’altronde usuale in strutture di modelli del territorio rappresentati come TIN (Triangulated Irregular Network), DTM (Digital Terrain Model) grid-oriented o in suddivisioni territoriali ottenute tramite poligoni descrittivi di limiti amministrativi (Regioni, Province, Comuni, perimetri di zone di censimento Istat, ecc). I set di dati in corrispondenza biunivoca con i poligoni presenti in un GC, possono essere popolati innanzitutto da tutte le informazioni e i dati correlati/associati in modo diretto ai poligoni che concorrono a GC, ovvero le informazioni e i dati che possono essere logicamente visti come informazioni e valori di attributi direttamente associati a ciascun poligono di GC. A ciò andranno aggiunte tutte le informazioni desunte da una attività di scanning del contesto geografico definito dal GC. La Geo-Zona Una Geo-Zona (GZ) intuitivamente è un oggetto complesso costituito da un poligono di un piano π cui è associato un set di stringhe di simboli di un linguaggio finito. L’oggetto complesso Geo-Zona, essendo anch’esso descritto in termini di geometria e dati alfanumerici correlati, è quindi congruente con il modello concettuale/logico «generale» dei dati geografici su cui si opera. La Geo-Zona è l’ambito geografico definibile come il “porto di arrivo” delle informazioni estratte dallo scanning, e sarà l’ambito geografico sul quale verranno effettuate le analisi dei dati. Geo-Contesto e Geo-Zona possono anche essere ambiti geografici totalmente diversi, in quanto talvolta, soprattutto in merito a specifiche attività di analisi e business forecasting, è necessario esaminare uno specifico contesto territoriale - ad es. il Geo-Contesto relativo un ambito nazionale estremamente industrializzato -, ed associare/mappare i dati desunti da tale contesto ad un ambito territoriale diverso (la Geo-Zona) sul quale l’attività di business esplica taluni dei suoi effetti - ad es. la Geo-Zona relativa ad una provincia di uno stato estero sul quale i dati dell’ambito nazionale impattano e sul quale sviluppare analisi di business forecasting (vedi fig. 4)
Fig. 4 – il ruolo del Geo-Contesto (qui ad es. rappresentato dalle provincie della Lombardia) e della Geo-Zona (qui ad es. rappresentata dalla regione cinese del Xinjiang) nella definizione/individuazione di due ambiti territoriali diversi.
19
FOCUS Nulla osta, ovviamente, a che Geo-Contesto e Geo-Zona coincidano nella definizione dei rispettivi ambiti cartografici, anzi ciò risulterà la normalità nelle attività in cui sia il reperimento dei dati che l’analisi sui dati siano condotte e rivolte allo stesso ambito territoriale. Una Geo-Zona prevede la presenza di un solo poligono, sul quale non sono stati posti particolari vincoli topologico/geometrici. Tale poligono può quindi risultare anche policiclico, con cicli descrittivi di parti piene e/o vuote. Non sono stati posti vincoli rispetto al posizionamento reciproco di GeoContesto e Geo-zona e non sono stati posti neppure vincoli topologico/geometrici su se e come il poligono di Geo-Zona si debba relazionare con i poligoni del Geo-Contesto. La selezione e/o la creazione del poligono dello Geo-Zona è quindi priva di specifici vincoli, e tale ampia libertà permette, ad esempio, il poter popolare la Geo-Zona con uno dei poligoni che concorrono al di Geo-Contesto, con l’effetto di poter esaminare, tramite lo scanning, un contesto territoriale ampio (il Geo-Contesto) ed associare i dati desunti da tale ampio contesto ad una Geo-zona che è una porzione del GeoContesto stesso. L’effetto di una simile operazione sarebbe quindi quello di concentrare tutta l’informazione estratta da un ampio contesto territoriale in una zona che ne replica una porzione (vedi fig 5).
Fig. 5 – la logica dell’inclusione avendo quale poligono della Geo-Zona un poligono uguale ad uno dei poligoni del Geo-Contesto.
Si noti, inoltre, come possano essere individuate alcune analogie tra il modus operandi appena descritto e gli operatori locali, focali e zonali, così come definiti nella map algebra di Tomlin, la quale è però riferita essenzialmente ad operazioni su grafica di tipo raster. Geographic Context Scanning La fase di Geographic Context Scanning può essere più finemente logicamente decomposta, rispetto ai Modelli di Riferimento, in una sequenza di attività sequenziali:
a. definire l’istanza di una Geo-Zona, popolandola con il
poligono ed i dati e le informazioni proprie del poligono;
a.1 popolare l’istanza della Geo-Zona di tutte le ulteriori informazioni accessibili ad essa relative desunte da una attività di scanning condotta sull’ambito territoriale descritto dalla Geo-Zona stessa; b. definire l’istanza di un Geo-Contesto, popolandola con i poligoni ed i dati e le informazioni proprie dei poligoni; c. popolare l’istanza del Geo-Contesto appena definito di tutte le ulteriori informazioni accessibili ad essa relative desunte da una attività di scanning condotta sull’ambito territoriale descritto dal Geo-Contesto stesso; d. includere (mapping) nell’istanza della Geo-Zona i dati presenti nell’istanza del Geo-Contesto.
La Geo-Zona può quindi essere vista come il “porto di arrivo” della attività di Geographic Context Scanning, in quanto il suo poligono rappresenta l’ambito territoriale sul quale verrà mappato il set di dati ottenuti dalla scanning di un Geo-Contesto. Talvolta può essere utile e/o necessario includere in una Geo-Zona i dati di più Geo-contesti diversi, nel qual caso i task b, c e d sopra descritti vengono ripercorsi per ciascuna istanza di Geo-Contesto. L’attività a.1 implementa il secondo 20
dei Modelli di Riferimento sopra descritti, ovvero risulta necessaria solo quando, avendo Geo-Contesto e Geo-Zona che definiscono ambiti territoriali diversi, si voglia che i dati associati alla Geo-Zona siano anche quelli derivati da uno scanning relativo all’ambito territoriale della Geo-Zona stessa. L’attività di scanning si concretizza nella individuazione di tutte le entità geometriche (POI, spezzate e poligoni) che risultano accessibili e che risultano geometricamente contenute nel Geo-Contesto (ed eventualmente nella Geo-Zona stessa), e nella estrazione, di tutti i dati, le informazioni ed i rimandi (hyperlink) associati/correlati alle entità così individuate. In tale operazione i layer tematici giocano un ruolo fondamentale. A tal proposito è bene osservare che non tutti i dati sono effettive informazioni e che non tutto quanto è accessibile ed estraibile dallo scanning di un contesto può risultare utile ai fini della successiva analisi. L’eccesso di dati, magari non strettamente in tema e destrutturati, genera rumore, non informazione. In una attività di Geographic Context Scanning il permesso/diniego all’accesso a specifici layer tematici può essere visto come un filtro che permette di finemente regolare (fine tuning) lo scanning. Tale inclusione/esclusione permette quindi che l’operazione di scanning popoli il Geo-Contesto catturando dati ed informazioni correlate solo a strati ed entità la cui semantica è ritenuta di interesse per la successiva fase di analisi. Nella selezione delle entità che risultano geometricamente contenute nel Geo-Contesto giocano, inoltre, un ruolo fondamentale gli operatori booleani che individuano le relazioni topologiche (incidenza, adiacenza, contenimento) che sussistono tra entità geometriche. Tramite tali operatori è assai semplice, ad es. selezionare tutte le entità geometriche (punti di interesse, poligoni, spezzate) accessibili (ovvero relative a layer tematici di interesse resi accessibili) contenute (o strettamente contenute) nel Geo-Contesto, ed estrarne i dati alfanumerici ad esse correlati. L’informazione complessiva fornita dalla scanning, così come sopra descritto, non è, quindi nuova informazione, ma informazione preesistente associata/correlata ad entità geometrico/cartografiche preesistenti, informazione che tramite lo scanning viene reperita, con la precisazione che potendo assumere le stringhe di informazione anche la struttura di URL, nulla osterebbe a che tali hypelink venissero utilizzati, ex ante la fase di scanning, e/o a run-time durante tale fase avendone i mezzi tecnologici, per attivare navigazioni nell’ipertesto tese alla ricerca ed acquisizione su base semantica, guidata da opportune ontologie, di nuove informazioni da correlare alle varie entità i cui hyperlink avevano innescato la navigazione. Infine, l’attività di inclusione (mapping) nella Geo-Zona dei dati alfanumerici desunti dallo scanning del Geo-Contesto, verrà realizzata tramite operazioni booleane di unione, come esposto nel seguito. L’operatore di inclusione Definiti Geo-Contesto e Geo-Zona occorre individuare la modalità tramite la quale poter includere nella Geo-Zona i set di stringhe associati ai poligoni del Geo-Contesto. Chiameremo UNION_STR(X,Y) l’operatore che svolgerà tale operazione, ovvero l’operatore che tramite operazioni di unione includerà nei dati alfanumerici dell’entità/oggetto complesso Y, i dati alfanumerici dell’entità/oggetto complesso X. L’operatore UNION_ STR(X,Y) può quindi essere considerato come una procedura (o metodo) che permette di popolare i dati alfanumerici di una istanza di una entità/oggetto complesso Y con i dati alfanumerici associati ad una istanza dell’entità/oggetto complesso X. Le operazioni di unione permettono proprio di giungere ad un insieme di dati alfanumerici associati ad Y composto da uno o più insiemi non duplicati di sequenze di stringhe desunte da X. Inoltre valendo per l’operazione di unione sia la
GEOmedia n°4-2013
FOCUS proprietà commutativa che quella associativa, fissata l’entità/ oggetto complesso Y1 in cui si vogliono includere le stringhe, è possibile concatenare, in ordine qualsiasi, sequenze di operatori UNION_STR(Xi,Y1) che permettono di popolare Y1 con le stringhe desunte dai vari Xi. Ciò permette, ad esempio, di popolare i dati alfanumerici di una Geo-Zona (GZ1) con stringhe di simboli desunte da più Geo-contesti diversi (GCi), potendo attivare liberamente, ovvero senza dover rispettare alcun ordine di precedenza, la sequenza degli operatori, in quanto: UNION_STR(GC1, GZ1)○UNION_STR(GC2, GZ1) = UNION_ STR(GC2,GZ1)○UNION_STR(GC1, GZ1) come pure ((UNION_STR(GC1, GZ1)○UNION_STR(GC2, GZ1))○UNION_ STR(GC3, GZ1) = UNION_STR(GC1, GZ1)○(UNION_ STR(GC2, GZ1)○UNION_STR(GC3, GZ1)) in cui ○ è il simbolo che rappresenta la concatenazione della sequenza degli operatori, GZ1 rappresenta l’istanza di una Geo-Zona e GC1 e GC2, GC3 rappresentano tre istanze di GeoContesto (vedi Fig. 6).
il contesto geografico sul quale sviluppare lo scanning e la zona territoriale sulla quale si desidera mappare i risultati dello scanning. Si è quindi descritto l’operatore che permette la mappatura delle informazioni ottenute dallo scanning del contesto da esaminare nella zona territoriale di arrivo. Le strutture così definite e le proprietà dell’operatore permettono una ampia libertà operativa nella definizione di contesto, zona, tipologia di dati/informazioni gestibili e composizione di sequenze di operatori. L’aver disaccoppiato l’attività di scanning da quella di analysis permette, inoltre, di poter individuare in modo appropriato, sulla base delle varie esigenze e finalità, le classi di metodi e di tecniche da utilizzare nella fase di analisi, potendoli ora scegliere in modo ottimale ed aderente ai risultati cui si vuole pervenire (KPI – Key Performance Indicators, business forecasting, individuazione di decisioni Pareto-ottime dominanti in ambito di tecniche di DSS, ecc). La teoria ed i metodi esposti concorreranno alla evoluzione del framework GEOPOI 2.0 (Geocoding Points Of Interest 2.0), ciò che permetterà che le tante Amministrazioni che già fruiscono di tale prodotto/servizio, sotto forma di SaaS (Software as a Service) personalizzato ed incluso in pagine di mashup, abbiano a disposizione anche un congruente ed articolato complesso di funzionalità e metodi con cui attivare le sempre più richieste e necessarie attività di Geographic Context Scanning and Analysis in ambito istituzionale, ai fini di ausilio alle «analisi territoriali» e di «supporto alle decisioni».
Bibliografia
Fig. 6 – schematizzazione della logica di inclusione di più set di stringhe di Geo-Contesti diversi nel set di stringhe di una GeoZona, risultato ottenibile tramite la libera concatenazione di operatori GZ_UNION_STR( GCi,GZ1), con i=1..n
Dipendentemente dalla natura degli oggetti complessi X e Y, la logica interna dell’operatore UNION_STR dovrà gestire le varie operazioni di unione necessarie, attivandole sugli opportuni insiemi di dati alfanumerici. Geographic Context Analysis L’analisi di un contesto geografico è l’attività che logicamente segue quella di scanning, ed è svolta con i metodi e le tecniche più varie, in quanto deve essere sviluppata per perseguire un qualche fine estremamente specifico. Qualora l’analisi voglia tendere ad essere di ausilio ad attività decisorie, le modalità e le tecniche proprie della Analisi Multicriteri sono quelle maggiormente utilizzate, tanto che si è sviluppata la tematica dei cosiddetti “Multicriteria Spatial Decision Support Systems” (MC-SDSS), ovvero la realizzazioni di sistemi di supporto alle decisioni che utilizzano Analisi Multicriteri che fruiscono anche di dati e criteri desunti dalla informazione geografica. Lo scanning del contesto geografico contribuisce proprio a reperire tale tipologia di informazioni, fornendo, aggregato su base geografica, quanto di conosciuto risulta associato/correlato ad entità georiferite sul territorio. Conclusioni L’introduzione della formalizzazione di una attività di Geographic Context Scanning ha permesso di definire il contesto metodologico/operativo in grado di reperire ed aggregare, su base geografica, le informazioni sulle quali potrà operare la successiva, più nota ed evocativa, fase di Geographic Context Analysis. Le strutture individuate permettono di definire visita il sito www.rivistageomedia.it
1. Egenhofer M., Formal Definition of Binary Topological Relationships, Lecture notes in Computer Science, Vol 387, June 1989; 2. Càmara G., ed altri, Towards an Algebra of Geographic Fields, VII Simposio Bresileiro de Computacao Grafica e Processamento de Imagens, Anais, Curtiba, 1994, pp 205-212; 3. Randell D., ed altri, A Spatial Logic based on Regions and Connection – 3rd I nt. Conf. on Knowledge Representation and Reasoning, Morgan Kaufmann, 1992; 4. Tomlin, D, Geographic Information Systems and Cartographic Modeling, Englewood Cliffs, NJ, Prentice-Hall, 1990; 5. M. Rosina, A. Bottaro, GEOPOI per la geocodifica dei punti di interesse rivista GEOmedia Nro. 2, 2007 – pp 15-17; 6. M. Rosina, Visual Programming per l’interfaccia utente di GEOPOI 2.0 in Sogei – rivista GEOmedia Nro. 2, 2012 – pp 28-30;
Abstract The aim of the article is to define a Reference Model and the operators which allow to perform the activities of Geographic Context Scanning & Analysis. The theory and methods exposed will contribute to the evolution of the framework GEOPOI 2.0, developed and delivered by Sogei and accessed as a SaaS (Software as a Service) by a number of Public Administrations for your own institutional tasks.
Parole chiave Geographic context analysis; geographic context scanning; Modelli di riferimento; Multicriteria Spatial Decision Support Systems
Autore Maurizio Rosina mrosina@sogei.it RIE.RIS - Ricerca e Sviluppo - SOGEI S.p.a., Roma
21
MERCATO
Aggiornate le direttive tecniche sui metadata INSPIRE Le direttive sui metadata INSPIRE sono state aggiornate alla nuova versione (1.3) che chiarisce alcuni aspetti dell'implementazione degli elementi di discoveries dei metadati basati sull'esperienza realizzata durante il periodo di attuazione 2010-2013. Includono anche una panoramica degli elementi di metadati per la valutazione ed uso di cui alle INSPIRE implementing rules per l'interoperabilità dei set di dati territoriali e dei servizi. Le modifiche introdotte rispetto alla versione 1.2 del 2010-06-06 includono la riformulazione per rendere più chiaro il testo, l'inserimento di esempi di buone prassi, raccomandazioni sulla conformità per includerla anche negli INSPIRE network services e una tabella riassuntiva degli elementi di metadati per la valutazione e l'uso definiti nel Regolamento di esecuzione INSPIRE per l'interoperabilità dei set di dati territoriali e dei servizi. Nella sezione documenti del sito http://inspire.jrc.ec.europa.eu è disponibile il documento con le nuove regole.
22
Una soluzione di guida automatizzata da Topcon Precision Agriculture Topcon Precision Agriculture, con una storia di più di 80 anni di tecnologia e di posizionamento avanzato, offre una linea completa di controllo di macchine e di soluzioni di automazione nel settore agricolo. La tecnologia Topcon include sistemi di controllo dello sterzo di alta precisione (sistemi 350 e 150) con le console, come il nuovissimo X30, che forniscono il controllo per vari tipi di prodotti agricoli compresa la connettività ISO-Bus per la semina e la spruzzatura, nonché CropSpec per il rilievo delle colture e il software per agronomia SGIS. Inoltre, Topcon offre una linea completa di sistemi di posizionamento guidato GNSS assistiti da sistemi di controllo di pendenza basata su laser per la modellazione della terra, il drenaggio e la gestione delle acque. Nella figura è mostrato AGI-4, la prima soluzione industriale di sterzo completamente integrato con un'interfaccia semplice e facile con molti produttori di "terminali virtuali", con ricezione satellitare GNSS multiple-costellazione, sensori inerziali allo state-of-the-art. (Fonte: Aghritecnica)
GEOmedia n°4-2013
MERCATO
SPAR Europe e European LiDAR Mapping Forum insieme un grande successo Dal 11 al 13 novembre scorso SPAR Europe e European LiDAR Mapping Forum (ELMF) hanno avuto luogo insieme per la prima volta con più di 550 professionisti coinvolti nel geospatial mapping, GIS e multi-dimensional imaging per una opportunità di aggiornamento e conoscenza, imparare best practices, scoprire nuove tecnologie e fare rete con gli altri. L'evento ha avuto luogo al Passenger Terminal Amsterdam e al Mövenpick Hotel in Amsterdam. Le sessioni ELMF sono state focalizzate nell'uso del LiDAR per supportare i trasporti, lo urban modelling, il coastal zone mapping, lo utility asset management, il 3D visualisation e le GIS applications per un largo range di operatori che spaziavano da dipartimenti governativi a imprese commerciali di mapping. Le sessioni dello SPAR Europe hanno visto temi sulla formazione di ingegneri, surveyors, architetti, costruttori e altri sugli ultimi strumenti per la misurazione e il trattamento di immagini 3D per i settori industriali collegati ai processi e all'energia, costruzioni e architettura, infrastrutture civili e trasporti, sicurezza e geomatica forense, conservazione digitale dei beni culturali. Oltre alle più di 90 presentazioni formative, gli eventi hanno usufruito di domostrazioni dal vivo, veicoli per il mobile mapping, opportunità di scambio e mostra, tutti focalizzati sul mercato della misura e trattamento immagine 3D e del LiDAR. (Fonte: SPAR Point Group)
visita il sito www.rivistageomedia.it
Migliaia di droni commerciali entro i prossimi cinque anni negli Stati Uniti Il capo della Federal Aviation Administration statunitense (FAA), su un articolo apparso sul Washington Post nei giorni scorsi, ha predetto che lo spazio aereo degli Stati Uniti potrebbe essere affollato da migliaia di droni commerciali entro i prossimi cinque anni e per questo ha svelato un progetto normativo che cerca di proteggere la privacy degli americani. Michael Huerta ha detto inoltre che la FAA avrebbe istituito sei siti in tutto il paese per testare operatori e droni, ma ha avvertito che ci potrebbero essere ritardi per coloro che cercano di ottenere i certificati per operare velivoli senza pilota una volta le linee guida di legge siano messe a punto. Ha detto anche che garantire la sicurezza nei cieli sempre più congestionati è una priorità della sua agenzia. Questo annuncio della FAA è l'ultimo passo nella marcia verso la transizione dei droni dall'uso militare nella guerra al terrorismo, che li ha resi famosi, alle applicazioni civili di svariata natura. L'Associazione Unmanned Vehicle Systems, il gruppo commerciale leader per gli operatori di droni del settore privato del paese, ha stimato quest'anno che l'industria del drone commerciale creerà più di 100.000 posti di lavoro e genererà più di 82 miliardi dollari di impatto economico nel corso dei prossimi 10 anni, se il governo si muove rapidamente per stabilire norme operative praticabili e tutele. In Italia, ad un anno dalla sua fondazione, la ASSORPAS associazione italiana per gli aeromobili leggeri a pilotaggio remoto organizza oggi 13 novembre 2013 un workshop nazionale, aperto a tutti, sullo stato e le prospettive della filiera italiana degli APR (Aeromobile a Pilotaggio Remoto), comunemente noto come drone.
23
MERCATO Monitoraggio e modelli 3D del sottosuolo di Ferrara per mitigare il rischio sismico L'Università ed il comune di Ferrara, insieme ad un team di aziende private tra cui Sinergis, specializzata in soluzioni GIS per le PA e le utility, si sono aggiudicati un finanziamento da 20 milioni di euro per realizzare il progetto di monitoraggio del sottosuolo della città di Ferrara con lo scopo di attenuare il rischio sismico. Obiettivo del progetto CLARA è l'utilizzo di nuove tecnologie di monitoraggio con sensori, l'acquisizione di dati e la realizzazione di modelli 3D del sottosuolo da utilizzare come base informativa utile per valutare sia interventi progettuali sulle reti tecnologiche cittadine sia la vulnerabilità del patrimonio architettonico di Ferrara. Ferrara è una delle tre sole città italiane, con a Matera ed Enna, che si sono aggiudicate il finanziamento del MIUR, messo a disposizione con il bando "Smart Cities".
(Fonte: Sinergis)
Accordo tra Regione Toscana e Associazione GFOSS per la promozione di open source e open data Un accordo per favorire l'utilizzo del software geografico free e open source congiuntamente all'utilizzo di open data. Lo ha stipulato la Regione Toscana con l'Associazione Italiana per l'Informazione Geografica Libera (GFOSS.it). "L'accordo sancisce - afferma l'assessore a urbanistica, pianificazione del territorio e paesaggio Anna Marson - la collaborazione in corso da tempo tra il Sistema Informativo Territoriale e ambientale della Regione Toscana e le comunità impegnate nello sviluppo, diffusione e tutela del software libero e open source per l'informazione geografica". Scopo dell'accordo è dare rilievo alle attività condotte dalla Regione nell'uso e diffusione all'interno dell'ente degli strumenti Gis free e open source (quali Quantum Gis, Grass, Spatialite, Librecad, ecc.) e nel rilascio dei dati geografici con formati aperti seguendo le strategie della direttiva europea Inspire. L'obiettivo è anche quello di sollecitare altri enti e soggetti pubblici della Toscana a pubblicare progressivamente in formato open data i propri patrimoni informativi, attivando servizi geografici Inspire per consentirne visibilità e riuso da parte delle amministrazioni e del cittadino. "Si tratta in pratica di favorire - spiega l'assessore Marson - l' accessibilità del patrimonio informativo territoriale ed ambientale rispondendo alle sollecitazioni che giungono dalle Direttive europee in materia di informazione del cittadino e di partecipazione ai processi decisionali, e di allinearsi alle più recenti indicazioni dell'Agenda digitale europea e italiana". (Fonte Regione Toscana)
Leica GeoAce per il posizionamento in agricoltura Leica GeoAce è un sistema GNSS di correzione differenziale come stazione base RTK specificamente progettata per il settore agricolo. Uno strumento resistente associato ad un insieme di funzionalità avanzate che garantisce una vera portabilità sul campo consentendo, al contempo, di ridurre i tempi di correzione. Il massimo risultato si ottiene grazie alla integrazione di Leica GeoAce con Leica mojo3D e Leica mojoXact. Il sistema Leica mojo3D è un elegante sistema di guida visiva di precisione progettato per contribuire a risparmiare, immediatamente e per il futuro, tempo e denaro. Dotato di molte migliorie all’avanguardia nel settore, Leica mojo3D è un sistema di guida visiva versatile, dotato di numerosi aggiornamenti delle funzioni che consentono agli utenti di personalizzare il sistema per adattarlo alle proprie esigenze. Leica GeoAce, uno strumento resistente associato ad un insieme di funzionalità avanzate specificamente sviluppato pensando agli agricoltori, assicura il massimo rendimento riducendo significativamente le sovrapposizioni e gli sprechi sul campo.
24
(Fonte: Leica Geosystem)
GEOmedia n°4-2013
MERCATO Tutta la tecnologia di LEICA MULTISTATION MS50 a disposizione anche in noleggio Da oggi è finalmente possibile noleggiare la Leica Multistation MS50 serie NOVA anche per pochi giorni, approfittando dell'opportunità offerta da Teorema srl di Milano, Agenzia Regionale Leica Geosystems. Tutti i benefici derivanti dalla scansione 3D di dettaglio, dal rilievo puntuale di precisione, dalle immagini digitali e dalla connettività GNSS sono ora racchiuse nella MultiStation Leica Nova. Una soluzione rivoluzionaria dotata di una tecnologia di misura avanzata che fornisce precisioni e qualità senza confronti, ma facile da utilizzare in diversi ambiti di applicazioni. Le caratteristiche della MultiStation Leica Nova sono veramente complete e seconde a nessuno. Immagini semplici da comprendere MERGETEC esalta la nostra esperienza nella tecnologia di Stazioni Totali e Laser Scanner. Unisce in modo unico e nuovo le ultime tecnologie nel campo delle misure di precisione con Stazione Totale, delle immagini digitali, della scansione laser 3D e il posizionamento GNSS. Non si tratta solo di un’integrazione hardware, ma anche di un’integrazione globale dei dati; le immagini sono sincronizzate con le nuvole di punti e le scansioni sono legate alle misurazioni eseguite con la Stazione Totale. Questo è il modo più semplice per affrontare la complessità dei dati 3D. Scansione integrata di ogni dettaglio Leica Nova MS50 integra la misura di nuvole di punti 3D in un flusso di lavoro lineare. Questo ti permette di acquisire e visualizzare i dati del tuo rilievo topografico insieme a scansioni molto dettagliate di alta precisione. Risparmia tempo controllando i tuoi dati direttamente sul campo per evitare costose ripetizioni del lavoro. Trai vantaggio da dati molto più dettagliati che ti permetteranno di fare scelte migliori. Tecnologia collaudata per una versatilità senza confronti Leica Nova MS50 fornisce le funzionalità tipiche della stazione totale, integrate da un sensore per elevate precisioni ed alte prestazioni in una procedura di misura completamente automatica. Grazie ai vantaggi della connettività GNSS, Leica Nova MS50 offre la più completa versatilità fornendo risultati affidabili dove e quando ne hai bisogno. Assistenza Immagini in ogni situazione Leica Nova MS50 è caratterizzata da una fotocamera panoramica grandangolare e da una fotocamera coassiale dotata di 30 ingrandimenti ed autofocus. La tecnologia di elaborazione immagini fornisce un flusso di dati video in tempo reale sullo schermo al fine di visualizzare un’immagine di alta qualità. Le funzionalità imaging di Leica Nova MS50 aprono nuove opportunità per poter utilizzare la MultiStation in un’infinità di applicazioni. Software per la nuova Serie Leica NOVA • • •
Leica Infinity l’intuitivo software per Office Leica Multiworx per AutoCAD Leica GeoMoS per monitoraggio
Per maggiori info vai su WWW.GEOMATICA.IT (Fonte: Teorema)
visita il sito www.rivistageomedia.it
25
MERCATO Trimble TMX -2050 per l'automazione geomatica in agricoltura
Nuovo Laser Scanner FARO Focus3D X 330: lo strumento perfetto per la documentazione 3D e i rilievi topografici
Il display Trimble TMX -2050 è una piattaforma di visualizzazione di nuova generazione per le applicazioni di agricoltura di precisione in un unico dispositivo. E 'stato sviluppato per supportare offerte di precisione per l'agricoltura tradizionale, nonché consentire una gestione decisionale in tempo reale. Il display multi-touch ad alta definizione è dotato di una nuovissima interfaccia utente costruita sul sistema operativo Android. La piattaforma è integrata direttamente nel Trimble Connected Farm - una soluzione per la gestione delle operazioni agricole completa. L'interfaccia utente intuitiva e il sistema operativo consentono la connettività basata su cloud. Il TMX -2050 è progettato per tutti i tipi di veicoli agricoli, supportando tutti gli standard di settore, nonché tutti i tipi di sterzo e di precisione. Trimble, con sede centrale a Sunnyvale / CA ( USA), è un fornitore leader di soluzioni avanzate basate sulla localizzazione. La società integra la sua esperienza nel posizionamento GPS, laser, tecnologie ottiche e inerziali con software applicativo, comunicazioni wireless e servizi per fornire soluzioni commerciali complete per diversi settori tra cui l'agricoltura. Trimble Agricoltura offre soluzioni di agricoltura di precisione affidabili per ogni fase del processo di coltivazione. Le soluzioni complete consentono agli agricoltori di lavorare in modo più efficiente, risparmiare sui costi di produzione e aumentare la resa e la produttività. Per garantire un migliore processo decisionale, Trimble offre la soluzione integrata di gestione delle operazioni Connected Farm che comprendono: schermi di orientamento, sistemi sterzanti, sistemi GPS / GNSS, servizi di correzione, flusso e il controllo delle applicazioni, il monitoraggio dei rendimenti, la gestione dell'acqua, computer portatili e software di gestione delle aziende agricole. (Fonte: Trimble)
FARO Technologies e TOPCON Europe, distributore esclusivo per l'area EMEA, annunciano il lancio del nuovo Laser Scanner Focus3D X 330. Basato sul successo del Focus3D, il nuovo Focus3D X 330 migliora i modelli precedenti sia in termini di funzionalità, che di prestazioni. Con una portata quasi tre volte maggiore rispetto a quella dei suoi predecessori, Focus3D X 330 permette di eseguire la scansione di oggetti fino a 330 metri di distanza e in condizioni di luce solare diretta. Grazie al suo ricevitore GPS integrato, il Laser Scanner è in grado di unire le singole scansioni in fase di post-elaborazione, risultando ideale per tutte le applicazioni topografiche. Inoltre, la qualità di scansione del Focus3D X 330 è stata ulteriormente migliorata mentre il rumore è stato ridotto, consentendo di generare precisi modelli tridimensionali in stile fotorealistico. Questi miglioramenti a livello di prestazioni non sono avvenuti a discapito della sicurezza, come dimostra il fatto che il Focus3D X 330 sia dotato di un laser di Classe 1 “eye safe”. “Il suo peso minimo, l'ingombro ridotto, il touch screen, la scheda SD e la durata della batteria pari a 4,5 ore rendono il Focus3D X 330 imbattibile e semplice da utilizzare”, sottolinea il Dr. Bernd Becker, Chief Technology Strategist per il nuovo Focus3D X 330. “Nessun altro fornitore è in grado di offrire un dispositivo con queste caratteristiche tecniche”. Grazie a portata e qualità di scansione migliorate, FARO Focus3D X 330 riduce considerevolmente le attività di misurazione e post-elaborazione. I dati di scansione 3D possono essere facilmente importati in tutte le soluzioni software comunemente utilizzate per la ricostruzione degli incidenti, l'architettura, l'ingegneria civile, l'edilizia, le indagini forensi, la produzione industriale e i rilievi topografici. Il calcolo di distanze, aree e volumi, le attività di analisi e ispezione e la documentazione possono quindi essere eseguite in modo rapido, preciso e affidabile. (Fonte: Topcon)
Proposta GLONASS per interscambio dati tra sistemi GNSS Gli scienziati russi propongono un nuovo formato ad accesso multiplo per la trasmissione dei messaggi del nuovo GLONASS L3. Nell’ambito della modernizzazione della costellazione GLONASS questo faciliterà l’interoperabilità e l’interscambio (eventuale) di dati con altri segnali GNSS. Il formato flessibile proposto consentirà facili aggiornamenti nel messaggio di navigazione, se richiesto. Il Messaggio di Navigazione (NM) sviluppato e trasmesso attualmente dal sistema GPS e da GLONASS è fisso con strutture regolari che includono pagine (frames), righe (subframes) e parole. Sebbene sia molto semplice, questa struttura è molto conservativa e la sola possibilità di aggiornare questo tipo di messaggio è comune ristretta all’uso dei frames programmati. Evitare tutte le difficoltà conseguenti a questa rigidità di struttura è possibile con un nuovo tipo di Messaggio di Navigazione a struttura flessibile. (Fonte GPS World)
26
GEOmedia n°4-2013
SOLUZIONI INTEGRATE GIS - TELERILEVAMENTO - FOTOGRAMMETRIA Nell’ambito delle strategie del gruppo Hexagon AB, la rete commerciale e i prodotti di ERDAS sono stati incorporati in Intergraph, estendendone l’offerta e la capacità di veicolare i prodotti sul mercato attraverso un referenziato canale di distribuzione, la società Planetek Italia. Il nuovo portafoglio di soluzioni è oggi perfettamente in grado di integrare GIS, Telerilevamento e Fotogrammetria, coprendo l’intero ciclo di vita del dato: Acquisizione, Elaborazione, Gestione e Distribuzione. La nuova offerta di Intergraph fornisce una soluzione globale “GeoSpatial” a 360°: la connessione nativa e l’integrazione di complesse elaborazioni ed analisi (vector, raster e video), permette di trarre il massimo vantaggio dalle molpeplici sorgenti dell’informazione geografica, realizzando così sistemi di “REAL TIME DYNAMIC GIS”.
geospatial.intergraph.com/2013
© 2013 Intergraph Corporation. Intergraph is part of Hexagon. All rights reserved. Intergraph and the Intergraph logo are registered trademarks of Intergraph Corporation or its subsidiaries in the United States and in other countries.
Crisi o non crisi, continuiamo a crescere. Ma non è solo questione di fortuna. La crisi colpisce tutti, per carità. Ma la vita va avanti e – soprattutto per chi fa un lavoro molto specializzato, come noi – c’è sempre mercato. A patto di lavorare bene, s’intende. E di aver fatto in passato scelte corrette, sviluppando competenze che con il tempo crescono di valore. Da molti anni, investiamo costantemente in R&D studiando soluzioni innovative per semplificare l’uso delle applicazioni geospatial, creare interfacce sempre più intuitive e integrare in maniera trasparente i dati geo-spaziali nella filiera produttiva, migliorando in modo significativo la performance dei sistemi IT. Parallelamente, abbiamo messo a punto procedure che consentono di raggiungere l’eccellenza di prodotto nel rispetto dei tempi e del budget, con un livello qualitativo sempre certificato. Inoltre, abbiamo percorso prima di altri la strada del software open source, liberando i nostri clienti da molte rigidità tecnologiche e garantendo la massima qualità a costi competitivi Grazie a tutto questo, siamo riusciti a competere con successo in Russia, Kosovo, Romania, Turchia, Siria, Cipro, i Caraibi. GESP Srl MILANO - BOLOGNA - TORINO http://w w w.gesp.it - gespsr l@gesp.it
E oggi affrontiamo nuove sfide in un contesto sempre più globale e allargato: attualmente, i nostri programmatori e i nostri tecnici sono attivi in quattro continenti e una parte consistente del nostro fatturato proviene da clienti esteri. Continuiamo a crescere, sia in temini economici, sia in termini dimensionali. I nostri collaboratori aumentano, abbiamo aperto nuove sedi e stiamo entrando in mercati che richiedono applicazioni geospatial sempre più evolute, come i trasporti, le telecomunicazioni, l’ambiente e i beni culturali. Insomma, crisi o non crisi, continuiamo a perseguire il nostro obiettivo di fondo: confermare il trend che negli ultimi anni ci ha permesso di diventare una tra le principali realtà italiane nel settore del GIS. Non solo grazie alla buona sorte.
MERCATO LoCo Connect 2014 la prima conferenza in Europa su Indoor Mapping e Location Based Services
Alla conferenza parteciperanno managers ed esperti del settore provenienti da tutta Europa per discutere i trend di mercato e per condividere esperienze e politiche industriali. "E' straordinario vedere così tanti esperti e pionieri del settore, investitori, imprenditori e giovani startups pronti a condividere le proprie conoscenze e mostrare le novità e le innovazioni delle proprie realtà aziendali" dice Stavros Prodromou, organizzatore dell'evento. Parteciperanno come speakers alcuni tra i più importanti alti dirigenti delle migliori aziende del settore come Qualcomm, Sensewhere, Nokia Growth Partners, Rabobank, AbnAmbro, Indoor Atlas, Bytelight, Forbes, Mashable, Visa, Yoose, Timeout, Out there Media, Blismedia e altre ancora. Il content della conferenza è uno dei principali punti di interesse per le centinaia di "high professionals" che vi parteciperanno: il programma è incentrato sull'attuale stato del Local Commerce e le opportunità di investimento che esso può offrire, sul Location Based Advertisement, sul futuro dei sistemi di pagamento nell'era "Mobile", sull'Indoor Location, sui Trend e le innovazioni riguardo Indoor Positioning & Advertising. Le possibilità di networking, con managers esperti ed alti dirigenti delle principali aziende del settore, che la partecipazione a questo evento internazionale offre sono incredibili e senza pari. http://lococonnect.com L'evento si terrà ad Amsterdam, il 28 gennaio 2014, e sarà ospitato nella hall principale dell'antico edificio "Beurs van Berlage".
Fotogrammetria e scansione laser sullo stesso aereo Diamond Aircraft, in Austria, ha introdotto il nuovo GEOSTAR DA42 che consente la raccolta contemporanea di dati di scansione laser e di fotogrammetria durante lo stesso volo. Il team della Diamond Airborne Sensing (filiale della Diamond Aircraft), ha annunciato di essere riuscita ad effettuare una integrazione perfetta del sensore sul DA42 MPP, la piattaforma di telerilevamento più economica del mondo Entrambi i sistemi sono integrati con risorse sufficienti di carburante e di volo per l'equipaggio. La GEOSTAR è in grado di completare voli della durata di 10 ore, il che significa che a una altitudine di 10.000 piedi può anche raccogliere dati in un area fino a 3.400 chilometri quadrati, come la dimensione dell'isola spagnola di Mallorca, durante un solo singolo volo. Una camera fotogrammetrica, installata nella piattaforma speciale sulla punta del velivolo, offre accurate riprese aerofotogrammetriche che danno accurate rappresentazioni della superficie terrestre, adatte alla produzione di ortofoto. Un laserscanner cattura la topografia del terreno sparando un raggio laser e misurando il tempo necessario all'impulso laser per essere riflesso indietro da un punto. Il risultato delle misurazioni raccolte è un modello digitale nella forma di una nuvola di punti. Lo scanner è montato sulla pancia del velivolo in una piattaforma appositamente progettata. Fondendo l'ortofoto con la nuvola di punti si ottiene un realistico modello preciso, 3D dell'oggetto. Il GEOSTAR è particolarmente adatto per il rilievo di città, di grandi aree territoriali, di infrastrutture critiche (quali oleodotti), ghiacciai o campi di neve, ma anche per mappare i danni causati da disastri naturali. Il velivolo per queste speciali missioni adotta una tecnologia allo stato dell'arte di aziende rinomate: 4Long-range airborne laser-scanner LMS - Q780 della Riegl Laser Measurement Systems 4Camera fotogrammetrica UltraCam LP di Microsoft / Vexcel Imaging 4Gyro stabilizzazione SSM 350 L von Somag per la drastica riduzione dei movimenti della camera 4Sistema di gestione dei voli CCNS 5 / AEROCONTROL 2 da IGI Sistemi per l'orientamento , il posizionamento e la gestione dei sensori. www.diamond-sensing.com (Fonte: Gim International)
Nuove funzionalità per il ricevitore GNSS RTK HiPer SR di Topcon Quando venne presentato nel 2012, Topcon HiPer SR cambiò lo standard dei ricevitori GNSS RTK introducendo il ricevitore di precisione integrato più compatto e dal design più leggero, di qualsiasi altro ricevitore sul mercato. Oggi sono state aggiunte funzionalità, tra cui l'opzione del modem cellulare ed una card dual SIM per consentire l'uso del ricevitore sul campo senza interruzioni. Il nuovo HiPer SR ha due opzioni di comunicazione: la tecnologia Topcon LongLink per connessioni wireless senza interferenze nell'utilizzo sulla corta distanza (fino a 300m) e modem cellulare per un più ampio raggio operativo, compreso l'utilizzo base-rover nelle soluzioni RTK. Ulteriori nuove soluzioni di Topcon, tra cui MAGNET Relay RTK service, consente ad HiPer SR di poter essere utilizzato come base mobile RTK “trasmettendo” correzioni dalla base fino a 10 rover con MAGNET Enterprise “cloud.” Tra le caratteristiche, l'esclusiva tecnologia Vanguard 226-canali con Universal Tracking.” HiPer SR include anche la tecnologia brevettata Topcon Fence Antenna che fornisce sensibilità di tracciamento del segnale e riduzione del multi-path, leader del settore. (Fonte: Topcon Italia)
visita il sito www.rivistageomedia.it
29
REPORTS
Modello logico e realizzazione di un Sistema Informativo Territoriale per la gestione selvicolturale di Federico Foria
Creare strumenti informativi finalizzati ad una gestione selvicolturale volta ad incrementare le funzioni protettive delle foreste e dei boschi e la conservazione dei suoli tramite software GIS. Il Sistema Informativo Territoriale avrà lo scopo di contenere le cartografie che costituiscono la base per i servizi di monitoraggio, di analisi e di supporto ad ogni forma di intervento.
O
ggi giorno sempre più aziende e liberi professionisti nel campo dei Sistemi Informativi Geografici (GIS) attingono il proprio lavoro da bandi di concorso pubblici per la produzione di cartografia e servizi. Il software GIS, infatti, ci permette di generare, gestire e analizzare dati spaziali o georiferiti (ovvero con un preciso sistema di riferimento) associando loro dati alfanumerici che a loro volta possono essere modificati, richiamati, calcolati e collegati. I dati, inoltre, possono essere predisposti in singoli file o, come nel caso che si andrà ad analizzare, in database relazionali che permettono una perfetta organizzazione e strutturazione dei file. Anche solo leggendo il concetto si intuiscono le potenzialità del mezzo in esame, che giustificano un’appetibilità, sempre maggiore, nei confronti di questa tecnologia (soprattutto da parte degli enti pubblici). Ci si propone, nel seguito, di analizzare un tipico SIT contenente la mappatura finalizzata alla gestione selvicolturale volta ad incrementare le funzioni protettive delle foreste e dei boschi e la conservazione dei suoli (es. Comunità Montana, Ente Parco, etc.). Il SIT consente l’organizzazione dei dati geografici che risultano di rapida consultazione grazie al software GIS, fondamentale, quindi, nella fasi di supporto alle attività di monitoraggio, di analisi e di supporto agli interventi in caso di eventi calamitosi. Il sistema sarà costituito da una banca dati geografica in formato digitale con mappe tematiche, statistiche e specialistiche. La selezione proposta delle cartografie è il frutto dell’analisi di capitolati tecnici mentre gli algoritmi di produzione sono il risultato dello studio e dell’esperienza lavorativa.
Il SIT e il Geodatabase Nel corso dell’articolo si farà continuamente riferimento a terminologie e algoritmi presi “in prestito” principalmente dal software ArcGIS, per il motivo legato alla sua grande diffusione in ambito tecnico e didattico. Questo non deve costituire un limite per il lettore, basti pensare che quando si parla di Geodatabase (ESRI), allo stesso modo si potrebbe di PostGIS (estensione spaziale per il database PostgreSQL con licenza libera) o quando si menzionano i tool di ArcToolbox si possono usare al pari quelli dell’estensione SEXTANTE, supportata dai principali software GIS open source. Innanzitutto per Sistema Informativo Territoriale si intende l’insieme dei dati geografici organizzato per un certo territorio, nel quale il GIS rappresenta lo strumento con cui visualiz30
zare, analizzare e modificare i dati. Il database geografico o geodatabase è l’archivio dei dati territoriali e delle loro relazioni, strutturato in classi di elementi che ne garantiscono un accesso efficace ed efficiente. Anche se non vi si farà mai riferimento nel corso dell’articolo, costituiscono un elemento imprescindibile del SIT e punto di partenza per ogni dato del geodatabase, il dominio spaziale (porzione geografica a cui facciamo riferimento) e il sistema di riferimento, rispetto al quale tutti i dati dovranno avere uniformità. Seguendo il nostro iter, l’archivio e la sua strutturazione sono il primo passo e vengono definiti nel modello concettuale e successivamente realizzati in un modello fisico. Per fare ciò bisogna avere un quadro del tipo di dati che si andranno ad immagazzinare nel geodatabase, nel caso specifico si useranno sia raster che vettoriali. Il raster è un formato GRID in cui il pixel è l’unità di minima informazione. La cella contiene un valore che, oltre alla posizione geometrica, può indicarne un carattere grafico (colore) o una grandezza continua (quota, temperatura, indice di pericolosità, etc.). Il raster, con la sua struttura matriciale, si adatta bene a contenere molti tipi di informazioni; operativamente viene impiegato per immagini (cartografia, foto aree, immagini multispettrali), DEM (Modello Digitale di Elevazione), classificazioni (pericolosità, vulnerabilità) e distribuzioni di grandezze. Nel caso in esame si prevede nel geodatabase cartografia di base in forma di scenari raster (CTR, coperture ortofotogrammetriche) e mappe specialistiche in layer singoli (DEM, acclività, pericolosità). La caratteristica discriminante nei confronti del raster è la risoluzione. Questo significa che il file presenta una visualizzazione pulita ad una determinata scala, ma se ad esempio si procede con uno zoom in la rappresentazione del dato tenderà a sgranare. Per il motivo sopra descritto, per la rappresentazione di altre categorie di dati è preferibile la tipologia vettoriale. I dati vettoriali sono costituiti da primitive geometriche quali punti, linee o poligoni (shape file), collocati nello spazio attraverso coppie di coordinate e ai quali è possibile associare una tabella alfanumerica (dbf) contenenti le informazioni circa l’oggetto che si rappresenta (es. per un file di tipo linea di una strada, il dato alfanumerico associato potrà essere composta da vari campi, quali il nome della strada, la lunghezza, etc.). Nel caso in esame si prevede nel geodatabase cartografia di base in forma di feature dataset, che è un contenitore
GEOmedia n°4-2013
REPORTS per più layer vettoriali (es. il dataset della Carta Tecnica Regionale contiene il layer di tipo poligono per i fabbricati e i terreni e quello di tipo linea per le strade e le curve di livello), e mappe specialistiche in layer singoli (vegetazione, uso suolo). Questa organizzazione dei file in classi, sia raster che vettoriali, è permessa dal solo formato geodatabase che si presenta come contenitore globale e ordinato (vedi figura 1). Inoltre al suo interno è possibile disporre anche file CAD, TIN (rappresentazione in continuo 3D di tipo vettoriale), di topologia e metadata.
Fig. 1 - Esempio di banca dati e organizzazione dei file all’interno del geodatabase.
Per generare il layer si può usare in alternativa l’algoritmo Slope contenuto sempre all’interno del toolkit di 3D Analyst. Lo Slope genera una matrice raster che contiene i valori delle pendenze a partire da una che contiene i valori di quota. L’algoritmo calcola la massima variazione del valore della quota della cella con i suoi vicini più prossimi, nello specifico quella che c’è tra la cella e gli otto pixel ad essa adiacenti (descrivendo una matrice 3x3 intorno a quello centrale) identificando, così, la discesa più ripida dalla cella di riferimento. Il valore risultante corrisponderà ad un andamento piatto del terreno per valori bassi di Slope e ad un aumento di ripidità proporzionalmente all’aumento del valore di Slope. L’algoritmo raggruppa i risultati in classi che in seguito possono essere modificate e tematizzate secondo le necessità (vedi figura 2). 4Carta della Esposizione dei Versanti: per generare una carta dell’esposizione dei versanti si usa l’algoritmo Aspect contenuto all’interno del toolkit di 3D Analyst. L’Aspect identifica la direzione discendente con il tasso massimo di variazione del valore di quota, tra la cella e i suoi corrispettivi vicini (descrivendo una matrice 3x3 intorno al pixel centrale). Questa funzione può essere pensata come la direzione della pendenza, infatti i valori in uscita vengono tematizzati con una circonferenza che va da 0° a 360°. Alle aree pianeggianti di input, la cui pendenza è zero, viene assegnato un valore pari a -1 (vedi figura 2).
La Cartografia del SIT Nel geodatabase del SIT per la gestione selvicolturale occorrono: Carte Tematiche di Base, Carte Statistiche e Carte Specialistiche. Nel seguito non si farà riferimento ai processi per la generazione dei dati di base che, di solito, vengono acquistati da terzi o, ove possibile, vengono elaborati ex novo o a partire da materiale open source, congruentemente con il grado di dettaglio del lavoro da svolgere. Si procederà, quindi, all’analisi e alla produzione delle carte che sono a cura dell’operatore GIS. Gli esempi riportati nelle immagini sono stati realizzati al solo scopo dimostrativo usando dati open source e servizi di consultazione (es. Ministero dell’Ambiente) integrati nel software GIS. Carte Tematiche di Base Di seguito vengono descritti sinteticamente le procedure di realizzazione: 4Carta Altimetrica: per la definizione della carta altimetrica si utilizzano dati raster o TIN, in particolare un layer vettoriale di tipo linea con curve di livello aventi equidistanza di 5 metri. Le isoipse vengono corredate di quote altimetriche per ogni loro nodo. Per la realizzazione si può usare il Create TIN from Feature di ArcGIS 3D Analyst, che permette la generazione di un formato vettoriale ad elementi finiti: il TIN (Triangulated Irregular Network). Da questo formato è possibile anche definire una matrice raster che descrive il parametro quota del terreno (DTM). 4Carta delle Acclività: per generare una carta delle acclività si utilizza la funzione TIN Slope di ArcGIS 3D Analyst. Il parametro pendenza si può esprimere sia in gradi che in percentuale. La Pendenza in gradi è data dal calcolo dell’arcotangente del rapporto tra la variazione in altezza (Δz) e la variazione di distanza orizzontale (Δs). La pendenza percentuale, invece, è uguale alla variazione di altezza, diviso il cambiamento della distanza orizzontale, moltiplicata per 100. visita il sito www.rivistageomedia.it
Fig. 2 - Esempio di Carta delle Acclività e di Carta dell’Esposizione dei Versanti.
4Carta Pluviometrica: una parte dello studio di carattere climatico è dedicato alla interpretazione delle caratteristiche del regime delle precipitazioni meteoriche per l’intera area di studio. I dati di riferimento possono essere reperiti dagli Annali Idrografici di Stato scegliendo un intervallo temporale di osservazioni delle stazioni pluviometriche interne e limitrofe al territorio di studio. Si definisce dapprima una matrice raster generata dall’utilizzo di un algoritmo di interpolazione presente nel toolkit 3D Analyst di ArcGIS e, in seguito, a partire dai dati delle stazioni disponibili, si generano le isoiete con equidistanza pari a 10 mm (vedi figura 3). 4Carta Termometrica: cosi come per i dati pluviometrici anche la carta termometrica è redatta a partire dall’utilizzo degli Annali Idrografici. Il procedimento, analogo al precedente, sfrutta le potenzialità del toolkit 3D Analyst con cui vengono generate le curve isotermometriche e la matrice raster relativa al parametro temperatura (vedi figura 3).
31
REPORTS le medesime caratteristiche in esame. Al dato spaziale, si aggiunge poi l’informazione alfanumerica di interesse. A livello operativo, quando si lavora con un grande numero di dati, l’operazione di aggiornamento della tabella associata al file vettoriale avviene usando una operazione di Join (relazione 1:1), dove si usa come campo chiave per generare la relazione un codice, ad esempio quello amministrativo comunale. Si riveleranno utili per le derivazione delle mappe specialistiche: carta della densità media degli incendi, carta del numero di incendi, carta della superficie boscata percorsa e della superficie non boscata percorsa da incendi e la carta della frequenza degli incendi. Fig. 3 - Esempio di Carta Pluviometrica e di Carta Termometrica.
4Carta dei Reticoli Stradali e dei Nuclei Urbani: per generare una carta dei reticolati stradali e dei nuclei urbani può essere effettuato un aggiornamento delle banche dati geografiche esistenti. Oltre al dato di partenza, allo scopo del SIT, bisogna reperire la viabilità di accesso alle aree boschive e alle piste forestali, di specifico interesse per il sistema di antincendio boschivo. Le informazioni associate alla viabilità contengono l’indicazione della percorribilità in riferimento sia alle operazioni di lotta attiva sia alle operazioni di evacuazione. Le informazioni sulla viabilità forestale, i relativi tracciati e la loro percorribilità, possono essere acquisiti presso gli uffici del CFS (Corpo Forestale dello Stato) e presso gli uffici tecnici dei Comuni. I tracciati della viabilità forestale e delle zone contermini devono essere poi messi in relazione con la rete della viabilità ordinaria (vedi figura 4). 4Carta dei Buffer: viene definita per permettere l’utilizzo di fasce di rispetto in fase di analisi del rischio di incendio, inoltre, applicato sulla rete stradale, restituisce una rappresentazione ancora più rigorosa della rete viaria. Per generare una carta dei buffer si usa l’algoritmo Buffer contenuto all’interno del toolkit Analysys (vedi figura 4).
Carte Tematiche Specialistiche Le Carte Tematiche Specialistiche sono così denominate perché richiedono per la realizzazione l’affiancamento di altre figure professionali o di competenze tecniche molto elevate, come l’analisi multivariata con cui si realizzerà uno dei prodotti più importanti del SIT: la Carta di Rischio Incendi. Per la natura così complessa di queste carte si propone, di seguito, una loro analisi speditiva in macro categorie, ma avendo cura di fornire tutti gli incipit necessari alla loro comprensione e realizzazione: 4Uso Suolo: per generare una carta di uso del suolo (vedi figura 5) si unisce una fase di fotointerpretazione e rilievi di campo a cui segue la digitalizzazione delle aree di interesse. Nella fase di fotointerpretazione è possibile ricorrere a: rilievi, CTR aerofotogrammetrica, coperture satellitari, eventuali cartografie specialistiche già disponibili per singoli siti e carta della copertura del suolo (Sistema Corine Land Cover) con focus sull’aree protette e sui siti Natura 2000. Le aree, una volta identificate e definite geometricamente, si digitalizzano in forma di layer di tipo poligono, avendo cura di assegnare ad ognuno di essi la categoria, il codice e i valori di area e perimetro. Nel SIT per la gestione selvicolturale assume particolare rilevanza il grado di dettaglio nella rappresentazione di: vegetazione forestale, coperture arboree e tessuto urbano (fondamentale nella determinazione della vulnerabilità). Inoltre è sempre consigliabile, nel corso di lavori di una certa caratura, effettuare test di qualità della classificazione basato su confronto tramite rilievi in situ e controllo dati basato su criteri statistici. 4Vegetazione: la carta della vegetazione si desume a partire da un approfondimento delle classi di uso suolo.
Fig. 4 - Esempio di Carta dei Reticolati Stradali e dei Nuclei Urbani e di Carta dei Buffer.
Carte Tematiche Statistiche Le carte tematiche statistiche, per il SIT a gestione selvicolturale, si producono sulla base della spazializzazione degli eventi incendiari e sull’analisi statistica che è eseguita su tutti i dati disponibili. I dati statistici possono prendere in considerazione: la stagionalità degli eventi, la frequenza e la superficie incendiata. Queste carte vengono rappresentate solitamente come file vettoriali di tipo poligono in cui vengono individuate aree, ad esempio i comuni, con
32
Fig. 5 - Esempio di Carta di Uso del Suolo e di Carta della Vegetazione.
GEOmedia n°4-2013
REPORTS Questo è possibile grazie ad una fase preliminare di osservazione e rilievi diretti che possono poi essere interpretati con procedura di poligonazione delle ortofoto. L’output è un layer di tipo poligono in cui bisogna prestare attenzione al dato alfanumerico, determinando il sistema di nomenclatura da applicare alla classificazione delle specie e alle loro peculiarità. Tramite opportuno tematismo delle capacità di resilienza e resistenza di questo layer si può desumere la carta della propensione della vegetazione agli incendi, invece per la carta della vulnerabilità della vegetazione bisogna tenere in conto del valore comunitario della specie che andrà incrociato con la carta della propensione agli incendi. Questo processo è possibile convertendo i due layer da vettoriali a raster e operando con il Map Algebra contenuto nel toolbox di ArcGIS (vedi figura 5). 4Rischio Incendi: la carta del rischio di incendi si desume dall’incrocio con le carte della vulnerabilità, pericolosità e esposizione. Ad ogni tipologia di fenomeno rischioso è associata una pericolosità che rappresenta la probabilità che un evento di una certa intensità si verifichi in una data area e in un dato periodo di tempo. Per individuare la distribuzione di probabilità è necessario determinare: la probabilità e le cause di innesco degli eventi, in termini di localizzazione puntuale e/o areale, e la probabilità media dell’occorrenza degli eventi attraverso un’analisi storica dettagliata. Nel caso in esame la pericolosità è desunta dalla frequenza degli incendi, dalla propensione della vegetazione al fuoco e dall’andamento delle pendenze del territorio in questione, assegnando dei valori (pesi) diversi a seconda dell’incidenza che ognuno di questi hanno sulla dinamica dell’incendio. L’analisi viene effettuata attraverso operazioni di Map Algebra tra matrici raster in cui ognuna delle carte sopra citate esprime il peso di una variabile e contribuisce al calcolo. La vulnerabilità fornisce una misura della propensione di ciascun elemento a rischio a subire danni in occasione del manifestarsi di un evento di una certa intensità. La vulnerabilità fornisce, pertanto, l’entità dei danni potenziali sul sistema territoriale. L’esposizione, invece, è una misura dell’importanza dell’elemento esposto al rischio in relazione alle principali caratteristiche del territorio in esame. Di norma vengono considerati la popolazione, le proprietà, i monumenti, le reti infrastrutturali e le attività economiche che, di fatto, vengono rappresentate dal tessuto urbano, a cui viene associato un peso significativo. La vulnerabilità, invece, è espressa dalla carta della vulnerabilità della vegetazione desunta precedentemente.
Pericolosità, vulnerabilità ed esposizione determinano il rischio inteso come, una volta verificatosi l’evento calamitoso, il valore assoluto delle perdite in termine, sia di vite umane, sia di danni ai beni, alle attività e all’ambiente. L’equazione del rischio è: Rischio = Pericolosità x Vulnerabilità x Esposizione La mappa del rischio è il risultato di questa equazione, risolta attraverso Map Algebra, prendendo in considerazione le tre variabili sotto forma di matrici numeriche (raster). Il risultato è una zonazione del territorio in esame in cui ad ogni pixel è associato un determinato valore di rischio (vedi figura 7).
Fig. 7 - Esempio del processo per la realizzazione della Carta del Rischio Incendi.
Parole chiave Sit; gis;
cartografia; arcgis; rischio incendi; geodatabase
Abstract Logical model and implementation of a Geographic Information System for forest management. In this paper we present the realization of information tools aimed at a forest management to increase the protective functions of forests and soil conservation through
GIS
software.
The Geographic In-
formation System will aim to contain the maps as basis for the services of monitoring, analysis and support to any form of intervention.
The article will refer to ArcGIS nomenclature for his technical and didactics importance but the same could be done with any other open source software.
Autore Federico Foria
foria.federico@gmail.com
Dottore in Ingegneria per l’Ambiente e il Territorio
Fig. 6 - Esempio di Carta della Gravità (prodotto di Vulnerabilità e Esposizione) e di Carta della Pericolosità.
visita il sito www.rivistageomedia.it
33
REPORTS
Esri Italia presenta tutte le nuove funzionalità di ArcGIS 10.2 A cura di Esri Italia Dopo il successo della precedente versione, la nuova release ArcGIS 10.2 fa ulteriori progressi verso la trasformazione del GIS da sistema per gestire le informazioni geografiche a piattaforma completa per trasformare radicalmente i flussi di lavoro. Le innovazioni riguardano sia la parte Desktop e Server, sia i kit per gli sviluppatori sia gli strumenti di ArcGIS Online.
Desktop La versione 10.2 si caratterizza per i notevoli miglioramenti delle prestazioni, per una maggiore sicurezza, per migliori funzionalità nel 3D e nella gestione dei raster, per nuove opportunità di organizzazione dei dati geografici e per gli oltre 40 nuovi strumenti di analisi.
Server A partire dalla release 10.1, Esri ha modernizzato l'architettura di ArcGIS for Server trasformandolo in un back end di livello enterprise dedicato alla diffusione delle funzionalità di ArcGIS all’interno e all’esterno di un’organizzazione.
Fig. 1 – Napoli, concentrazione della popolazione.
34
GEOmedia n°4-2013
REPORTS
Fig. 2 – Webscene.
ArcGIS 10.2 sfrutta questa solida base tecnologica ampliando le funzionalità e offrendo nuove opportunità per la fruizione del GIS in modo più efficace. In questa versione sono disponibili due nuovi strumenti: ArcGIS GeoEvent Processor, uno strumento che permette di collegare l’attività di una organizzazione a un flusso di dati in streaming in tempo reale (provenienti da veicoli, dispositivi mobili, social media) per supportare al meglio i processi decisionali. Il sistema è ad esempio in grado di registrare se un determinato tipo di veicolo entra in una zona pericolosa, allertare i soccorritori più vicini quando si verifica un incidente, monitorare condizioni metereologiche o livelli di inquinamento. Portal for ArcGIS, un prodotto pronto all’uso che fornisce la stessa capacità di collaborazione e condivisione di strumenti e dati di ArcGIS Online, ma nel proprio ambiente web e con le proprie regole di sicurezza. Per gli sviluppatori ArcGIS 10.2 presenta numerosi miglioramenti in tutti i kit di sviluppo. Nuovi ArcGIS Runtime SDK per Qt, OS X e per Windows Store e API web migliorate e semplificate per potenziare le applicazioni web. Gli sviluppatori saranno in grado di creare applicazioni personalizzate per smartphone e tablet in grado di lavorare off-line. ArcGIS Online Nella versione 10.2, sono stati aggiunti strumenti di analisi avanzata per ArcGIS Online per analizzare le relazioni geografiche, per scoprire pattern nascosti, per valutare i trend e consentire di prendere decisioni più consapevoli. Queste alcune nuove funzionalità: • la sovrapposizione e la combinazione di due o più strati per effettuare analisi di overlay;
visita il sito www.rivistageomedia.it
• l’analisi di hot-spot per studiare i dati locali come quelli sul traffico, o consentire la ricerca di clusters spaziali statisticamente significativi associati alle feature; • l’esplorazione di correlazioni e l’esame delle relazioni tra gli attributi numerici delle feature (es. la correlazione tra la localizzazione di siti altamente inquinanti e l’incidenza di alcune patologie tra la popolazione); • nuovi strumenti di ricerca e query più potenti; • funzioni di data enrichment per ottenere informazioni sulle persone, i luoghi e le imprese di una determinata area, su una distanza o sul tempo di percorrenza da una posizione. Scopri tutte le nuove funzionalità e i nuovi strumenti di ArcGIS 10.2 sul sito di Esri Italia www.esriitalia.it
Abstract After the success of the previous version, the new release of ArcGIS 10.2 makes further progress towards the transformation of the GIS system to manage geographic information at complete platform for fundamentally transform workflows.
The innovations involve both the Desktop and Server, both kits for Online.
developers both the tools of ArcGIS
Parole chiave Esri Italia; GIS; ArcGIS 10.2;
Autore Esri Italia
info@esriitalia.it
35
REPORTS
Edoardo De Orel: la fotogrammetria diventa adulta di Attilio Selvini
L’articolo illustra i tratti salienti della vita di Eduard von Orel dalla carriera militare all’ingresso nel “K.u.K. Militärgeographiches Institut” di Vienna sino alla fine della Grande Guerra, dopo la quale ottenne la cittadinanza Italiana e assunse il nome italianizzato di Edoardo de Orel.
H
o ricordato in tempi diversi e su diverse pubblicazioni, alcuni degli uomini di genio cui sono dovuti i progressi delle discipline della misura sull’oggetto (topografia) e sull’immagine (fotogrammetria). In ordine casuale questi sono: Angelo Salmoiraghi (1), Umberto Nistri (2), Ignazio Porro (3), Ermenegildo Santoni (4), Heinrich Wild (5). Mi pare giusto ora parlare di Edoardo De Orel, al quale si deve la nascita della fotogrammetria “moderna” (mi si passi questo aggettivo qualificativo che non amo, ma che mi pare qui il più corretto). Dai primi tentativi di Aimé Laussedat e dalle intuizioni del Porro, poi dalle applicazioni all’architettura di Albrecht Meydenbauer, decine di studiosi tentarono di risolvere il problema della trasformazione proiettiva, da prospettiva centrale quale si poteva ritenere l’immagine fotografica, a proiezione ortogonale, con accorgimenti che prescindessero dal calcolo numerico; sia per via grafica che con ausili ottico meccanici: se ne parla diffusamente in (6). Ma fu solo all’inizio del ventesimo secolo, con l’avvento della stereofotogrammetria, dopo la costruzione da parte della Carl Zeiss di Jena dello stereocomparatore di Carl Pufrich, che si intravide la soluzione corretta del problema. Ci provarono in diversi, fra i quali l’inglese V. Thompson con un arnese detto “Stereoplotter”ed il canadese E. Deville nel 1902 con un apparecchio provvisto di uno stereoscopio di Wheatstone (fig. 1) ma senza successo. Lo stereocomparatore di Pulfrich misurava coordinate di lastra con l’ottima incertezza di 10 micron, ma per passare alle tre coordinate ortogonali dell’oggetto osservato occorreva pur sempre il calcolo numerico, passabile solo nel caso di prese (terrestri!) “normali”. Se queste avevano convergenze ed inclinazioni il calcolo naturalmente si complicava, non essendo più basato sulla similitudine di figure triangolari. L’austriaco Eduard Orel, ufficiale di marina (aveva partecipato alla battaglia di Lissa!) era l’amministratore del castello di Miramare a Trieste; aveva poi fatto parte con successo della drammatica spedizione Payer-Weyprecht per il Polo Nord, ed era stato elevato al rango gentilizio, trasmissibile ai figli, divenendo così “Ritter von Orel” (Ritter = cavaliere). L’imperatore Franz Joseph, per i suoi servigi militari gli aveva anche concesso l’ordine della Corona di Ferro di terza classe. Il figlio nato nel 1877, che portava lo stesso nome del padre, Eduard, venne indirizzato alla carriera militare. Da cadetto di fanteria in Trieste, aveva chiesto di essere assegnato al “ K.u.K. Militärgeographiches Institut” di Vienna, al momento il più famoso del mondo: vi entrò nel 1901. Qui nel 1905, ormai tenente, iniziò ad interessarsi di fotogrammetria, approfondendo le necessarie nozioni di ottica, meccanica e chimica. Buon topo-
36
grafo, nel 1909 rilevò in soli tre mesi (!) 1200 km2 del territorio aspro fra Merano e Vipiteno, redigendone la carta in scala 1:25.000. Ma già nel 1908 aveva fatto costruire dalla ditta Rost di Vienna un esemplare di quello strumento che avrebbe poi rappresentato il capostipite dei “restitutori” fotogrammetrici. Il dispositivo era costituito da un tavolo da disegno provvisto di righe e regoli mobili, connessi con uno stereocomparatore, sul quale le lastre erano disposte su di un piano all’incirca verticale. Lo strumento è in figura 2; si vedono i due operatori necessari per la trasformazione proiettiva (che da allora venne chiamata, in tedesco, dapprima“Verwertung” e poi “Auswertung”, tradotta in italiano con “restituzione” e corrispondentemente nelle altre lingue). Nella figura l’osservatore è lo stesso inventore, allora capitano; l’aiutante disponeva una riga orizzontale sul punto di intersezione di altre due aste oblique, quindi manovrava una seconda riga detta delle “parallassi” ed infine un’asta articolata provvista di una punta da compasso, a sua volta detta “asta dei raggi proiettanti”, che era capace di segnare sul foglio di carta la posizione planimetrica del punto osservato in stereoscopia.
Fig. 1 - Schema del restitutore di Deville, mai costruito.
Un poco complicato, ma senza intervento del calcolo numerico. A tale proposito va fatta una precisazione; in molte pubblicazioni, lo strumento di von Orel, o meglio il suo successore di cui si dirà qui avanti, viene definito come il primo “restitutore analogico” della storia della fotogrammetria. Ciò è decisamente errato: i “restitutori analogici” che verranno più oltre, ricostruiscono nello spazio per via ottica, ottico meccanica o meccanica i raggi proiettanti, costruendo un “modello virtuale” in scala dell’oggetto fotografato, che l’operatore esplorerà proiettandone i punti salienti necessari per ottenerne la rappresentazione ortogonale.
GEOmedia n°4-2013
REPORTS
Fig. 2 - Il capitano Eduard von Orel a Vienna, segnato con “x”.
Lo strumento di von Orel ed i suoi perfezionamenti sono invece dei “calcolatori” analogici (così come lo è, o meglio lo era, il regolo da taschino o da tavolo, nel quale l’analogia sta nel trasformare moltiplicazioni e divisioni in somme e sottrazioni di segmenti logaritmici). Dice Walther Sander, autore di un dei primi testi di fotogrammetria, che lo strumento di von Orel (quello definitivo di cui si parla qui sotto) è “…un dispositivo per la risoluzione di equazioni” (7). La precisazione di Sander è corretta: lo strumento risolve per via meccanica e con l’ausilio dell’osservazione stereoscopica, le equazioni di collinearità nel caso piuttosto semplice della conoscenza dei punti di stazione e delle inclinazioni degli assi della camera da presa rispetto alla base, come si vedrà più avanti. Ma continuiamo con il nostro personaggio. Nello stesso 1908 la ditta Carl Zeiss di Jena, venne informata dall’inventore dell’esistenza del suo strumento, del quale inviava disegni e dati con preghiera di suggerirne possibili miglioramenti. Se ne interessò lo stesso Carl Pulfrich (fig. 3), responsabile scientifico della casa tedesca, che già dopo appena un mese aveva studiato le varianti, dalla disposizione delle
lastre su di un piano orizzontale per facilitarne l’osservazione, all’aggiunta di una ulteriore “riga spezzata” capace di calcolare in via analogica le altezze dei punti restituiti. Nel febbraio del 1909 era pronto, presso Zeiss, il prototipo del nuovo dispositivo. La collaborazione con Pulfrich e poi con Pfeiffer, cui si aggiunsero i suggerimenti di Walther Bauersfeld (fig. 4, che un decennio più tardi costruirà il primo restitutore “universale”, Fig. 4 - Walther Bauersfeld. lo “Stereoplanigraph C3” la cui ultima versione, “C8”, è del 1964) portò ai brevetti tedeschi n° 262.499 del dicembre 1910 e n° 281.369 del dicembre 1913. In figura 5 la versione perfezionata di quello che assunse il nome di “Stereoautograph von OrelZeiss”, mentre in figura 6 se ne vede la versione definitiva e commerciale del 1911. Il capitano von Orel nel frattempo aveva fondato la divisione fotogrammetrica dell’Istituto Geografico Militare viennese, Istituto che però lasciò nel 1912, costituendo nella capitale austriaca la “Stereographik GmbH” ( GmbH = Gesellschaft mit beschränkter Haftung, ovvero società a responsabilità limitata) Vediamo di parlare in sintesi dello strumento che portò la fotogrammetria dall’infanzia alla maturità.
Fig. 5 - La versione perfezionata dello Stereoautograph.
Fig. 3 - Carl Pulfrich.
visita il sito www.rivistageomedia.it
Fig. 6 - La versione commerciale definitiva dello Stereoautograph von Orel-Zeiss.
37
REPORTS La versione definitiva dello Stereoautograph permetteva, per la prima volta nella storia della fotogrammetria, di tracciare la planimetria e le curve di livello in continuità, mantenendo in questo caso la marca mobile ideata nel 1892 da Friedrich Stolze, ingegnere e collaboratore di Meydenbauer, ad una quota determinata ed esplorando il modello. In tale versione compare anche quello che poi sarà il tipico disco a pedale per la misura delle parallassi d’altezza, oltre alle manovelle per i movimenti in X ed Y. In figura 7 il disegno in pianta dello strumento.
via meccanica le seguenti, note equazioni del caso normale e di quello con obliquità rispetto alla base:
essendo φ l’obliquità.
Fig. 8 - Il parallelogramma di Zeiss. Fig. 7 - A sinistra, le curve di livello tracciate direttamente.
L’altra novità assoluta, capace di far restituire coppie di fotogrammi con obliquità rispetto alla base di presa, è costituita dal cosiddetto “parallelogramma di Zeiss”, che si ritroverà puntualmente in molti restitutori analogici sino alla loro sostituzione con gli strumenti analitici. Vale la pena di parlarne, a beneficio dei giovani ricercatori di oggi. L’idea risale al citato Pfeiffer, ingegnere della Zeiss, anche per rendere indipendente la posizione delle lastre osservabili allo stereoscopio dalla lunghezza della base di presa e dalla sua giacitura spaziale. Si osservi la figura 8; la sua parte sinistra rappresenta in pianta due fotogrammi con assi paralleli ma obliqui rispetto alla base b. La costruzione delle immagini di A1 e B1, A2 e B2 è elementare; ma se si vuole rendere indipendente la base b dalla struttura dello strumento e soprattutto far giacere le due lastre nello stesso piano verticale così da osservarle facilmente con lo stereoscopio, potremmo immaginare di trasportare la lastra l2 in l’2 per cui i due raggi omologhi partenti dalle immagini di A2 e B2 si incontrerebbero al di fuori delle dimensioni strumentali e comunque non ricostruirebbero nella corretta posizione i punti oggetto A e B, essendo ora nulla l’obliquità ed essendoci ricondotti al caso normale. Se però ora si porta un segmento AP, parallelo ed uguale alla base strumentale N1 N’2 e dall’estremo P un altro segmento PA’ lungo ed orientato come la base di presa b, avremo ricostruito in A’ la posizione di A, e se ripeteremo l’operazione immaginando che la spezzata APA’ trasli nelle due direzioni ortogonali definite dalla base strumentale b’ e dalla direzione degli assi delle camere, sinché il suo estremo sinistro coincida con B, avremo in B’ la posizione di restituzione di questo punto, conservando la sua disposizione reciproca rispetto ad A’, così come B la manteneva rispetto ad A. La figura N1APN’2 è un parallelogramma deformabile, capace di restituire con la sua appendice esterna PA’ qualunque punto osservato in stereoscopia, e venne chiamato per l’appunto da allora in poi parallelogramma di Zeiss. Come detto più sopra, tale dispositivo sarà presente in molti dei restitutori analogici per la restituzione di prese aeree e terrestri, aventi convergenza oltre che obliquità. Il dispositivo risolve per 38
Per i suoi meriti, al capitano Eduard von Orel, la “Tecnhische H o c h s c h u l e ” (Politecnico) di Graz conferì il titolo di “ Dr.Ing. E.h.” (E.h. = Ehrens halber = honoris causa). Va anche ricordato che lo Stereoautografo venne premiato nelle mostre di Dresda e di Buenos Aires (8). Finita la „Grande Guerra“, l’inventore triestino, che parlava benissimo la nostra lingua oltre naturalmente al dialetto della sua città d’origine, chiese ed ottenne la cittadinanza italiana, assumendo il nome italianizzato di Edoardo De Orel. In figura 9 lo si vede da giovane tenente dell’esercito “K. u. K.” (Kaiserlich und Königlich, imperiale e regio) mentre in figura 10 vi è la sua immagine da anziano borghese. Lo Stereoautografo, al di là dei premi di cui si è detto qui sopra, ebbe successo commerciale notevole: ve ne sono esemplari anche nel nostro IGM fiorentino; alcuni vennero ancora
Fig. 9 - Il tenente Eduard von Orel.
Fig. 10 - Edoardo De Orel a Bolzano.
GEOmedia n°4-2013
REPORTS
Fig. 11 - Schema del Terragraph Zeiss: si vedono chiaramente le “righe” di De Orel.
usati durante la campagna italo-etiopica del 1935/36, per la redazione di carte soprattutto adatte alla costruzione di strade e ponti, immediatamente al seguito delle nostre truppe vittoriose per assicurarne le provvigioni. E poi fu l’avvento dell’aerofotogrammetria, così come si dice in (6). Quasi alla fine dell’era analogica, rispuntarono almeno due “calcolatori analogici” secondo l’idea di De Orel. Il primo caso è quello della Carl Zeiss di Oberkochen, che tra gli anni sessanta e settanta costruì il Terragraph (ne venne acquistato un esemplare anche dal laboratorio di fotogrammetria dello IUAV, nella città lagunare). Lo strumento era semplificato e restituiva solo prese nel caso normale, ovvero provenienti da bicamere, ed è visibile in figura 11; ne fece largo uso la polizia stradale tedesca per il rilevamento e la rappresentazione di incidenti. Una assai diversa applicazione, in grado di restituire anche prese aeree, venne dalla “Jenoptik VEB” di Jena, di fatto la parte di Carl Zeiss rimasta nella allora DDR (VEB = VolksEigene Betrieb, ovvero “manifattura popolare”). Si trattava del Topocart B di cui si vede lo schema in fig. 12; si notino anche qui le aste disposte secondo lo schema di De Orel, sempre con la separazione della parte planimetri-
ca rispetto a quella altimetrica: quindi certamente un “calcolatore” e non un “restitutore”, esattamente come lo Stereoautografo. Il 3 ottobre 1969, su sollecitazione della Carl Zeiss, la SIFET volle onorare la memoria di Edoardo De Orel a Bolzano, città nella quale il triestino si era trasferito e Fig. 13 - Il professor Luigi Solaini a Bolzano dove era scompar- commemora Edoardo De Orel. so nel 1941. Il professor Luigi Solaini, secondo italiano, dopo il suo Maestro Gino Cassinis a presiedere la “International Society of Photogrammetry”, tenne il discorso commemorativo in italiano ed in tedesco (la traduzione venne fatta allora da chi scrive questa nota) nel cimitero della città altoatesina, alla presenza dei presidenti delle Società di Fotogrammetria Italiana, Austriaca e Tedesca: in figura 13 l’immagine della cerimonia. Sullo sfondo, il terzo personaggio alla sinistra di Solaini, è l’allora maggiore Giuseppe Birardi.
Bibliografia 1) Selvini, A., La Filotecnica Salmoiraghi: centovent’anni di storia Bollettino SIFET, Roma, 3/1986. 2) Selvini, A., A mezzo secolo dalla scomparsa di Umberto Nistri GeoMedia, Roma, 1/2012. 3) Selvini, A., La carta di difesa di Genova. L’Universo, Firenze, 3/2012. 4) Selvini, A., Appunti per una storia della topografia in Italia nel XX secolo. Maggioli editore, Rimini, 2013. 5) Selvini, A., Non è rimasto nemmeno il nome. GeoMedia, Roma,3/2013. 6) Bezoari, G., Selvini, A., Gli strumenti per la fotogrammetria. Liguori ed. Napoli, 1999. 7) Sander, W., Du développement de la Photogrammétrie. In: Handbuch der Photogrammetrie, Lausanne, 1931. 8) Allmer, Franz, Eduard Ritter von Orel, dem Erfinder des Stereoautographs zum 100 Geburstag. Mitteilungen der Geodätischen Institute der Universität Graz, 1977.
Parole chiave Eduardo de Orel; Fotogrammetria; Calcolatore analogico
Abstract This article outlines the main features of the life of Eduard von Orel by military career to the entrance into the "KuK Militärgeographiches Institut"in Vienna until the end of the Great War, after which he obtained Italian citizenship and took the name of Edward de Orel.
Autori Attilio Selvini
attilio.selvini@polimi.it
Politecnico di Milano Già Presidente della SIFET
Fig. 12 - Lo schema del Topocart B della Jenoptik.
visita il sito www.rivistageomedia.it
39
REPORTS
Rilievi in sella a un quad di Fulvio Bernardini
In Italia, le energie rinnovabili – tra le quali le biomasse, l’energia geotermica, idroelettrica, eolica e solare – sono ormai un volano per l’economia: il paese si classifica come uno dei principali produttori mondiali di energia elettrica ricavata dall’irradiazione solare; il Sole viene sfruttato tramite l’installazione su terreni o su facciate e tetti di edifici di moduli fotovoltaici in grado trasformare l’energia solare in energia elettrica.
N
egli ultimi cinque anni il settore fotovoltaico ha subìto un’impennata, anche grazie allo stanziamento di numerosi incentivi statali. La potenza fotovoltaica installata in Italia si avvicina oggi ai 17 GW, per un totale di circa 475.000 impianti, all’incirca tre volte la quantità di impianti presente nel 2010. Nel nostro paese vengono definiti ‘grandi’ quegli impianti in grado di produrre 1 o più MW di potenza nominale. Prima di procedere all’installazione di un impianto fotovoltaico è fondamentale svolgere un accurato rilievo topografico del terreno, in modo da stabilire il corretto posizionamento e l’orientamento dei moduli fotovoltaici oltre, che per fornire ai progettisti una descrizione dettagliata della sua geomorfologia.
Le operazioni di rilievo dovevano essere svolte in maniera simultanea ai lavori di installazione dell’impianto e, dunque, nello stesso momento in cui venivano create la viabilità e le recinzioni ed in cui si mettevano all’opera le macchine battipalo. La preoccupazione principale del committente era quindi che il rilievo si svolgesse il più velocemente possibile senza che ciò andasse a scapito della precisione. Giuseppe Greco è un topografo dalla lunga esperienza conosciuto in Italia per essere un esperto di rilievi su terreni ampi e dal difficile accesso. E’ proprio a lui che è stato commissionato il lavoro di rilievo sul terreno in questione.
Un rilievo al limite Nel 2011, la Siemens Spa necessitava di un rilievo planoaltimetrico e di un picchettamento di un terreno sul quale sarebbe dovuto sorgere un impianto fotovoltaico. Il terreno si estendeva per 180.000 m2 ed era situato nei pressi di Nepi, un comune distante circa 50 km da Roma.
40
GEOmedia n°4-2013
REPORTS Questo perché Greco opera con l’ausilio di un quad, di un personal transporter Segway e di un personal robot elettrico per lo spostamento dell’attrezzatura. In poche parole, è uno dei pochi – se non il solo – in grado di svolgere un rilievo come quello richiesto a Nepi, ed alle condizioni poste dal committente: con velocità, precisione ed in modalità one-man, ovvero risparmiando sulle maestranze. Il rilievo plano-altimetrico Che non sarebbe stato un lavoro facile, Greco lo ha capito subito: oltre alla tipologia del terreno (fortemente accidentato), durante il rilievo si sarebbero dovute affrontare condizioni di pioggia, scarsa visibilità all’alba e al tramonto e temperature estreme, in grado di toccare i 30-40° all’ombra. Per il rilievo, Greco ha utilizzato il ricevitore GPS Trimble R8 GNSS sia come base che come rover e la stazione totale robotica Trimble S6, entrambe affiancate dal controller Trimble TSC2. Ha poi utilizzato tre prismi: un prisma singolo per letture entro i 2.500 m, triplo per distanze di precisione oltre i 2.500 m e un prisma a 360° per rilievi topografici in modalità robotica. Durante il rilievo plano-altimetrico – e quando le condizioni atmosferiche avverse lo hanno imposto - gli spostamenti sono avvenuti a bordo del quad; durante il picchettamento, invece, gli spostamenti sul terreno sono avvenuti principalmente a bordo del personal transporter, seguito in automatico dal robot elettrico. La prima fase del rilievo ha visto Greco eseguire il rilievo plano-altimetrico dello stato dei luoghi, con la contemporanea creazione di otto caposaldi in circolo, identificati sia tramite chiodi miniati che da cippi topografici. Durante questa fase è stato utilizzato il ricevitore Trimble R8: dopo aver montato la base GPS sul primo caposaldo, il rover è stato installato sul quad, opportunamente attrezzato per il trasporto dell’attrezzatura, il picchettamento ed il rilievo in tempo reale. La scelta del quad per portare a termine questa fase del rilievo si è resa necessaria dal momento che si sarebbero dovuti affrontare notevoli dislivelli e numerosi stop&go.
visita il sito www.rivistageomedia.it
La soluzione proposta da Greco ha permesso di completare il rilievo nei tempi stabiliti durante la fase di pianificazione del lavoro.
Il picchettamento La seconda fase prevedeva invece il picchettamento del terreno: dopo aver posizionato la stazione totale robotica Trimble S6 con base montata su caposaldo intermedio, Greco ha sfruttato al massimo la tecnologia di rilievo integrato (Integrated Survey – IS) possibile con gli strumenti Trimble; ciò è stato possibile tramite l’impiego di una palina da 2 m in carbonio sormontata da un prisma a 360° a sua volta sormontata dal rover Trimble R8. Questa combinazione approfitta sia della tecnologia ottica che di quella GNSS ed ha permesso a Greco di picchettare l’area anche in assenza di segnale GPS, oppure in assenza di visibilità diretta con la stazione totale robotica. Gli spostamenti all’interno del campo sono avvenuti a bordo del personal transporter, seguito a breve distanza dal robot elettrico. Il quad, in questa specifica fase, avrebbe infatti creato intralcio: a causa del suo angolo di sterzata e delle sue dimensioni, un mezzo del genere non risultava adatto ad un lavoro di picchettamento, nel quale bisognava prendere un gran numero di misure a poca distanza l’una dall’altra. Il personal transporter è risultato invece sicuramente più adatto e l’utilizzo complementare del robot elettrico ha ovviato al problema del movimento delle attrezzature.
41
REPORTS Tutto come previsto Il rilievo si è svolto esattamente come previsto durante la pianificazione del lavoro. Entrambe le fasi si sono svolte in tempi brevissimi: il rilievo plano-altimetrico è stato eseguito in giornata; al ritorno in albergo, Greco ha eseguito il download dei dati, li ha elaborati e inviati tramite e-mail ai progettisti. Dopo circa due giorni i progettisti hanno inviato nuovamente il file per il picchettamento ed il giorno seguente è stato speso per elaborare i dati da picchettare. Ci sono voluti tre giorni per svolgere il picchettamento completo della recinzione, della viabilità, dei manufatti e dell’impianto fotovoltaico. Un secondo intervento, dopo dieci giorni, è stato richiesto per ripristinare i picchetti divelti. Greco è riuscito ad operare contemporaneamente alle maestranze, con estrema rapidità e con la massima precisione. L’utilizzo complementare della strumentazione Trimble ha permesso a Giuseppe Greco di eseguire le fasi di rilievo e verifica in campo aperto velocizzando estremamente i tempi di rilievo e la mole di informazioni acquisite. Greco ha completato un rilievo che normalmente richiede circa 10 giorni di lavoro in soli 4 giorni: un ottimo ritorno in termini di tempo grazie all’impiego di un sistema di movimentazione unico nel suo genere e delle tecnologia per il rilievo integrato di Trimble.
Abstract Renewable energy—including biomass, geo- thermal, hydroelectric, wind and solar—is big business in Italy. Solar farms able to produce 1 MW or more of nominal power are considered “large.” Before installing such a PV plant, an accurate topographical survey of the ground is required. Giuseppe Greco is known in Italy as an expert in surveying areas that are extensive and difficult to access. This is because he works with the help of a quad all-terrain vehicle (ATV), a Segway personal transporter and a personal electric robotic cart for moving his equipment.
Autori Parole chiave
Fulvio Bernardini
fbernardini@rivistageomedia.it
Nepi; impianto fotovoltaico; rilievo; quad; trimble;
Redazione GEOmedia
TEOREMA srl
SOLUZIONI TOPOGRAFICHE INNOVATIVE
Leica Multistation MS50
Leica GS08 Plus
Leica Disto D510 per iPhone e iPad
Leica 3D Disto
Leica P20
www.disto.it • www.geomatica.it
42 200 x 143 Geomedia 013 QR 2.indd 1
Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 - Fax 02 57301988 teorema@geomatica.it GEOmedia n°4-2013 02/07/13 13:30
REPORTS
visita il sito www.rivistageomedia.it
43
REPORTS
Il WebGis sugli tsunami: un utile strumento di consultazione di Paola Fago, Cosimo Pignatelli, Arcangelo Piscitelli, Maurilio Milella, Maria Venerito, Paolo Sansò, Giuseppe Mastronuzzi
Il progetto espone le fasi di realizzazione di un geo-database sugli tsunami in Italia. Gli articoli raccolti nella fase di ricerca tramite consultazione di biblioteche digitali e successivamente organizzati per area di studio sono stati inseriti in un database geografico. Quest'ultimo è stato utilizzato per l'implementazione di un GIS, conseguentemente pubblicato sul sito del programma RITMARE.
N
egli ultimi anni si è sviluppata una politica di “monitoraggio” della dinamica ambientale, in Italia come in altre aree del mondo, con particolare attenzione alla fascia costiera, resa più vulnerabile rispetto al manifestarsi di eventi estremi come mareggiate ed alluvioni a causa dell’aumento delle attività produttive che insistono su di essa. Con la pubblicazione del Libro Blu An integrated maritime policy for the European Union (COM 2007/575, del 10 ottobre 2007) la Commissione Europea ha evidenziato la necessità di creare un sistema di ricerca sul mare coeso al suo interno, integrando le risorse della ricerca e dell’innovazione in campo marittimo. Tale necessità è stata recepita in Italia attraverso la realizzazione del programma Ritmare, la Ricerca Italiana per il Mare, un programma nazionale di ricerca scientifica e tecnologica per il mare suddiviso in sette sottoprogetti, incluso nei “Progetti Bandiera” del PNR 2010-2012, il cui scopo è quello di porre in essere una politica marittima integrata tramite la creazione di una partnership tra il Sistema degli Enti pubblici di Ricerca coordinati dal CNR e la Piattaforma Tecnologica Nazionale Marittima (www.cnr.it). Nell’ambito del Sottoprogetto 3 - Fascia costiera > WP3 - Strategie per l’osservazione di eventi > Azione 2 - Valutazione probabilistica di pericolosità da tsunami è stato redatto un elenco bibliografico ragionato relativo agli articoli scientifici riguardanti gli eventi di tsunami verificatisi in Italia. Le pubblicazioni sono state raccolte attraverso la consultazione di siti di editoria e biblioteche digitali; catalogate in base all’ambito disciplinare di appartenenza e inserite in un database geografico. Tale database geografico è stato utilizzato per l'implementazione di un GIS, pubblicato successivamente su Web, mediante un map server, sul sito del programma RITMARE (www.ritmare.it). Gli tsunami in Italia Secondo il National Oceanic and Atmospheric Administration/World Data Center (NOAA/WDC), il 63% degli eventi di tsunami fino ad oggi registrati e catalogati ha interessato l’Oceano Pacifico, seguono il Mar Mediterraneo (21%), l’Oceano Indiano (6%) e l’Oceano Atlantico (5%) (Mastronuzzi et al., 2013). Il particolare contesto geodinamico del bacino del Mediterraneo e la posizione dell’Italia in esso rendono il territorio nazionale potenziale bersaglio di tsunami generati nei mari circostanti. Nonostante una certa ritrosia del mondo scientifico a considerare gli tsunami qua-
44
le un possibile fattore di rischio, recenti studi a carattere storico-archivistico e geomorfologico hanno ricostruito la lunga sequenza di eventi che hanno colpito anche l’Italia. Se sino ad un decennio fa la ricerca riguardante questi fenomeni era basata essenzialmente su studi storici (p.e. Guidoboni e Tinti, 1987; Guidoboni e Comastri, 2007) o sulla realizzazione di modelli che ne simulavano il comportamento (p.e. Tinti et al., 1997; Piatanesi et al., 1999), negli ultimi anni sono stati condotti studi che hanno permesso di riconoscere sul terreno le evidenze dell’impatto di tsunami e di ricostruirne la sequenza (Mastronuzzi e Sansò, 2000; Gianfreda et al., 2001; De Martini et al., 2003). L’impatto di uno tsunami produce evidenze morfologiche e sedimentologiche in funzione dell’energia con cui si riversa sulla costa e delle caratteristiche morfotopografiche e litostrutturali della costa impattata. Ricerca bibliografica e catalogazione La prima fase per l’implementazione del WebGIS è rappresentata dalla raccolta degli articoli scientifici sviluppata secondo due differenti “fasi di approfondimento”. La prima fase è stata quella di ricerca degli articoli attraverso biblioteche elettroniche (www.sciencedirect.com, www.periodici. caspur.it) e specifici editors digitali (www.nat-hazards-earthsyst-sci.net). Con la seconda, i riferimenti bibliografici contenuti in ogni pubblicazione sono stati analizzati al fine di individuare, e reperire, altri lavori – generalmente quelli più datati o pubblicati su riviste di difficile reperimento - che non sono stati individuati con la prima ricerca (Fig. 1).
Fig. 1 - Analisi dei riferimenti bibliografici. Esempio da: Scicchitano G., Monaco C., Tortorici L. (2007). Large boulder deposits by tsunami waves along the Ionian coast of south-eastern Sicily (Italy). Marine Geology 238, 75 – 91. I riferimenti bibliografici sottolineati sono quelli di interesse in quanto riguardano la zona Italia.
GEOmedia n°4-2013
REPORTS Gli articoli raccolti sono stati suddivisi in cinque macrocategorie in base all’ambito disciplinare di appartenenza: geologico; geodinamico; idrodinamico; geofisico; storico - archivistico. Ogni pubblicazione contiene al suo interno i riferimenti geografici dei siti studiati e questo ha reso necessario l’impiego di un Geografic Information System (GIS) e successivamente l’estensione su Web dell’applicativo GIS mediante l’utilizzo di un map server. Dopo aver stabilito che nel progetto GIS ogni articolo dovesse essere rappresentato da un elemento grafico di tipo puntuale, per la costruzione di una tabella sono stati presi in considerazione i seguenti attributi associati a tali geometrie: I - ID: un identificativo assegnato ad ogni pubblicazione sotto forma di numero intero in ordine progressivo crescente; II - X e Y: rispettivamente Longitudine e Latitudine espresse in gradi decimali (WGS84). Da ogni pubblicazione sono state estrapolate le coordinate geografiche del sito studiato. Per le pubblicazioni riguardanti più siti di indagine, è stato attribuito un elemento grafico con rispettivi ID e coordinate ad ogni sito. Alle pubblicazioni riguardanti l’intero territorio nazionale sono state attribuite le coordinate della città di Roma; III - ANNO: anno di pubblicazione: IV - AUTORI; V - TITOLO: il titolo dell’articolo; VI - RIVISTA: nome della rivista su cui è pubblicato l’articolo, inclusi pagine e numero del volume; VII - AMBITO: ambito disciplinare di appartenenza; VIII - KEYWORD: parole chiave fornite dagli autori o attribuite in base all’ argomento trattato; IX -ABSTRACT: gli abstracts degli articoli, prima trascritti in formato alfanumerico e poi salvati in formato .jpeg, sono stati caricati su un sito di hosting di immagini (www.imageshack.us) che ha generato per ogni file .jpeg un link che è stato poi inserito all’interno della colonna “ABSTRACT”.
Fig. 2 - Particolare del foglio di lavoro Excel.
La costruzione del database geografico è stata realizzata in ambiente Excel (Fig. 2) Implementazione GIS e pubblicazione su Web Il database è stato salvato in formato .csv (Comma Separated Value) ed importato nella piattaforma GIS Open Source QuantumGIS versione 1.8.0 ‘Lisboa’. Successivamente il database è stato convertito in shapefile al fine di poterlo pubblicare su Web attraverso un map server. Il WebGIS è consultabile sul sito del programma RITMARE nella sezione dedicata all’Azione 2 - Valutazione probabilistica di pericolosità da tsunami (http://www.ritmare.it/articolazione/sottoprogetto-3/sp3-wp3/sp3-wp3-azione-2). (Fig. 3-4-5)
visita il sito www.rivistageomedia.it
Fig. 3 - www.ritmare.it (particolare del WebGIS).
Fig. 4 - www.ritmare.it (particolare del WebGIS).
Fig. 5 - www.ritmare.it (particolare del WebGIS).
Considerazioni finali Dalla raccolta bibliografica sono state escluse volutamente pubblicazioni antecedenti il 1990, sia per motivi di scarsa reperibilità dei lavori attraverso canali web sia perché negli ultimi anni la ricerca di terreno sugli tsunami si è sviluppata applicando metodologie di indagine sempre più all’avanguardia. Aver raccolto in un unico “contenitore” buona parte della bibliografia finora prodotta sugli tsunami, consente di avere una visione globale sui progressi della ricerca e di decidere, quindi, quale linea seguire per gli sviluppi futuri. Anche solo visivamente, si intuisce, dalla mappa pubblicata, che alcune zone del territorio italiano sono state più studiate rispetto ad altre. Comunque queste zone mostrano di essere vulnerabili rispetto al manifestarsi di tsunami e quindi meritano un’attenzione particolare nel processo decisionale che porta ad intraprendere azioni di monitoraggio e salvaguardia della fascia costiera nonché di mitigazione rispetto al manifestarsi di tali eventi. Le possibilità di comunicazione e di condivisione del WebGIS permettono, attraverso la rete, di raggiungere una molteplicità di persone e quindi risulta più semplice sensibilizzarle all'eventualità che anche sul nostro territorio possano manifestarsi eventi estremi ed innescare così una “campagna” informativa più ampia.
45
REPORTS Bibliografia ragionata • Argnani A., Armigliato A., Pagnoni G., Zaniboni F., Tinti S., Bonazzi C. (2012). Active tectonics along the submarine slope of south-eastern Sicily and the source of the 11 January 1693 earthquake and tsunami. Natural Hazard and Earth System Science, 12, 1311-1319. • Barbano M.S., Pirrotta C., Gerardi F. (2010). Large boulders along the southeastern Ionian coast of Sicily: storm or tsunami deposits? Marine Geology, 275, 140-154. • Basili R., Tiberti M.M., Kastelic V., Romano F., Piatanesi A., Selva J., Lorito S. (2013). Integrating geologic fault data into tsunami hazard studies. Natural Hazard and Earth System Science, 13, 1025-1050. • Bianca M., Monaco C., Tortorici L., Cernobori L. (1999). Quaternary normal faulting in southeastern Sicily (Italy): a seismic source for the 1693 large earthquake. Geophysics Journal International, 139, 370-394. • Casalbore D., Romagnoli C., Bosman A., Chiocci F.L. (2011). Potential tsunamigenic landslides at Stromboli Volcano (Italy): insight from marine DEM analysis. Geomorphology 126, 42-50. • Cattaneo A., Correggiari A., Marsset T., Thomas Y., Marsset B., Trincardi F. (2004). Seafloor ondulation pattern on the Adriatic shelf and comparison to deep-water sediment waves. Marine Geology, 213, 121-148. • Chiocci F.L., Romagnoli C., Bosman A. (2008). Morphologic resilience and depositional processes due to the rapid evolution of the submerged Sciara del Fuoco (Stromboli Island) after the December 2002 submarine slide tsunami. Geomorphology, 100, 356-365. • De Martini P.M., Burrato P., Pantosti D., Maramai A., Graziani L., Abramson H. (2003). Identification of tsunami deposits and liquefaction features in the Gargano Area (Italy): paleoseismological implication. Annals of Geophysics 46, 5, 883-902. • De Martini P.M., Barbano M.S., Smedile A., Gerardi F., Pantosti D., Del Carlo P., Pirrotta C., (2010). A 4000 yrs long record of tsunami deposits along the coast of the Augusta Bay (eastern Sicily, Italy): paleoseismological implications. Marine Geology 276, 42–57. • De Martini P.M., Barbano M.S., Pantosti D., Smedile A., Pirrotta C., Del Carlo P., Pinzi S. (2012). Geological evidence for paleotsunamis along eastern Sicily (Italy): an overview. Natural Hazard and Earth System Science, 12, 2569-2580. • Del Gaudio V., Pierri P., Calcagnile G., Venisti N. (2005). Characteristics of the low energy seismicity of central Apulia (southern Italy) and hazard implications. Journal of Seismology, 9, 39-59. • Di Bucci D., Ridente D., Fracassi U., Trincardi F., Valensise G. (2009). Marine palaeoseismology from very high resolution seismic imaging: the Gondola fault zone (Adriatic foreland). TerraNova 21, 393-400. • Eva C., Rabinovich A. (1997). The 23 February 1887 tsunami recorded on the Ligurian coast, western Mediterranean. Geophysical Research Letters, 24, 17, 2211-2214. • Gerardi F., Smedile A., Pirrotta C., Barbano M.S., De Martini P.M., Pinzi S., Gueli A.M., Ristuccia G.M., Stella G., Troja O. (2012). Geological record of tsunami inundations in Pantano Morghella (south-eastern Sicily) both from near and far-field sources. Natural Hazard and Earth System Science, 12, 1185-1200. • Gianfreda F., Mastronuzzi G., Sansò P. (2001). Impact of historical tsunamis on a sandy coastal barrier: an example from the northern Gargano coast, southern Italy. Natural Hazard and Earth System Science, 1, 213-219. • Grezio A., Gasparini P., Marzocchi W., Patera A., Tinti S. (2012). Tsunami risk assessments in Messina, Sicily - Italy. Natural Hazard and Earth System Science, 12, 151-163. • Lorito S., Tiberti M.M., Basili R., Piatanesi A., Valensise G. (2008).
46
Earthquake-generated tsunami in the Mediterranean Sea: Scenarios of potential threats to Southern Italy. Journal of Geophysical Research 113, B01301. • Maramai A., Tinti S. (1996). Study for a pilot monitoring and alarm system for the Calabrian Sicilian tsunamis. Phys. Chem. Earth, 21, 12, 83-86. • Maramai A., Graziani L., Tinti S. (2005a). Tsunamis in the Aeolian Islands (southern Italy), a review. Marine Geology 215, 11–21. • Maramai A., Graziani L., Alessio G., Burrato P., Colini L., Gucci L., Nappi R., Nardi A., Vilardo G. (2005b). Nearand far-field survey report of the 30 December 2002 Stromboli (Southern Italy) tsunami . Marine Geology 215, 12, 93-106 • Massari F., D'Alessandro A. (2000). Tsunami-related scour-and-drape undulations in Middle Pliocene restrictedbay carbonate deposits (Salento, south Italy). Sedimentary Geology 135, 265281. • Mastronuzzi G., Pignatelli C. (2012). The boulders berm of Punta Saguerra (Taranto, Italy): a morphological imprint of 4th April, 1836 Rossano Calabro tsunami? Earth Planets Space, 64, 10, 829842. • Mastronuzzi G., Pignatelli C., Sansò P. (2004). Assessment of catastrophic wave impact in Apulia region (Southern Italy). Risk Analysis IV, C. A. Brebbia (Editor), WIT Press, pp. 681-689. • Mastronuzzi G., Pignatelli C., Sansò P. (2006). Boulder Field: a valuable morphological indicator of palaeotsunami in Mediterranean Sea. Zeitschrift für Geomorphologie, 146, 173-194. • Mastronuzzi G., Pignatelli C., Sansò P., Selleri G. (2007). Boulder accumulations produced by the 20th February,1743 tsunami along the coast of southeastern Salento (Apulia region, Italy). Marine Geology, 242(1–3), 191–205. • Mastronuzzi G., Sansò P. (2000). Boulder transport by catastrophic waves along the Ionian coast of Apulia, Southern Italy. Marine Geology, 170, 93 - 103. • Mastronuzzi G., Sanso’ P. (2004). Large Boulder Accumulations by Extreme Waves along the Adriatic Coast of southern Apulia (Italy). Quaternary International, 120, 173-184. • Mastronuzzi G., Sansò P. (2006). Coastal geomorphology and tsunami vulnerability. The case study of Apulia region (Italy). Geografia Fisica e Dinamica Quaternaria, 29 (2), 83-91. • Mastronuzzi G., Sansò P. (2012). The role of large earthquakes and tsunami in the Late Holocene evolution of Fortore River coastal plain (Apulia, Italy): a synthesis. Geomorphology, 138, 89-99. • Minisini D., Trincardi F., Asioli A. (2006). Evidence of slope instability in the Southwestern Adriatic Margin. Natural Hazard and Earth System Science, 6, 1-20. • Pantosti D., Barbano M.S., Smedile A., De Martini P.M., Tigano G. (2008). Geological evidence of paleotsunamis at Torre degli Inglesi (northeast Sicily). Geophysical Research Letter, 35, L05311. • Pareschi M. T., Boschi E., Mazzarini F., Favali M. (2006a). Large submarine landslides offshore Mt. Etna. Geomorphology Research Letters, 33, L13302. • Pareschi M.T., Boschi E., Favali M. (2006b). Lost tsunami. Geophysical Research Letters, 33, L22608. • Paulatto M., Pinat T., Romanelli F. (2007). Tsunami hazard scenarios in the Adriatic Sea Domain. Natural Hazard and Earth System Science, 7, 309-325. • Pelinovsky E., Kharif C., Riabov I., Francius M. (2001). Study of tsunami propagation in the Ligurian Sea. Natural Hazards Earth Systems Sciences, 1, 195201. • Piatanesi A., Tinti S. (2002). Numerical modelling of the September 8, 1905 Calabrian (southern Italy) tsunami. Geophys. J. Int. 150, 271-284. • Piatanesi A., Tinti S., Bortolucci E. (1999). Finite-element simulations of
the 28 December 1908 Messina Straits (Southern Italy) Tsunami. Phys. Chem. Earth, 24, 2, 145-150. • Pignatelli C., De Leonardis M., Mastronuzzi G., Sansò P. (2008). Valutazione di impatto di onde estreme lungo la costa fra Capo San Vito e Polignano (Puglia, Italia) mediante tecniche GIS. Memorie Descrittive della Carta Geologica D'Italia, LXXVIII, 207222. • Pignatelli C., Ferilli S., Capolongo D., Marsico A., Milella M., Pennetta L., Piscitelli A., Mastronuzzi G. (2010). Evidenze morfologiche ed applicazioni informatiche al fine della valutazione del limite di inondazione da tsunami. Rivista Italiana di Telerilevamento, 42, 129-142. • Pignatelli C., Piscitelli A., Damato B., Mastronuzzi G. (2010). Estimation of the value of Manning’s coefficient using Terrestrial Laser Scanner techniques for the assessment of extreme waves flooding. Zeitschrift für Geomorphologie, 54, 3, 317-336. • Pignatelli C., Sansò P., Mastronuzzi G. (2007). Indicatori morfologici dell’impatto di eventi meteorologici estremi nella Puglia Meridionale. Geologi e Territorio, 3/4, 173-180. • Pignatelli C., Sansò P., Mastronuzzi G. (2009). Evaluation of tsunami flooding using geomorphologic evidence. Marine Geology, 260, 6-18. • Pino N.A., Giardini D., Boschi E. (2000). The December 28, 1908, Messina Straits, southern Italy, earthquake: waveform modeling of regional seismograms. Journal of Geophysical Research 105, 25,473-25,492. • Piscitelli A., Pignatelli C., Mastronuzzi G. (2009). Hydrodynamic equations to evaluate the impact of extreme storms on the Adriatic coast of Apulia (Southern Italy). In: Damiani L., Mossa M. (eds) Coastlab 08 - Bari, Application of Physical Modelling to Port and Coastal Protection, 351-358, ISBN 97890-78046-07-3. • Scicchitano G., Monaco C., Tortorici, L. (2007). Large boulder deposits by tsunami waves along the Ionian coast of south-eastern Sicily (Italy). Marine Geology, 238, 1–4, 75–91. • Scicchitano G., Pignatelli C., Spampinato C.R., Piscitelli A., Milella M., Monaco C., Mastronuzzi G. (2012). Terrestrial Laser Scanner techniques in the assessment of tsunami impact on the Maddalena Peninsula (south-eastern Sicily, Italy). Earth Planets Space, 64, 10, 889-903. • Smedile A., De Martini P.M., Pantosti D. (2012). Combining inland and offshore paleotsunami evidence: the Augusta Bay (eastern Sicily, ITALY) case study. Natural Hazard and Earth System Science, 12, 2557-2567. • Smedile A., De Martini P.M., Pantosti D., Bellucci L., Del Carlo P., Gasperini L., Pirrotta C., Polonia A., Boschi E. (2011). Possible tsunamis signatures from an integrated study in the Augusta Bay offshore (Eastern Sicily, Italy). Marine Geology, 281, 1-13. • Tanner L.H., Calvari S. (2004). unusual sedimentary deposits on the SE side of Stromboli volcano, Italy: products of a tsunami caused by the ca. 5000 years BP Sciara Del Fuoco collapse? Journal Of Volcanology And Geothermal Research 137, 329– 340. • Tiberti M.M., Lorito S., Basili R., Kastelic V., Piatanesi A., Valensise G. (2009). Scenarios of earthquake-generated tsunami for the Italian coast of the Adriatic Sea. Pure and Applied Geophysics, 165, 2117–2142. • Tinti S., Armigliato A. (2003). The use of scenarios to evaluate the tsunami impact in southern Italy. Marine Geology, 199, 221-243. • Tinti S., Armigliato A., Bortolucci E. (2001). Contribution of tsunami data analysis to constrain the seismic source: the case of the 1693 eastern Sicily earthquake. Journal of Seismology 5, 41-61. • Tinti S., Armigliato A., Bortolucci E., Piatanesi A. (1999). Identification of the Source Fault of the 1908 Messina earth-
quake through Tsunami modelling. Is it a possible task? Phys. Chem. Earth 24, 5, 417-421. • Tinti S., Bortolucci E., Armigliato A. (1999). Numerical simulation of the landslide-induced tsunami of 1988 on Vulcano Island, Italy. Bulletin of Volcanology, 61, 121-137. • Tinti S., Bortolucci E., Romagnoli C. (1999). Modelling a possible holocenic landslide-induced tsunami at Stromboli volcano, Italy. Phys. Chem. Earth 24, 5, 423-429. • Tinti S., Bortolucci E., Romagnoli C. (2000). Computer simulations of tsunamis due to sector collapse at Stromboli, Italy. Journal of Volcanology and Geothermal Research 96, 103-128. • Tinti S., Graziani L., Brizuela B., Maramai A., Gallazzi S. (2012). Applicability of the decision matrix of north eastern Atlantic, Mediterranean and connected seas Tsunami Warning System to the Italian tsunamis. Natural Hazard and Earth System Science, 12, 843-857. • Tinti S., Manucci A., Pagnoni G., Armigliato A., Zaniboni F. (2005). The 30 december 2002 landslide-induced tsunamis in Stromboli: sequence of the events reconstructed from the eyewitness accounts. Natural Hazard and Earth System Science, 5, 763–775. • Tinti S., Maramai A. (1996). Catalogue of tsunamis generated in Italy and in Côte d'Azur, France: a step towards a unified catalogue of tsunamis in Europe. Annali di Geofisica, 39, 6, 1253-1299. • Tinti S., Maramai A. (1999). Large tsunamis and tsunami hazard from the New Italian Tsunami Catalog. Phys. Chem. Earth, 24, 2, 151-156. • Tinti S., Maramai A., Armigliato A., Graziani L., Manucci A., Pagnoni G., Zaniboni F. (2005). Observations of physical effects from tsunamis of december 30, 2002 at Stromboli volcano, southern Italy. Bulletin of Volcanology, 68, 450–461. • Tinti S., Maramai A., Favali P. (1995). The Gargano promontory: an important ltalian seismogenic - tsunamigenic area. Marine Geology, 122, 227-241. • Tinti S., Maramai A., Graziani L. (2004). The new catalogue of Italian Tsunamis. Natural Hazard and Earth System Science, 33, 439-465. • Tinti S., Pagnoni G., Piatanesi A. (2003). Simulation of tsunamis induced by volcanic activity in the Gulf of Naples (Italy). Natural Hazard and Earth System Science, 3, 311-320. • Tinti S., Pagnoni G., Zaniboni F.(2006). The landslides and tsunamis of the 30th of december 2002 in Stromboli analysed through numerical simulations. Bulletin of Volcanology, 68, 462–479. • Tinti S., Pagnoni G., Zaniboni F., Bortolucci E. (2003). Tsunami generation in Stromboli island and impact on the south-east Tyrrhenian coasts. Natural Hazards and Earth System Sciences, 3, 299-309. • Tinti S., Piatanesi A. (1996a). Finiteelement simulations of the 5 february 1783 calabrian tsunami. Phys. Chem. Earth,.21, 12, 39-43. • Tinti S., Piatanesi A. (1996b). Numerical simulation of the tsunami induced by the 1627 earthquake affecting Gargano, southern Italy. Journal of Geodynamics, 21, 2, 141-160. • Tinti S., Zaniboni F., Pagnoni F., Manucci A. (2008). Stromboli Island (Italy). Scenarios of tsunamis generated by submarine landslides. Pure and Applied Geophysics, 165, 2143-2167. • Tonini R., Armigliato A., Pagnoni G., Zaniboni F., Tinti S. (2011). Tsunami hazard for the city of Catania, eastern Sicily, Italy, assessed by means of Worts-case Credible tsunami Scenarios Analysis (WCTSA). Natural Hazards and Earth System Sciences, 11, 1217-1232.
GEOmedia n°4-2013
REPORTS
Ringraziamenti Il presente lavoro è stato realizzato in ambito del progetto RITMARE, Progetto Bandiera del Programma Nazionale della Ricerca finanziato dal Ministero dell’Università e della Ricerca, sotto la direzione del CNR. Un doveroso ringraziamento va al Prof. Angelo Tursi dell’Università degli Studi “Aldo Moro” di Bari, per aver sostenuto questo progetto, all’ing. Damiano Scarcella di ISMAR-CNR e alla dott.ssa Paola Carrara di IREA-CNR, per aver curato la pubblicazione online del WebGIS.
Abstract
Parole chiave
The need to create an integrated maritime policy underline by the European Commission has been taken on board in Italy through the achievement of the Program RITMARE, the Italian Research for the Sea. Concerning of this project, has been drafted a list of scientific references about tsunami events that occurred in Italy. The articles have been collected through the consultation of digital libraries; arranged by area of study and inserted into a geographic database. This geo-database has been used for GIS implementation, subsequently published on the web, via map server, on the site of the program Ritmare (www.ritmare.it).
GIS; monitoraggio; geo-database; tsunami; RITMARE
Webgrafia
Bibliografia
Autori
Cetraro F. (2011). GIS e WebGIS a confronto. Cartografia applicata ai sistemi informativi territoriali. EPC Editore, Roma, 431pp. n Dainelli N., Bonechi F., Spagnolo M., Canessa A. (2008). Cartografia numerica. Dario Flaccovio Editore, Palermo, 368 pp. n De Martini P.M., Burrato P., Pantosti D., Maramai A., Graziani L., Abramson H. (2003). Identification of tsunami deposits and liquefaction features in the Gargano Area (Italy): paleoseismological implication. Annals of Geophysics 46, 5, 883-902. n Di Bartolomeo M. (2010). Implementazione di un WebGIS open source per la gestione di dati archeologici, paleogeomorfologici e storico-cartografici relativi alla rete idrografica antica di Aquileia. Phd. Thesis, Università degli Studi di Trieste, 142 pp. n Esri Shapefile Technical Description - An ESRI White Paper - July 1998 n Gianfreda F., Mastronuzzi G., Sansò P. (2001). Impact of historical tsunamis on a sandy coastal barrier: an example from the northern Gargano coast, southern Italy. Natural Hazard and Earth System Science, 1, 213-219. n Guidoboni E., Comastri A. (2007). Catalogue of Earthquakes and Tsunamis in the Mediterranean Area from the 11th to the 15th Century. Istituto Nazionale di Geofisica e Vulcanologia, Bologna, pp. 1037. n Guidoboni E., Tinti S. (1987). I maremoti garganici del seicento. Atti. VI Conv. Naz. GNGTS, Rome, 491-504. n Mastronuzzi G., Brückner H., De Martini P. M., Regnauld H. (2013). Tsunami: form the open sea to the coastal zone and beyond. In: Mambretti S. (eds) Tsunami. From fundamentals to Damage Mitigation. WITPress, Southampton, Boston. n Mastronuzzi G., Sansò P. (2000). Boulder transport by catastrophic waves along the Ionian coast of Apulia, Southern Italy. Marine Geology, 170, 93– 103. n Piatanesi A., Tinti S., Bortolucci E. (1999). Finite-element simulations of the 28 december 1908 Messina Straits (Southern Italy) tsunami. Phys. Chem. Earth (A), 24, 2, 145-150. n Tinti S., Piatanesi A., Maramai A. (1997). Numerical simulations of the 1627 Gargano tsunami (Southern Italy) to locate the earthquake source, perspective on tsunami hazard reduction: observation, theory and planning. G.T. Hebenstreit (Ed.), Kluwer Academic Publishers, Dordrecht, The Netherlands, 115-131. n
visita il sito www.rivistageomedia.it
• • •
ec.europa.eu/maritimeaffairs/policy www.cnr.it www.ritmare.it
Paola Fago Environmental Surveys S.r.l. Via della Croce 156 – 74123 Taranto, Italy paola.fago@gmail.com Maria Venerito LaGAT-Ta Laboratorio Gis geo-Ambientale e di Telerilevamento Taranto, Corso di laurea in Scienze Ambientali, Università degli Studi "Aldo Moro" di Bari Via A. De Gasperi (Q.re Paolo VI) –74123 Taranto, Italy mariavenerito@libero.it Cosimo Pignatelli Geo Data Service S.r.l. Via della Croce 156 – 74123 Taranto, Italy cosimo.pignatelli@email.it Arcangelo Piscitelli Environmental Surveys S.r.l. Via della Croce 156 – 74123 Taranto, Italy arcangelo.piscitelli@libero.it Maurilio Milella Environmental Surveys S.r.l. Via della Croce 156 – 74123 Taranto, Italy maurisismo@libero.it Paolo Sansò Dipartimento di Scienze e Tecnologie Biologiche e Ambientali, Università del Salento Via per Arnesano, 73100 Lecce, Italy paolo.sanso@unisalento.it Giuseppe Mastronuzzi Dipartimento di Scienze della Terra e Geoambientali, Università degli Studi “ Aldo Moro”, Via Orabona 4 – 70125 Bari, Italy giuseppeantonio.mastronuzzi@uniba.it
47
SMART CITIES Smart cities or dumb cities? Città, riqualificazione urbana e pioggia di dispositivi elettronici di Beniamino Murgante e Giuseppe Borruso Oggi è molto diffuso un approccio che associa in maniera stretta il concetto di Smart City alla repentina diffusione di dispositivi elettronici. Azioni di questo tipo, per quanto di indubbia utilità, se completamente sconnesse dal contesto e soprattutto dalla città possono trasformarsi in un inutile spreco. Questa convinzione diffusa evoca scenari urbani ispirati dal film di Ridley Scott, “Blade Runner”, che nelle intenzioni di molti vendors dovrebbero portare a una visione di città analoga a quella di una pubblicità della Pioneer di fine anni ‘80 (http://youtu.be/5rMI_aVYtR0) dove ogni persona “indossava” uno o più televisori che costituivano una barriera con il mondo esterno determinando un comportamento da automa, realtà cui non siamo tuttavia troppo lontani, non per via di ingombranti caschi contenenti televisori personali, quanto per l’immersione pressoché totale che una buona parte della popolazione dei paesi industrializzati ha ormai in dispositivi quali smartphones e tablet (http:// www.tecnostress.it/smartphoneaddiction-cause-sintomi-e-abitudini-patologiche-in-infografica. html). Questo approccio tutto italiano alle smart cities comporterà una pioggia di dispositivi elettronici nelle nostre città connessi ad improbabili obbiettivi da raggiungere. Già negli anni scorsi abbiamo assistito a molti programmi con risultati alquanto deludenti. Basti pensare al programma di ammodernamento delle stazioni ferroviarie che ha portato ad una installazione di un elevato numero di televisori, spesso di dimensioni rilevanti, destinati soprattutto a trasmettere pubblicità, ignorati da tutti, e parallelamente a uno smantellamento di servizi e strutture utili a supportare il viaggiatore: la quasi totale abolizione delle sedie, la riduzione in dimensioni dei tabelloni con gli orari (http:// www.flickr.com/photos/mbell1975/7357900768/) e loro spostamento in luoghi spesso poco accessibili, sostituiti dai succitati mega-schermi pubblicitari (http://www.flickr.com/photos/106378504@ N02/10439767224/), l’eliminazione dei servizi di trasporto bagagli, solo recentemente ripristinato in alcune stazioni (https://twitter. com/gborruso/status/388912012841209856). È emblematico un recente tweet del giornalista Vittorio Zucconi, in cui una fotografia scattata a Roma Termini mostra, ai binari dell’Alta Velocità, due grandi orologi che riportano due ore diverse (entrambe sbagliate!) mentre numerosi schermi LCD presentano non si sa quali informazioni, generalmente di poca utilità (https://twitter. com/vittoriozucconi/status/391656118226677760/photo/1). Tralasciamo il fatto che le moderne stazioni ferroviarie sono spesso così smart da non prevedere scale mobili, rampe o ascensori per agevolare persone a mobilità ridotta o famiglie con bambini piccoli. L'utilizzo di tecnologie nell'ambito della rigenerazione urbana è stata utilizzata negli anni 80' per recuperare aree industriali dismesse con un uso spinto di High Tech che ci ha regalato degli edifici che sono un colabrodo energetico. Restando invece all’ambito strettamente urbano, in recenti applicazioni del concetto di smartness si è passati dagli investimenti in smart cards (sanitarie, carte d’identità) il cui utilizzo è spesso limitato a singole regioni (non in grado di dialogare e trasmettere informazioni tra strutture diverse: meglio la cara vecchia carta, quindi?) e dispositivi vari, non accompagnati tuttavia da analoghe spinte dal lato dei dati e delle procedure: spesso fare opendata significa pubblicare liste di delibere in formato pdf ma i veri dati su cui la ‘smartness’ dei cittadini potrebbe concretizzarsi rimangono chiusi
48
nei server o nei cassetti. L’altro aspetto è dato dal fare passare per smart interventi che hanno in realtà caratteristiche di manutenzione ordinaria o straordinaria di edifici (es. installazione di isolanti termici attorno agli edifici). Assistendo a operazioni del genere risulta evidente che il programma, durante l’attuazione, ha perso di vista il suo principale obbiettivo. Tra le prime nozioni che vengono insegnate durante le lezioni di pianificazione strategica è che in un programma bisogna prima di tutto identificare chi sono i beneficiari. Nella maggior parte dei programmi “technology driven” spesso questo principio non è preso in considerazione o viene dimenticato durante l’attuazione. Per convincersi di questa tendenza basta pensare ai programmi riguardanti le scuole. Siamo tutti consapevoli che i principali problemi sono le classi pollaio e gli edifici fatiscenti, ma la priorità è stata quella di acquistare lavagne interattive multimediali (L.I.M.) e di passare al registro elettronico principalmente per appaltare software di bassa qualità e tablet per i docenti. Sembra di rivivere lo stesso periodo degli albori dei sistemi informativi territoriali quando il mercato italiano era dettato più dall'offerta che dalla domanda. Era il periodo dei SIT "chiavi in mano" nel quale venivano spese ingenti risorse nell'acquisto di Hardware e Software senza avere le idee chiare sulle esigenze dell'amministrazione e del loro possibile uso nella gestione della città. Il risultato è che oggi, dopo circa venti anni, solo qualche centinaio di comuni su un totale di circa ottomila ha in SIT degno di questo nome. Rischi analoghi sono molto probabili nella via italiana alle Smart Cities. Bisogna anche porsi un interrogativo: perché in una nazione che ha mostrato sempre forti repulsioni nei confronti delle tecnologie, periodicamente si manifestano forti accelerazioni nel settore dell’ICT? In Italia ci sono sempre state forti remore nel confrontarsi con gli impulsi derivanti dall'innovazione perché l’adeguarsi a questi nuovi approcci porterebbe a modificare prassi e pratiche consolidate. E quando ‘nuove tecnologie’ vengono imposte e diffuse spesso hanno il risultato di generare repulsione nei confronti della stessa tecnologia, in quanto foriere di peggioramenti nella qualità delle procedure piuttosto che miglioramenti (v. smartcard sanitarie regionali), tanto da far rimpiangere la ‘vecchia carta’ e rinsaldare quindi lo scetticismo nei confronti dell’innovazione (quella vera). Negli anni scorsi ci sono stati vari disegni di legge, per fortuna tutti naufragati, che cercavano di mettere il bavaglio alla rete, da sempre vista più come problema che come fonte di opportunità. L'Italia è la nazione nella quale la principale azienda di telecomunicazioni, in un primo tempo, ha riposto poca attenzione in internet, vedendosi poi costretta nel 1996, per rimediare all'errore, a rilevare videonline (http://www.vol.it) il più importante provider italiano dell'epoca, realizzando clubnet. Che senso ha riempire la città di “lampioni wi-fi” se abbiamo una delle bande più “strette” d’Europa? Quale utilità ha per la popolazione la sostituzione dei cestini dei rifiuti con contenitori “intelligenti” dotati di microchip e GPS con la funzione di segnalare quando l'immondizia ha raggiunto l'orlo? Queste "raffinatezze" sono utili in paesi dove la raccolta porta a porta raggiunge la totalità delle abitazioni, non in città dove i rifiuti differenziati sono ben lontani dal 50%. Questa rubrica intende analizzare in maniera dettagliata aspetti positivi e negativi degli approcci adottati nelle esperienze riguardanti le Smart Cities. Alcune posizioni critiche o ironiche, come quelle manifestate in questo primo contributo, non riguardano il settore dell'innovazione nella sua globalità, ma specifici approcci adottati in singole esperienze. Del resto gli autori hanno sempre fondato le proprie ricerche nel settore delle tecnologie applicate al territorio.
GEOmedia n°4-2013
Conoscere prima di visitare. Grazie a Trimble Indoor Mobile Mapping Solution, rilevare ambienti interni è più veloce e più facile che mai. • Rispondere alle minacce terroristiche • Prevenire le calamità naturali • Creare piani di evacuazione dei sistemi di trasporto • Creare piani di gestione delle emergenze
Informazioni precise sul layout delle strutture interne degli edifici e sulle zone circostanti permettono ai servizi di pronto intervento di agire in modo rapido, preciso ed efficace in caso di emergenza. Con Trimble Indoor Mobile Mapping Solution, una semplice passeggiata negli spazi interni è tutto ciò che serve per acquisire i dati spaziali. Mappe e modelli di migliaia di metri quadrati di spazi interni possono essere rilevati in minuti, interi edifici in un solo giorno
Visitate il nostro sito trimble.com/timms Scriveteci a land@applanix.com
ASSOCIAZIONI AMFM da dieci anni protagonista di INSPIRE in Italia. CONFERENZA AMFM 2013 Dieci anni fa AMFM GIS Italia organizza il primo workshop nazionale ad ASITA 2002 a Perugia (www.asita.it), lo stesso anno in collaborazione con il laboratorio LABSITA (www.labsita.org) di Uniroma 1 pubblica un quaderno sulla IDT, poi coorganizza insieme alla Regione Sardegna la conferenza di GI & GIS della EC ad Alghero, come si chiamava la conferenza INSPIRE all'epoca, dopo anni di diffusione dei principi e dei risultati della direttiva, audizione presso il CNIPA e presso rappresentanti parlamentari e dopo avere organizzato il primo e sinora unico seminario insieme a ISPRA, quest'anno alla conferenza INSPIRE in Italia partecipa con uno stand ed organizzando un workshop di una intera giornata invitando a partecipare autorevoli esponenti Italiani primi tra tutti l'IGM richiama l'attenzione sul trend di sviluppo della direttiva: la dimensione sub-nazionale o regionale (presentazioni disponibili a www. AMFM.it). Con tali premesse la conferenza 2013 di AMFM che si è svolta a Roma il 26 settembre non poteva non avere tra gli elementi essenziali quello di fare il punto sulla applicazione della direttiva in Italia. In realtà la sfida di trattare questo tema, purtroppo mai trattato in un incontro pubblico in Italia ad opera degli organi preposti, era talmente grande che si è optato per una tavola rotonda a temi predefiniti. Una sessione breve all'interno della giornata della conferenza, solo poco più di un ora, ma storica perché per la prima volta si ha avuto l’opportunità di ascoltare gli attori italiani di INSPIRE in pubblico i quali hanno espresso la loro posizione su quanto ci si era accordati di trattare. La foto rappresenta da sinistra e per enti ISPRA, il NCP, la DG del Catasto,l' Agenzia per l'Italia digitale e il CISIS-CPSG, vanno a seguire i rappresentanti delle industrie ESRI Italia, Autodesk e Intergraph Italia, manca per sopraggiunti impegni l'IGM. Ad un concittadino europeo potrebbe sfuggire l’eccezionalità dello scatto, ma l'attento osservatore italiano nota che non è mai accaduto che si avesse una riunione pubblica di tal portata per quanto riguarda INSPIRE. I temi posti da trattare nel tavolo risultano ancora più innovativi e ugualmente storicamente rilevanti. Sono stati di tipo strategico per capire che cosa potrebbe rappresentare per l'Italia la direttiva. La policy (politiche) e riferimenti legislativi nella maggior parte degli stati europei sono chiari : ad es. in DK dove il ministro delle finanze ha pagato per fare diventare pubblici i dati prodotti dallo stato o in Belgio dove si è costituito un NCP con valenza agglomerante per le varie componenti della società e delle pressanti autonomie. E in Italia? La leva INSPIRE viene usata? Come ha influenzato lo sviluppo delle tecnologie utilizzate da tutti gli enti pubblici?
Ha creato opportunità di business? Ha creato opportunità di nuovi posti di lavoro sia nel pubblico che nel privato? Ha cambiato il modo di porsi delle istituzioni nei confronti dei dati geografici ed ha modificato ed educato quello dei cittadini? Ha creato coesione e consapevolezza? Che cosa si dovrebbe fare? Visto e considerato che obiettivamente il decreto di recepimento viene considerato solo un mero esercizio di ottemperanza anche farraginosa? Le industrie private stanno cogliendo le opportunità o no? Stanno creando nuovi posti di lavoro? Riportare e riassumere le varie posizioni espresse durante la tavola rotonda e' difficile perché, a causa della opportunità di essere per la prima volta insieme, le opinioni espresse dagli invitati sono state ampie e complesse. Spesso infatti i temi proposti sono stati presi come spunto. AMFM GIS Italia sta realizzando a tal fine una raccolta della registrazione delle fasi essenziali della tavola rotonda che è stata già trasmessa via web durante la conferenza. Pur tuttavia vale riportare alcuni salienti punti fermi che sono stati precisati, ed a me pare, in modo assolutamente innovativo. De Bernardinis il presidente di ISPRA ha introdotto il concetto di INSPIRE come modello, posizione questa assolutamente innovativa che, si può commentare, non traspare assolutamente nel Decreto di recepimento e che invece fornirebbe all’applicazione della direttiva in Italia, quel quid che sinora non ha avuto. L'AGID ha espresso e condiviso la posizione che quanto da loro sinora posto in essere e' stato realizzato anche tenendo conto direttamente delle norme tecniche di INSPIRE a prescindere dalla loro digestione nel contesto istituzionale italiano da parte degli organi preposti. Tale posizione e' simile a quella esposta da Domenico Longhi del CISIS -CPSG che ha anche ben rappresentato le difficoltà di essere allo stesso tempo utente e fornitore da parte delle Regioni. I rappresentanti delle industrie hanno rappresentato la necessità di operare in un contesto più dinamico ed evoluto che si realizza a seguito di una posizione chiara ed efficace della normativa e della politica nazionale relative ai dati ed infrastrutture dei dati e non solo ma per quanto riguarda in generale l’informazione geografica ed i dati spaziali relativi a qualunque cosa sia presente sul territorio dagli edifici ai componenti ambientali. Considerata la rilevanza degli argomenti trattati e la passione dimostrata dai partecipanti ho proposto al termine della tavola rotonda ed in qualità di rappresentante della ONG leader in Italia su questo tema, AMFM GIS ITALIA, che la tavola rotonda potesse trasformarsi in un forum per fare sì che il momentum non andasse sprecato. Sinora nessuno degli invitati ha espresso perplessità a riguardo. Abbiamo quindi posto nella nostra agenda di attività no-profit ed autofinanziate tale iniziativa.
Datum
11.34212343 44.34234593
Gauss-Boaga
WGS84 Effemeridi
ED50-UTM32
Cassini-Soldner
ETRS89
Latitudine
Longitudine
UTM50-32N
ELISSOIDE
6378137 635752.314
GEOIDE
GPS GNSS RTK APS-3 Facile,Completo,Preciso Surveysoft - Distributore per l’Italia dei Prodotti Altus-GPS , Microsurvey Software , RUIDE Stazioni Totali
www.surveysoft.it
ASSOCIAZIONI Le altre sessioni della conferenza del 26 settembre hanno trattato temi innovativi. Quello mai trattato in Italia della misurazione degli edifici. Quello del B.I.M. ( Building Integrated Modeling )per il quale altri paesi europei già stanno operativamente legiferando. Quello dell'utilizzo delle tecniche tridimensionali nella gestione dei rischi idrogeologici. La sicurezza dei dati in particolare per le reti di servizio e' stata trattata dalla Regione Lombardia capofila del progetto UPSIDEDOWN del quale anche AMFM e' partner. Un gran successo hanno riscosso le presentazioni brevi ad opera di autorevoli enti ed organizzazioni quali il S. Anna, OpenStreet.net ed altri. AMFM GIS Italia c'è l’ha messa tutta per fare un altro passo avanti nello sviluppo della informazione geografica in Italia: ai posteri l' ardua sentenza si potrebbe dire, ma noi siamo soddisfatti già ora perché le ONG servono e soprattutto al giorno d'oggi. Mauro Salvemini Presidente AMFM GIS ITALIA PREMIO AIC – ASITA 2013 L’Associazione Italiana di Cartografia (AIC) indice il concorso a un premio destinato a un prodotto cartografico o un lavoro di ricerca nell’ambito delle teorie e delle tecniche cartografiche. Il premio vuole riconoscere l’impegno in queste discipline a un giovane non strutturato con una somma di MILLE euro. Il premio è amministrato in collaborazione con la Federazione delle Associazioni Scientifiche per le Informazioni Territoriali e Ambientali (ASITA) e verrà consegnato in occasione del prossimo convegno nazionale che si terrà nel corso del 2014. I candidati dovranno presentare il modulo di iscrizione al concorso via posta elettronica entro il 30 novembre 2013.
L'associazione AMFM GIS Italia è partner del progetto Upsidedown Security Il progetto, co-finanziato dalla Commissione europea e di cui la regione lombardia è capofila, vede il coinvolgimento di 14 partner di differenti nazionalità (5 italiani e 9 residenti in Austria, Bulgaria, Francia, Irlanda, Olanda, Polonia, Repubblica Ceca, Spagna, Svezia), ed ha lo scopo di mettere in pratica i principi della direttiva europea Inspire, analizzando gli standard di gestione delle informazioni sulle infrastrutture sotterranee, al fine di predisporre misure di prevenzione e di contrasto ad eventuali attacchi terroristici.
Simposio “Cartografare l’intelligenza urbana” da parte della Segreteria della Società Geografica Italiana Onlus Dal comitato organizzatore, l’invito alla prossima edizione del simposio Eidolon, dedicato all’innovazione cartografica, che si terrà a Québec il 3 e il 4 luglio 2014 e porterà sul tema “Cartografare l’intelligenza urbana”. Durante l’evento saranno organizzati un concorso di cartografia (sotto forma di hacking mapping party) e la seconda edizione della scuola estiva “Geomatica e città intelligente” organizzata dal dipartimento di scienze geomatiche dell’Université Laval di Québec. L’appello a contribuire è disponibile sul sito del convegno: http://www.crg. ulaval.ca/?page_id=2071. Gli abstract (di 1000 parole in inglese o in francese) dovranno specificare una delle tre tematiche previste dal simposio (il tempo dell’urbano, i nuovi spazi dell’urbano, il capitale spaziale) e dovranno essere inviati entro il 6 gennaio a: stephane.roche@scg.ulaval.ca. Seconda Conferenza OpenGeoData Italia “Dati geografici aperti Istruzioni per il RI-uso” Roma - 27 febbraio 2014 Come riusare i dati geografici aperti della Pubblica Amministrazione?Quali sono le regole? Chi li riutilizza? Per quali applicazioni? Come si realizza una APP con gli Open Data geografici? A queste e ad altre domande risponderanno i relatori invitati alla Seconda Conferenza “Dati geografici aperti - Istruzioni per il RI-uso” che si terrà a Roma il 27 febbraio 2014. La Conferenza si terrà al Centro Congressi Frentani di Roma ed in contemporanea verrà trasmessa in streaming sul web. OpenGeoData Italia è un’Associazione Culturale senza scopo di lucro, nata per diffondere la cultura dei dati geografici ed il loro libero uso, per incoraggiarne il riuso, per stimolare gli Enti Pubblici con azioni, proposte e progetti a rendere accessibili ed utilizzabili i loro dati geografici. Alla prima Conferenza “OpenGeoData Italia – istruzioni per l’uso” (Roma- 28 febbraio 2013) hanno partecipato più di 400 persone in sala ed altre 150 via web. L’e-book contenente sia gli Atti della Conferenza che diversi ulteriori approfondimenti e report, è stato scaricato finora più di 3.000 volte.
RECENSIONE
Appunti per una storia della Topografia in Italia nel XX secolo AUTORE: ATTILIO SELVINI EDITORE: MAGGIOLI EDITORE, SANTARCANGELO DI ROMAGNA 2012 WWW.MAGGIOLI.IT PAGINE: 121 PREZZO: €12,00 € ISBN: 88-387-6211-6 A CHI È DIRETTO: STUDIOSI DELLE DISCIPLINE DEL RILIEVO E DELLA RAPPRESENTAZIONE.
“Il ventesimo secolo ha visto l’Italia fra i primi paesi del mondo per quanto riguarda ricerche, insegnamento e costruzione di strumenti nell’ambito delle discipline geodetiche, topografiche, cartografiche, fotogrammetriche: insomma in ciò che ora va sotto il nome di geomatica. Sembra giusto ricordare, sia pure in forma concisa, coloro i quali hanno contribuito al divenire di queste discipline nell’ambito di un secolo. Questi appunti sono dedicati soprattutto ai molti giovani che oggi, in un mondo assai diverso da quello qui raccontato, hanno scelto di dedicarsi alla ricerca e allo studio della Terra, delle sue dimensioni, della sua rappresentazione.” Esordisce così l’autore nel frontespizio introduttivo alla sua opera. Che cosa sia la geomatica di oggi e quale sia stato il percorso di coloro che ci hanno portato a questa definizione, può essere compreso attraverso un piccolo volume scritto da Attilio Selvini che raccoglie la storia recente delle discipline geodetiche, topografiche e aerofotogrammetriche in Italia. E’ una piccola grande opera, perché pur nella sua sinteticità, illustra con autorità, obiettività e dovizia di particolari, molto interessanti, il contributo di un gruppo di persone che negli anni hanno lavorato nella ricerca e nell’insegnamento confrontandosi anche all’interno di associazioni, come la SIFET, o nell’ambito delle spinte ricevute dalla fiorente industria fotogrammetrica, nella quale hanno interagito studiosi, ricercatori, inventori e precursori di quello che sarebbe successivamente sfociato in una comunità scientifica di tutto rispetto, non priva di concorrenzialità, ma conscia delle sue capacità e in grado di affrontare e promuovere idee e scoperte che hanno contribuito a dare i presupposti alla nuova scienza devota alla misurazione di ciò che si trova sulla superficie terrestre.
52
Per chi ha vissuto tutto ciò sarà sicuramente un piacere poter ripercorrere insieme all’Autore, vicende e storie di personaggi che hanno contribuito a questa eccezionale evoluzione tecnologica. Ed è fondamentale l’aver messo un punto fermo citando e ricordando gli attori di un epoca in questo modo, non come un asettico elenco di fatti storici, bensì nella visione di colui che partecipava a questo mondo fatto di tecniche e metodi in cui alla base di tutto imperava la ricerca della assoluta precisione della misura. Un viaggio attraverso una storia che si articola in varie fasi, partendo dal mondo della ricerca e dell’università per andare a quello dell’industria e dei professionisti fino a quello degli istituti tecnici, descrivendo con dovizia anche i testi di topografia che hanno avuto ragione di essere menzionati. Si evince durante l’intera trattazione l’importante ruolo che l’Italia ha ricoperto negli avanzamenti scientifici delle discipline del rilevamento e della rappresentazione durante la prima metà del secolo scorso, cosa che purtroppo non si è ripetuta successivamente portando l’Italia ad avere un ruolo marginale nel mondo. Uno stimolo per pensare di poter tornare nei prossimi decenni a dare di nuovo quell’eccezionale contributo scientifico che ci ha contraddistinto ma che oggi deve trovar luogo nella nuova operatività della comunità scientifica globale in cui siamo immersi.
(RC)
GEOmedia n°4-2013
AGENDA
2014
Annunciate le date della Conferenza Italiana Utenti Esri 2014 Esri Italia annuncia la 15ª Conferenza Italiana Utenti Esri che si svolgerà il 9 e 10 aprile 2014. La Conferenza è un evento che, grazie al contributo di tutti gli utenti, è divenuto un appuntamento irrinunciabile per imprese, pubbliche amministrazioni, ricercatori, professionisti e appassionati del GIS. La conferenza permette di esplorare tutte le potenzialità del GIS nel lavoro e nella vita quotidiana e di scoprire tutte le novità offerte dalla tecnologia Esri. La Conferenza Italiana Utenti Esri sarà a Roma, all’Auditorium del Massimo, il 9 e 10 aprile 2014. Non perdere questo importante appuntamento, scopri di più nei prossimi giorni sul sito www.esriitalia.it (Fonte: Esri Italia)
02-06 Dicembre 2013 December '13 - TC/PC Meeting IIT Bombay, India www.opengeospatial.org 5-6 Dicembre 2013 ISPRS/IGU/ICA/GSC Joint Workshop Borderlands Modelling and Understanding for Global Sustainability Beijing China http://geo.english.bnu.edu.cn/ newsphotos/53301.html 9-10 Dicembre 2013 ISPRS WG VIII/7 International Expert Group Meet on Multi Scale Forest Biomass Assessment and Monitoring of Hindu Kush-Himalayan Ecosystem using Geospatial Systems Kathmandu, Nepal www.icimod.org
9-11 Dicembre 2013 The 9th International Conference on Geoinformation for Disaster Management (Gi4DM) Hanoi, Vietnam www.gi4dm2013.com 9-11 Dicembre 2013 24th Annual Meeting of GRSG Geological Remote Sensing Group Status and Developments in Geological Remote Sensing http://www.isprs.org/ calendar/2013.aspx 09-13 Dicembre 2013 American Geophysical Union’s 46th annual Fall Meeting (dedicated to Earth surface temperatures). San Francisco, United States. http://www.earsel. org/?target=announce/ otherevents
10-11 Dicembre 2013 Experience the GIS Solutions EXPO and Much More Keep pace with ArcGIS 10.2 and the entire ArcGIS platform at the 2013 Esri Mid-Atlantic User Conference in Baltimore. http://www.esri.com/events/mid-atlantic 03-06 Febbraio 2014 7th Workshop on Remote Sensing of Land Ice and Snow: Remote Sensing of the Earth's Cryosphere. Bern,Switzerland. Organised by University of Bern, Switzerland http://www.earsel. org/?target=announce/ otherevents 27 febbraio 2014 Seconda Conferenza OpenGeoData Italia “Dati geografici aperti -Istruzioni per il RI-uso” Roma - www.opengeodata.it
10-12 Febbraio 2014 2014 Federal GIS Conference Walter E. Washington Convention Center Washington, DC http://www.esri.com/events/ federal 12-14 Febbraio 2014 EuroCOW 2014: the Calibration and Orientation Workshop. Castelldefels, Barcelona, Spain http://www.earsel. org/?target=announce/ otherevents 27-29 Gennaio 2014 symposium GIS Ostrava 2014 – “Geoinformatics for Intelligent Transportation” Ostrava (Czech Republic) http://gis.vsb.cz/gisostrava
ArcheomaticA Tecnologie per i Beni Culturali www.archeomatica.it
ABBONAMENTO PROMOZIONE (INVECE DI 45) 20 EURO IN