Rivista bimestrale - anno 14 - Numero 1/2010 Sped. in abb. postale 70% - Filiale di Roma
www.rivistageomedia.it
La prima rivista italiana di geomatica e geografia intelligente
N°1 2010
Benvenuti nella nuova era
del
CATASTO
X ORTOFOTOCARTE: storia, evoluzione e nuove prospettive
X Geomatica, emergenze e neogeografia: intervista a Ed Parsons di Google
X NSDI 2.0, siamo pronti?
X Intervista al direttore dell'Agenzia del Territorio
Il mondo della ricerca geomatica va cambiato www.rivistageomedia.it
Direttore RENZO CARLUCCI direttore@rivistageomedia.it Comitato editoriale FABRIZIO BERNARDINI, VIRGILIO CIMA, LUIGI COLOMBO, MATTIA CRESPI, MICHELE DUSSI, SANDRO GIZZI, DOMENICO SANTARSIERO, LUCIANO SURACE, DONATO TUFILLARO Direttore Responsabile FULVIO BERNARDINI fbernardini@rivistageomedia.it Hanno collaborato a questo numero: FRANCESCO BARTOLI, DOMENICO BASILI, MICHELE FASOLO, FLAVIO FERRANTE, MAURIZIO FREZZOTTI, ANDREA GIACOMELLI, ACHILLE LEMMO, GABRIELE MARASCHIN, MAURIZIO PIOMPONI, MAURO SALVEMINI, ATTILIO SELVINI, DONATO TUFILLARO Redazione GIANLUCA PITITTO Via C. Colombo, 436 00145 Roma Tel. 06.62279612 Fax 06.62209510 redazione@rivistageomedia.it www.rivistageomedia.it Marketing e Distribuzione ALFONSO QUAGLIONE marketing@rivistageomedia.it Diffusione e Amministrazione TATIANA IASILLO diffusione@rivistageomedia.it Via C. Colombo, 436 00145 Roma Web: www.aec2000.eu E-mail: info@rivistageomedia.it Progetto grafico e impaginazione DANIELE CARLUCCI dcarlucci@rivistageomedia.it Stampa Futura Grafica 70 Via Anicio Paolino, 21 00178 Roma Condizioni di abbonamento La quota annuale di abbonamento alla rivista è di € 45,00. Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa. L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo. La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo. Il presente numero è stato chiuso in redazione il 29 aprile 2010. Editore A&C2000 s.r.l. Registrato al Tribunale di Roma con il N° 243/2003 del 14.05.03 ISSN 1128-8132 Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la riproduzione anche parziale del contenuto di questo numero della Rivista in qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore. Rivista fondata da Domenico Santarsiero.
uso del GPS, ai primordi del suo utilizzo, fece fare a tutti i rilevatori un passo avanti nella comprensione dell'evoluzione della ricerca scientifica. La tecnologia GPS, figlia delle intuizioni in materia di meccanica celeste, ha – come tutte le scienze – delle basi sperimentali e teoretiche. Tali fondamenti, col tempo e con l’utilizzo massivo dei satelliti per il posizionamento, hanno dovuto però scontrarsi con variabili e problematiche che, ovviamente, non erano misurabili in laboratorio; la definizione di ogni singola posizione dei satelliti GPS doveva per forza contemplare tutte le variazioni dall’orbita teorica, questo a causa di perturbazioni generate da una moltitudine di fattori non correlati. L’analisi di tali fattori imponeva l'acquisizione dati relativi all’atmosfera, al geoide, alla troposfera, allo spazio, ecc, sempre più accurati e definibili, con grande dispendio di risorse e di energie. La rilevazione del dato era relativamente semplice, la sua analisi per l’uso sicuramente complessa! L’unico modo per gestire una tale mole di dati era dunque affidarsi a modelli computerizzati, a simulazioni: che è proprio ciò che accade oggi.
L’
Jim Gray, guru informatico di Microsoft, in uno dei suoi ultimi discorsi prima di scomparire in mare nel 2007, propose il concetto di ‘quarto paradigma’, ripreso poi nel libro The Fourth Paradigm appena pubblicato in suo onore dai colleghi; secondo Gray, la scienza e la ricerca sono accomunate dal passaggio che ha visto la scienza sperimentale evolversi in quella teoretica e poi in quella simulata. Un siffatto approccio scientifico – orientato ai dati – può far di internet il terreno in comune per unificare scienza e letteratura: l’acquisizione di nuovi dati può, esemplificando, aggiornare in real-time la letteratura scientifica disponibile su un certo argomento, in modo da aumentare la ‘velocità d’informazione’ in ambito scientifico. Avere a che fare con enormi moli di dati è ormai una consuetudine, soprattutto in settori come quello delle Scienze della Terra e della Geomatica; qui, il dato, è assolutamente fondamentale. La gestione delle emergenze è solo una di quelle attività che non può prescindere da modelli di analisi avanzati: il sistema geoSDI Era per il terremoto dell’Aquila, ce ne ha dato dimostrazione. La NSDI 2.0 degli Stati Uniti è un altro utile esempio, soprattutto considerato che in questo caso il dato geografico si configura come un impulso allo sviluppo economico al pari delle infrastrutture fisiche che la stessa Informazione Geografica supporta. Guardando all’Italia, è evidente come l’indotto economico e finanziario legato ad un settore come il Catasto – perennemente dinamico – possa avvantaggiarsi di una cosiddetta maggiore ‘velocità d’informazione’. In tutti questi casi, l’adozione di un ‘quarto paradigma’ per le Scienze della Terra porterebbe importanti benefici. Il primo passo che tutti i ricercatori dovrebbero fare è, in questo senso, quello di ‘aprire i propri cassetti’ e scambiare in rete i dati di cui dispongono – non solo i documenti descrittivi e i metadati – per dare finalmente origine ad una Spatial Data Infrastructure su scala mondiale. Utopia? Chi lo sa. Veniamo a GEOmedia. In questo primo numero dell’edizione 2010, oltre ad una veste grafica rinnovata, proponiamo alcuni degli argomenti appena affrontati: il Catasto, con un contributo tecnico sull’uso incrociato dei dati, un contributo divulgativo sull’uso di procedure catastali ed un’intervista al direttore dell’Agenzia del Territorio. Completano il quadro un report sulla conferenza Gi4DM con una breve ma significativa intervista a Ed Parsons, Geospatial Technologist di Google, gentilmente concessa al nostro inviato. Ed ancora, un’analisi in chiave comparativa della NSDI italiana e di quella statunitense che si sta proponendo, in versione 2.0, per contribuire al rilancio dell’economia americana. Buona lettura, Renzo Carlucci direttore@rivistageomedia.it
VENT'ANNI
AGRICOLTURA
di intuizioni, opportunitĂ , impegno, studio, lavoro, collaborazioni importanti, fiducia e grandi risultati. Grazie!
un framework efficace e replicabile per gli LPIS degli Organismi Pagatori: un approccio coerente per la gestione dei sussidi comunitari.
un occhio attento e dinamico sul patrimonio immobiliare e sul territorio da gestire. Un modello dati referenziato, georiferito e storicizzato.
un viaggio spettacolare in 3 dimensioni, senza essere al cinema e senza occhiali speciali! Avanzati sistemi informativi territoriali 3D.
CATASTO
TECH 3D ABACO group
MANTOVA - ROMA - PADOVA - PISA w w w . a b a c o g r o u p . e u tel. 0376 222181 - fax 0376 222182
SOMMARIO 1-2010 FOCUS
6
L’individuazione dei fabbricati sconosciuti al Catasto DI
F. FERRANTE, M. PIOMPONI, D. BASILI E M. FREZZOTTI
14 L’evoluzione delle ortofotocarte DI ATTILIO SELVINI REPORTS
20 Geomatica e gestione delle emergenze a Gi4DM Intervista a Ed Parsons DI FRANCESCO BARTOLI
24
NSDI 2.0: siamo pronti? DI
RENZO CARLUCCI
28 Pregeo 10: a un passo dall’automazione completa DI
DONATO TUFILLARO
32 SATExpo Europe 2010: EGNOS, Galileo e politica geospaziale DI
GIANLUCA PITITTO
PERSONAGGI
36
In ricordo di Enrico Vitelli DI RENZO CARLUCCI E FLAVIO FERRANTE
INTERVISTA
del Territorio nel contesto della Pubblica Amministrazione 2.0 40 L’Agenzia A CURA DELLA REDAZIONE TERRA E SPAZIO
50 Un rapporto dallo spazio profondo DI
FABRIZIO BERNARDINI
In copertina, il GIS sviluppato per la municipalità di Caceres in Spagna. Il progetto è arrivato tra i finalisti dell'Infrastructure Best Practice Award di Bentley Systems, nella categoria 'Innovazioni nel Catasto e nella Gestione del Territorio'. Il sistema prevede l'utilizzo di cartografia digitale e dati alfanumerici in modo da rendere le informazioni fruibili ai funzionari pubblici ed ai cittadini, in pieno spirito PA 2.0. Per gestire la cartografia e l'integrazione dei database sono stati utilizzati MicroStation e MicroStation GeoGraphics. Per la digitalizzazione e georeferenziazione delle mappe, delle immagini satellitari e delle ortofoto, Bentley Descartes. Bentley Geo Web Publisher è servito per pubblicare e condividere le informazioni in rete. Credits: Ayuntamiento de Caceres.
ALTRE RUBRICHE
10 MERCATO 30 INDICE INSERZIONISTI 44 OPEN SOURCE 45 GI IN EUROPE 46 AZIENDE E PRODOTTI 52 RECENSIONE 54 AGENDA
FOCUS
L’individuazione dei fabbricati sconosciuti al Catasto di F. Ferrante, M. Piomponi, D. Basili, M. Frezzotti
Figura 1 Interfaccia della procedura ‘trova edifici’ (Cartografia catastale integrata con ortofoto digitali ad alta definizione per l’individuazione dei fabbricati sconosciuti al Catasto. Comune di Poggio Mirteto (RI). Foglio 23)
In questo articolo viene affrontato il tema, molto attuale, del censimento e dell'aggiornamento delle particelle relative ai fabbricati non registrati al Catasto. L'integrazione del Catasto digitale con le tecnologie di osservazione e modellazione del terreno, ha permesso di svolgere una campagna di rilevamento, nel triennio 2007, 2008 e 2009, che ha portato alla luce un rilevante numero di particelle catastali bisognose di aggiornamento. La campagna – frutto di una positiva collaborazione tra pubbliche amministrazioni – è stata realizzata dall'Agenzia del Territorio e dall'AGEA.
I
l progetto di Individuazione dei fabbricati sconosciuti al Catasto, eseguito in base alle prescrizioni della Legge Finanziaria del 2007 si colloca nel quadro della lotta all’evasione fiscale. Il progetto, caratterizzato da un avanzato contenuto tecnologico, è stato curato dall’Agenzia del Territorio in collaborazione con l’AGEA (Agenzia per le Erogazioni in Agricoltura) e rappresenta uno degli esempi più significativi di collaborazione e integrazione tra sistemi informativi delle pubbliche amministrazioni. Attraverso una specifica convenzione, stipulata nel maggio del 2007, le due Agenzie hanno individuato il terreno comune dove le rispettive competenze potessero trovare utili sinergie per le stesse amministrazioni e per i cittadini nell’interesse generale dello Stato. 6
Per il conseguimento dell’obiettivo è stata condotta una ricognizione generale sull’intero territorio nazionale, ad esclusione delle province autonome di Trento e Bolzano. Dati L’indagine territoriale è stata realizzata sulla base dei seguenti dati: • cartografia catastale in formato vettoriale (la cartografia catastale relativa a 67 province, è stata digitalizzata dall’Agenzia del Territorio negli anni 2007-2008 proprio per consentire l’esecuzione di questo specifico ed importante progetto); • orto-immagini digitali a colori ad alta definizione (pixel/50cm) acquistate congiuntamente dall’Agea e dall’Agenzia del Territorio; • Modello Digitale del Terreno (DTM);
Modello Digitale delle Superfici (DSM); • immagini all’infrarosso vicino (NIR Near Infra-Red). Metodologia La prima fase, eseguita sulla base dei dati del DTM e del DSM, ha riguardato l’individuazione automatica degli oggetti presenti sul terreno; questi, sono stati successivamente classificati, prima in funzione dell’altezza e poi attraverso l’ausilio delle immagini all’infrarosso vicino; è stato così possibile discriminare la vegetazione dagli altri manufatti del soprassuolo, determinando in automatico i poligoni di questi ultimi. L’intersezione spaziale, tra i poligoni relativi agli oggetti del soprassuolo individuati in automatico ed i poligoni dei fabbricati presenti nelle mappe catastali, ha consentito di individuare GEOmedia n°1-2010
FOCUS le particelle sulle quali insistono dei fabbricati, presenti sul terreno e non presenti nelle mappe del Catasto. I risultati così ottenuti, sono stati successivamente sottoposti a controlli di qualità sistematici, eseguiti attraverso la foto-interpretazione tradizionale sulle stesse ortofoto digitali ad alta risoluzione (pixel/50cm), al fine di eliminare gli errori che un processo automatico a livello industriale fatalmente comporta, soprattutto in relazione alla ‘qualità’ dei dati utilizzati. Il prodotto finale dell’attività, condotta in sinergia con Agea, è costituito da un elenco di particelle sulle quali insistono dei fabbricati non presenti nelle mappe del Catasto. L’elenco delle particelle così ottenuto è stato successivamente incrociato con i dati contenuti nei diversi archivi catastali, a cura della stessa Agenzia del Territorio. Tale operazione ha consentito di eliminare dall’elenco iniziale le particelle su cui insistono fabbricati che, se pur non rappresentati nelle mappe, sono comunque conosciuti, essendo presenti in altri archivi interni. L’elenco delle particelle, risultante dalle attività svolte nell’anno 2007 e nell’anno 2008, organizzato per foglio e per comune, è pubblicato sul sito web dell’Agenzia del Territorio e presso ciascuno dei comuni interessati. Il progetto, per quanto riguarda l’indagine territoriale, è stato sostanzialmente completato nel mese di dicembre del 2009 ed ha portato, come peraltro si può evincere dalla Tabella 1, all'individuazione di oltre 2.000.000 di particelle su cui insistono fabbricati sconosciuti al Catasto. E’ stata avviata, inoltre, una intensa campagna di comunicazione istituzionale per sollecitare i cittadini a provvedere all’accatastamento dei fabbricati sconosciuti al Catasto ed a quelli che hanno perso i requisiti della ‘ruralità’. Le tecnologie utilizzate dal progetto Per garantire il conseguimento dei risultati, nei limiti di tempo estremamente contenuti previsti dal progetto, l’Agenzia del Territorio e l’AGEA hanno ricercato delle modalità operative che consentissero di sfruttare al meglio le risorse tecnologiche disponibili presso le strutture tecniche di riferimento. In particolare, si è operata una prima scelta affiancando alle ortofoto digitali annualmente acquisite da AGEA e relative ad un terzo del territorio nazionale, altre librerie di immagini ortorettificate o archivi di riprese aeree fotogrammetriche disponibili sul territorio naziona-
visita il sito www.rivistageomedia.it
le e realizzate in un periodo temporale non antecedente l’anno 2006. I dati di base derivanti dalle riprese aeree effettuate con le diverse piattaforme tecnologiche sono stati quindi oggetto di processi di elaborazione specifici che hanno portato ad ottenere una serie di prodotti, in parte realizzati appositamente, quali: 1 il Modello Digitale delle Superfici
(DSM); 2 il Modello Digitale degli Ostacoli
(HOB) presenti sul terreno classificati; 3 uno strato tematico con l’impronta dei singoli ostacoli estratti in modo automatico. Per ogni prodotto, rispettivamente, sono state utilizzate solo ortofoto digitali multispettrali con 50cm di risoluzione (RGB+infrarosso) derivate da riprese aeree delle librerie: 1 ortofoto AGEA alla scala nominale
1:10.000 realizzate in base a specifiche tecniche coerenti con le norme nazionali e comunitarie; 2 riprese aeree TerraItaly realizzate utilizzando camere fotogrammetriche digitali Leica Geosystems ADS40SH53 con modalità di acquisizione pushbroom; 3 riprese aeree RealVista realizzate con i sensori a frame delle camere fotogrammetriche DMC (Z/I Imaging) e UltraCam D e X (Vexcel). Il Modello Digitale delle Superfici deriva dall’applicazione di algoritmi in modalità semi-automatica; il prodotto generato è un grigliato le cui celle quadrate hanno lato di 2 metri; in ciascuna cella è applicata la quota assoluta del punto più alto che ricade al suo interno caratterizzata da una accuratezza, a 3 sigma, di ±3 metri (figura 3). Il DSM è suddiviso in file di formato binario con estensione .bil (Band Interlived by Line) associati al world file con estensione .hdr. Il Modello Digitale degli Ostacoli deriva dal DSM e rappresenta la descrizione geometrica di tutti gli oggetti elevati sulla superficie del suolo (vegetazione arborea, urbanizzato nelle differenti strutture antropiche svettanti dal piano di campagna) definendone l’altezza espressa in metri (figura 4). La soglia minima di rappresentazione degli ostacoli è stata fissata nell’intervallo tra 1,5 e 2 metri. Le altezze del Modello Digitale degli Ostacoli sono state classificate per distinguere il tessuto antropico (edifici e
Figura 2 - Stralcio dell’ortofoto digitale a colori con risoluzione di 50 centimetri.
le altre strutture opera dell’uomo) dalla vegetazione. In questo processo il sistema si avvale di una classificazione della vegetazione eseguita attraverso indici di vegetazione quali l’NDVI (Normalized Difference Vegetation Index) che sfruttano la diversa risposta della copertura vegetale alle bande spettrali del visibile (rosso) e dell’infrarosso vicino presente sulle ortofoto. Tale indice fornisce un valore numerico in stretta relazione con la vegetazione – intesa come biomassa e area fogliare (Leaf Area Index) – e i processi biochimici ad essa correlati (attività fotosintetica). La procedura consente così di discriminare le altezze in due distinte categorie: in antropiche (fabbricati e tutte strutture realizzate dall’uomo) ed in naturali (vegetazione arborea - figura 5). La classificazione prevede una ulteriore suddivisione della parte antropica in classi di oggetti in base alla loro tipologia: edifici, cavalcavia, viadotti, ponti, e strutture analoghe, serre ed altre strutture sormontanti il terreno (terrapieni, argini, ecc.). Il prodotto finale è costituito da un grigliato a maglia quadrata in cui ogni cella ha la dimensione di 2x2m ed è contraddistinta da un codice che rappresenta la classe di appartenenza.
Figura 3 - Riproduzione del DSM in formato raster relativo all’area rappresentata nell’ortofoto.
7
FOCUS L’HOB finale ottenuto è in formato binario con estensione .bil e world file .hdr. Il modello digitale della superficie, quello degli ostacoli e la classificazioni dei particolari sormontanti il terreno sono tutti prodotti di tipo raster con definizione geometrica di 2 metri per 2 metri.
Figura 5 - Stralcio del rilievo catastale con riportate le impronte degli edifici non censiti.
Procedure operative I prodotti sopra descritti, grazie alla possibilità di correlare tra loro differenti modalità di rappresentazione delle stesse porzioni di territorio, offrono particolari e rilevanti opportunità che costituiscono un indiscutibile valore aggiunto in ogni valutazione che ha un riscontro sul territorio o un impatto sull’ambiente (impianti di telecomunicazione, infrastrutture, gestione del patrimonio forestale, prevenzione degli incendi), ma anche per modellazioni 3D, simulazioni ed altre applicazioni informatiche. In relazione con le diverse tipologie di dati disponibili relativi alle zone oggetto del lavoro, sono state utilizzate e quindi messe in atto differenti modalità operative, sia automatizzate che manuali; queste ultime sono state adottate esclusivamente nel caso in cui fosse disponibile il solo prodotto di base, ovvero le ortofoto digitali multispettrali. La procedura automatica ha applicato una metodologia di classificazione gerarchica basata sull’impiego dei vari layer informativi, descritti in precedenza, integrati con gli strati vettoriali di AGEA (dati di uso del suolo sulle particelle dichiarate), mappe catastali in formato vettoriale dell’Agenzia del Territorio riproiettate nel sistema Gauss-Boaga utilizzato dal Sistema Informativo Territoriale dell'AGEA. I passaggi operativi sono stati i seguenti:
Figura 6 - Stralcio del rilievo catastale con i centroidi, in posizione baricentrica, derivati dalle impronte degli edifici sconosciuti al catasto.
• vettorializzazione delle impronte degli edifici: per poter sovrapporre sul livello catastale degli edifici le impronte dei fabbricati derivanti da ortoimmagini, in formato raster, è necessario trasformarle in poligoni vettoriali chiusi (figura 5). • generazione dei centroidi: le impronte degli edifici che non si sovrappongono alle impronte catastali hanno le caratteristiche potenziali degli edifici non censiti, per cui in zona baricentrica dell’impronta viene generato un centroide (figura 6). • editing dello strato relativo ai centroidi: lo strato è stato sottoposto a verifica di qualità nel corso della quale un operatore ha compiuto
Figura 4 - Il DSM classificato relativo alla stessa porzione di territorio; in rosso gli ostacoli di origine antropica ed in verde gli ostacoli di natura vegetale.
In particolare, sono stati definiti i sei codici di classificazione qui elencati: 0 = terreno 1 = edificato 2 = vegetazione arborea 3 = cavalcavia, viadotti, ponti, e strutture analoghe 4 = serre 5 = altre strutture sovramontanti il terreno (rilevati, arginature, ecc.).
8
La collaborazione tra Agenzia del Territorio e AGEA I rapporti che da lungo tempo intercorrono fra l’Agenzia del Territorio e l’AGEA rappresentano uno dei più significativi esempi di collaborazione istituzionale nell’ambito dei servizi di rappresentazione e conoscenza del territorio. Le sinergie fra le due agenzie partono negli anni ‘80 quando, per rispondere all’esigenza di costituzione degli schedari oleicolo e viticolo richiesti dalle normative comunitarie, l’AGEA (allora AIMA), con un enorme sforzo organizzativo, ha utilizzato una metodologia di sovrapposizione manuale fra mappe catastali e immagini aeree. Il passaggio nei confronti delle tecnologie digitali a partire dal triennio 1996-1998 è caratterizzato dall’acquisizione in formato raster di tutte le mappe catastali cartacee allora di interesse agricolo, dai copioni di visura fino agli originali di impianto. Tale attività, che ha riguardato l’intero territorio nazionale con l’esclusione del 30% delle province già vettorializzate, è stata accompagnata dalla digitalizzazione dei limiti degli stessi fogli di mappa e dei centroidi delle particelle, ma soprattutto dalla georeferenziazione in doppie coordinate: nel sistema di riferimento nazionale Gauss-Boaga-Roma40 e nei sistemi catastali originari. Negli anni seguenti, l’intera banca dati – opportunamente trattata e controllata dall’Agenzia del Territorio – fornì la base di riferimento per l’impianto digitale della cartografia nel sistema informativo del catasto e per l’avvio dei servizi telematici realizzati della stessa Agenzia del Territorio. A partire da allora, grazie alla costante collaborazione fra le due Amministrazioni, l’informazione catastale – sia dal punto di vista della componente censuaria che grafica – ha accompagnato tutti i processi di evoluzione dei servizi del comparto agricolo. La consuetudine alla collaborazione, la conoscenza delle reciproche necessità e specificità, ha così consentito nel corso degli anni di individuare ogni volta le più efficaci modalità di azione congiunta utili al miglioramento delle rispettive banche dati e servizi nel contesto di un ottimale utilizzo delle risorse disponibili.
GEOmedia n°1-2010
FOCUS un’ispezione visiva congiunta di tutta la serie di dati disponibili (ortoimmagini, particelle catastali, impronte vettoriali degli edifici e centroidi) ed ha individuato sia eventuali centroidi mancanti – provvedendo alla loro cattura manuale – che eventuali centroidi da eliminare perché non hanno trovato un positivo riscontro sulle ortoimmagini. Tutte le fasi di editing sono state eseguite su dataset composti da vettori in formato .shp e ortoimmagini in formato .ecw. • Assegnazione alle particelle catastali delle informazioni relative ai centroidi: i valori derivanti dagli attributi del livello catastale vengono assegnati ai centroidi in base alla loro ubicazione attraverso un rapporto spaziale che unisce nella tabella gli attributi di questi, a strati. A conclusione di questa elaborazione a ciascun centroide sono associati i dati della particella in cui ricade.
Legge Finanziaria 2007 Individuazione Fabbricati sconosciuti al catasto Convenzione Agenzia del Territorio - Agea Attività 2007-2008-2009
Concludendo, con riferimento all’individuazione di fabbricati mai dichiarati in Catasto, nel dicembre 2009 sono stati pubblicati gli elenchi delle 570.000 particelle oggetto di ulteriori identificazioni, che si aggiungono a 1.500.000 di particelle già identificate nel corso degli anni 2007 e 2008. Le attività condotte nel 2009 su 24 province, hanno consentito il sostanziale completamento dell’indagine sul territorio nazionale, già effettuata per 77 province. Gli accertamenti relativi a tale specifica fattispecie hanno comportato un incremento della rendita catastale di 234 milioni di euro.
Abstract Location of buildings unknown to Cadastre Records This article addresses the issue of updating census, parcel and cadastral data for buildings which have not yet been registered. A campaign of quasi-automatic detection was carried out using the integration of the cadastral map with Earth Observation digital technologies and terrain modeling. From 2007 to 2009, many out of date parcels were updated during the campaign. The campaign, is the result of a positive collaboration between government agencies and private companies.
Figura 7
Tabella 1 - Dati statistici relativi all'attività di individuazione dei fabbricati sconosciuti al Catasto Dati statistici relativi all'attività di individuazione dei fabbricati sconosciuti al Catasto
Territorio interessato dalla foto identificazione nell'anno 2008
Territorio interessato dalla foto identificazione nell'anno 2009
Territorio interessato dalla foto identificazione nell'anno 0708-09
Province (* * *) alcune lavorate parzialmente
67 (*)
25 (*)
29 (*)
101
Comuni
4.250
945
1.990
7.185
Superficie territoriale (kmq)
173.200
38.600
64.000
275.600
Numero di particelle contenenti fabbricati sconosciuti al Catasto
1.260.835
244.508
571.250
2.076.593
Autori FLAVIO FERRANTE AGENZIA DEL TERRITORIO FLAVIO.FERRANTE@AGENZIATERRITORIO.IT MAURIZIO PIOMPONI AGEA M.PIOMPONI@AGEA.GOV.IT DOMENICO BASILI DBASILI@CGRIT.IT
MAURIZIO FREZZOTTI - ASI/TELESPAZIO MAURIZIO.FREZZOTTI@E-GEOS.IT E-GEOS
visita il sito www.rivistageomedia.it
9
MERCATO Blom CGR acquisisce per prima l’ALTM Pegasus Optech, produttore di strumenti avanzati di osservazione di tipo Lidar, ha annunciato che Blom, azienda europea di archiviazione e processamento mappe, è stata la prima ad acquistare l’ALTM Pegasus – il componente più recente della famiglia di prodotti ALTM Airborne Laser Terrain Mapper. Blom comincerà a sfruttare il sistema in tempi brevi. Blom è produttrice in Europa di dati geografici e di osservazione ed in questo ambito è fornitrice a livello globale. L’azienda è stata coinvolta nei più importanti progetti europei dedicati al controllo dell’ambiente ed alla valutazione del rischio basati sull’impiego di dati Lidar e su ortofoto. Quello appena acquisito è il settimo sistema Lidar per il gruppo Blom, in grado di fornire ai propri clienti la miglior risposta in termini di modelli di elevazione digitale. (Fonte: Redazionale)
Partnership NASA-JAXA per l’osservazione globale della Terra
Una collaborazione unica tra agenzie spaziali nazionali, quella americana e quella giapponese, è stata avviata il 12 aprile, attraverso la condivisione di risorse satellitari, con l’obiettivo di migliorare l’acquisizione di dati critici provenienti dall’osservazione della Terra. Questa nuova partnership tra NASA e la Japan Aerospace Exploration Agency, nota come JAXA, sfrutterà il Data Relay Satellite System della NASA per il downlink dei dati di osservazione riguardanti l’America meridionale e settentrionale, acquisiti dalle strumentazioni a bordo dell’Advanced Land Observing Satellite (ALOS) del JAXA. La copertura di quest’area aumenterà così sensibilmente: le osservazioni saranno effettuate con una frequenza all’incirca doppia rispetto al passato. Il Radar ad Apertura Sintetica (SAR), di tipo Phased-Array in banda L, chiamato PULSAR, è uno dei sofisticati strumenti a bordo di ALOS. Il suo compito principale è quello di misurare con precisione la distanza dalla superficie terrestre con ogni condizione meteorologica, sia di giorno che di notte. Le misure raccolte da questo strumento vengono impiegate per vari scopi: rilevare modifiche della crosta terrestre dovute a terremoti, ad eruzioni vulcaniche e smottamenti; per il mapping della copertura forestale e delle alluvioni ai tropici, per i loro effetti sul bilancio di carbonio in molti ecosistemi terrestri; per la determinazione della velocità a cui piattaforme di ghiaccio ed i ghiacciai si muovono, influenzando l’innalzamento del livello del mare. Il Tracking and Data Relay Satellite System della NASA è formato da otto satellite per comunicazione che stazionano in orbita geosincrona. Grazie alle stazioni di terra di White Sands vicino Las Cruces (New Mexico) e di Guam, il sistema è in grado di fornire copertura completa al segmento spaziale americano, costituito dalla Stazione Spaziale Internazionale, dall’Hubble Space Telescope e da molte altri missioni NASA. (Fonte: NASA)
Lanciato CryoSat-2 E’ stato lanciato con successo dal cosmodromo kazako di Baikonur CryoSat-2, il satellite che nei prossimi tre anni (periodo minimo stimato per acquisire dati sufficienti) avrà il compito di restituire agli scienziati importanti informazioni riguardanti i cambiamenti climatici e la situazione dei ghiacci del nostro pianeta. La missione CryoSat-2 dell’ESA segue il disastroso tentativo del 2005, quando questo fallì e il satellite andò in fumo assieme ai 100 milioni di euro dei costi della missione. CryoSat 2, il terzo satellite lanciato nell’ambito del programma Living Planet (i primi due erano GOCE e SMOS), stazionerà a circa 720 chilometri di altitudine e riuscirà a compiere un giro della Terra ogni 100 minuti, misurando le variazioni di forma e spessore del ghiaccio che ricopre suoli e mari con un margine di errore di un centimetro, grazie a un Radar Altimetro Interferometrico ad Apertura Sintetica (SIRAL), associato a un sistema di posizionamento doppler e radio (DORIS) e a un laser altimetro retro riflettore.
I primi dati cominceranno ad arrivare a partire da settembre. La durata della missione è stata fissata in tre anni – è stato spiegato in ESA – perché la comunità scientifica internazionale ha indicato questo come periodo minimo per acquisire dati sufficienti a valutare il ruolo dei ghiacci sul sistema Terra. Dopo il lancio e quando il satellite sarà operativo, la distribuzione dei dati scientifici agli utenti di tutto il mondo verrà gestita all’ESRIN. (Fonte: Redazionale)
GeoEye sceglie la Lockheed Martin per GeoEye-2 GeoEye ha annunciato di aver scelto la Lockheed Martin Space Systems Company, una delle principali unità operative della Lockheed Martin Corporation, per la realizzazione di GeoEye-2, satellite finalizzato all’osservazione della Terra ad alta risoluzione. La Lockheed ha già avviato attività per l’approvvigionamento materiali e per la progettazione, ingegnerizzazione e realizzazione sia del satellite che dell’associato sistema di controllo e comando. La Lockheed Martin per GeoEye la ha già realizzato il satellite IKONOS. Lanciato nel 1999, IKONOS ha superato i dieci anni di operatività. Attualmente continua a fornire immagini della Terra ad alta risoluzione, rese disponibili ai clienti commerciali e governativi di GeoEye sparsi in tutto il mondo. (Fonte: Redazionale)
10
GEOmedia n°1-2010
Le immagini IKONOS in offerta speciale
La notizia è ormai ufficiale: fino al 31 maggio 2010 è possibile ordinare le immagini IKONOS di archivio ad un costo eccezionale di soli 5 Euro al kmq + IVA per il prodotto Geo Ortho Kit e di 10 Euro al kmq + IVA per le immagini stereo (estensione minima di 200 kmq). Si può scegliere il proprio dato di interesse nel vastissimo archivio IKONOS della European Space Imaging che, tra il 2000 ed il 2008, ha acquisito più di 22 milioni di kmq di immagini su Europa, Medio Oriente e Nord Africa. E’ possibile visualizzare la mappa e scaricare lo shape file delle coperture satellitari, per verificare la disponibilità di immagini sull’area d’interesse, da questo indirizzo: http:// out.planetek.it/ikonos_promo_copertura.zip. Per ulteriori informazioni, chiamare lo 080.96.44.200 o scrivere direttamente a: sales@planetek.it (Fonte: Planetek Italia)
Nel 2010, Trimble Express fa tappa in sei città italiane Trimble, leader mondiale in GPS, laser per costruzioni, stazioni totali robotiche e sistemi di controllo macchine, anche quest’anno ha organizzato il Trimble Express 2010, occasione unica per scoprire e aggiornarsi su tutte le ultime novità di Trimble. Quali sono oggi le capacità delle soluzioni topografiche più avanzate? E come possono contribuire a velocizzare la tua attività? Le risposte a queste domande sono, oggi più che mai, a tua disposizione. In occasione della tua visita a Trimble Express 2010 potrai scoprire tutte le potenzialità di una topografia ancora più efficace e produttiva. Trimble Express 2010 quest’anno farà tappa in sei città italiane. Le prime quattro giornate, che si sono svolte a Cervignano del Friuli (UD), Rivalta Scrivia (AL), Affi (VR) e Medicina (BO), sono state un successo. Le prossime tappe dell’evento saranno il 24 maggio a Ragusa e il 26 maggio a Petrosino (TP). È possibile iscriversi a Trimble Express 2010 tramite il sito internet www.trimbleexpress. com. Iscrivendosi subito è possibile partecipare all’estrazione di un biglietto aereo andata e ritorno per Las Vegas per partecipare alla conferenza internazionale Trimble Dimensions 2010. Per ulteriori informazioni ci si può rivolgere ai partner Trimble sul territorio: Assogeo srl (info@assogeo.com) e CGT srl (info@cgtsrl.it) (Fonte: Trimble)
MERCATO Trimble dà vita ad un nuovo gruppo Mapping&GIS Trimble ha annunciato la formazione del nuovo gruppo dedicato alle soluzioni industriali all’interno della sua divisione Mapping&GIS. Battezzato Market Solutions Team, esso lavorerà a fianco di clienti strategici in settori chiave dell’industria allo scopo di sviluppare applicazioni avanzate nell’utilizzo dei dati, per operatori sul campo impegnati nella raccolta, gestione ed utilizzazione di informazioni geospaziali. Il Market Solutions Team lavorerà a stretto contatto con clienti di industrie selezionate per sviluppare soluzioni GPS e GIS personalizzate e di facile impiego. Facendo leva sul vasto panorama di prodotti Trimble esistenti sia in ambito software che in quello hardware, così come sulle soluzioni provenienti dalle varie divisioni della comunità dei partner, il team sarà in grado di realizzare prototipi di applicazioni basate su tecnologie strettamente tagliate sulle necessità del cliente. L’obiettivo finale è di immettere sul mercato soluzioni innovative che migliorino l’efficienza degli operatori sul campo e favoriscano lo sviluppo di nuovi prodotti, che possano poi essere distribuiti attraverso la rete globale di rivenditori autorizzati Mapping&GIS di Trimble. (Fonte: Redazionale)
Partnership TopconPointools
Topcon ha cominciato ad offrire prodotti Pointools in tutta Europa per integrare e mettere in mostra «l’eccezionale qualità dei dati prodotti dal nostro laser scanner GLS», secondo quanto affermato da Andrew Evans, Topcon Europe Product Specialist. Pointools Edit offre software completi per la visualizzazione e l’editing dei dati provenienti da nuvole di punti, il tutto unito a una vastissima gamma di effetti. Tra questi si ricordano:
Premio Nazionale Portali di Informazione Geografica 2010 L’associazione AM/FM GIS Italia bandisce la seconda edizione del Premio Nazionale per i Portali di Informazione Geografica che permettono di consultare e/o distribuiscono Informazione Geografica. Sulla scorta di iniziative mondiali e europee (quali la Direttiva INSPIRE), il numero dei portali con informazione geografica è molto cresciuto in questi anni, generando attenzione ed investimenti notevoli da parte di soggetti pubblici e privati. La qualità di questo sforzo rimane comunque vario e le modalità di comunicazione e distribuzione sono a volte scarsamente efficaci. Il Premio ha lo scopo di portare in evidenza e segnalare come esempi eccellenti i portali che rappresentano best practice dal punto di vista: • della ricchezza e della qualità dell’informazione geografica resa disponibile; • della efficacia della interfaccia utente e della comunicazione cartografica; • della efficienza e congruenza delle soluzioni tecnologiche adottate. La partecipazione al Concorso è gratuita. E’ aperta a soggetti pubblici e privati, gestori o promotori sia di portali di interesse generale – rivolti a utenti generici – sia di portali di interesse più specialistico, rivolti ad utenti specifici o professionali. Sul sito di AM/FM (www.amfm.it) sono disponibili il bando e il regolamento del Premio. (Fonte: AM/FM GIS Italia)
• gli effetti di luce • le opzioni di colorazione ri-colorazione dei dati • il mark-up e contrassegno di dati • gli strumenti efficaci di pulizia dei dati • la creazione fly-through. Tra le altre funzionalità disponibili c’è anche la possibilità di ottenere tempi di esecuzione molto veloci in modo che i clienti possano lavorare con «belle nuvole in un ambiente grafico reattivo», sempre secondo Evans. «Dal punto di vista di Topcon, il software Pointools mette in mostra la qualità dei dati dello scanner GLS. Dal punto di vista dei nostri clienti, invece, il fatto che Pointools sia uno sviluppatore indipendente significa che il software di visualizzazione è progettato specificatamente per garantire l’interoperabilità dei dati per l’utente finale». (Fonte: Redazionale)
Sinergis per l’e-government nella Regione Emilia Romagna Nell’ambito del progetto Sistema a Rete regionale, promosso tra le attività della community network dell’Emilia-Romagna, sono stati definiti alcuni progetti che prevedono il riuso di soluzioni software e organizzative in diversi ambiti tematici. Perché ciò avvenga è necessaria un'attività di raccolta, organizzazione e sistematizzazione delle diverse componenti, al fine di favorirne la gestione e la fruizione da parte degli enti interessati. Partendo da queste premesse, la Regione Emilia Romagna ha attivato un contratto con Engineering Ingegneria Informatica (mandataria), Sinergis e SCS Azioneinnova (mandanti), per realizzare il Centro di competenza per il dispiegamento delle soluzioni di e-government. Agendo sui tre piani di gestione dell’informazione, da quella più tradizionale a quella geografica a quella documentale, il Centro di competenza si propone di realizzare una gestione efficace ed efficiente del portafoglio soluzioni, in termini di conduzione e manutenzione del software e di una sua crescita evolutiva nel tempo, che miri alla gestione unitaria degli sviluppi secondo standard e specifiche (tecniche ed organizzative) di realizzazione comuni, e aderenti alle linee guida nazionali ed europee. Per maggiori informazioni: info@sinergis.it (Fonte: Sinergis)
12
GEOmedia n°1-2010
MERCATO
Nuova nomina per Claudio Mingrino di Intergraph Claudio Mingrino è stato nominato, lo scorso 1° gennaio, Government & Transportation Industry Director per Europa, Medio Oriente e Africa per Intergraph SG&I (Security, Government & Infrastructure). Questa nuova responsabilità prevede il coordinamento e lo sviluppo di tutte le strategie, attività ed opportunità relative ai mercati Government e Transportation a livello EMEA. Claudio Mingrino, 51 anni, ha maturato più di 25 anni di esperienza nel mercato dell’Information Technology, ricoprendo responsabilità a diverso livello in Italia ed all’estero. Nel 1985 è in Olivetti Systems and Network, responsabile di varie attività all’interno delle strutture marketing e commerciali – inclusa quella di partecipante al comitato di standardizzazione di Unix, X/Open. Nel 1994 entra in Intergraph Corporation come responsabile della gestione dell’Indirect Channel di Intergraph Italia e della divisione Intergraph Computer Systems Italia. Nel 1999 assume la responsabilità di Business Unit Manager della BU Mapping & GIS di Intergraph Italia e, mantenendo tale responsabilità anche nell’evoluzione di tale organizzazione nell’attuale divisione SG&I per l’Italia, la Grecia e Cipro. Nel 2006 assume la carica di Amministratore e Legale Rappresentante della Consociata italiana di Intergraph Corporation. Nel 2007 è responsabile del nuovo European Union Team di Integraph SG&I; a partire da quest’anno, la nuova carica. (Fonte: Intergraph)
Paolo Cotogni ricorda Franco Bardelli Franco Bardelli, presidente di IDS – Ingegneria Dei Sistemi, ci ha lasciato lo scorso 21 gennaio; Paolo Cotogni, collega di lungo corso, lo ricorda così: «Ho conosciuto Franco Bardelli al momento della mia assunzione in Selenia, nell’aprile del 1965. Già, perché, pur essendo – a 40 anni – Direttore generale di quella grande azienda che contava alcune migliaia di dipendenti, l’ing. Bardelli voleva conoscere di persona tutti i nuovi ingegneri che venivano assunti. Fin da quel primissimo incontro capii a quale grande uomo mi trovassi di fronte: ufficio a dir poco francescano, linguaggio scarno ma ricco di significati profondi, grande autorevolezza e austerità del comportamento ma al tempo stesso grande signorilità, rispetto e senso di accoglienza e di personale interesse alle passioni e alle aspirazioni dell’intimorito interlocutore. Un miscuglio di elementi che incuteva immediato rispetto e ammirazione. Dopo quindici anni di collaborazione caratterizzati da tante grandi e belle esperienze le nostre strade si divisero per poi ricongiungersi, sei anni dopo, a Firenze, presso le Officine Galileo dove mi assunse di nuovo, affidandomi la direzione della Franco Bardelli (a destra) con Pier Francesco Guarguglini Divisione Strumentazione e poi successivamente la direzione presidente e AD di Finmeccanica. generale della nuova società Galileo Siscam. Il periodo fiorentino è stato per me quello durante il quale ho potuto maggiormente apprezzare la personalità dell’ing. Bardelli: rigoroso, esigente, anche severo e insieme – per chi riconosceva sinceramente e assiduamente dedito al lavoro – comprensivo, disponibile, accogliente e mai irrispettoso. Così la sua straordinaria sensibilità per il prodotto, la grande abilità nel comprendere le capacità e i limiti delle persone, la non comune chiarezza nel definire i compiti ai propri collaboratori. Così la sua concezione del ruolo fondamentale della cultura nello sviluppo industriale: “La preparazione sistemistica è il nucleo di conoscenza da cui si deve partire per crescere ed essere competitivi sui prodotti”. E ancora: “Occorre cogliere la complessità del mondo e dominarla, imparando a navigare nel caos”. Concetti di alto livello e visioni di vasto raggio che spesso, purtroppo, chi è preso dal quotidiano non recepisce con la dovuta profondità ma che rimangono nel modo di pensare e fermentano la crescita e la maturazione. La sua scomparsa rappresenta una cesura importante nella vita professionale e personale di alcune generazioni d’ingegneri; la sensazione che in essi si è avuta – anche paradossalmente in quelli che da molti anni non avevano più avuto contatti con lui – è stata quella della mancanza di colui al quale, qualunque cosa succedesse, ci si poteva sempre rivolgere, sicuri di essere ascoltati e di ottenere il consiglio giusto e la parola giusta. Tutto questo ormai, dal 21 gennaio 2010, non sarà più possibile». Paolo Cotogni
visita il sito www.rivistageomedia.it
13
FOCUS
L’evoluzione delle ortofotocarte di Attilio Selvini
Le ortofotocarte sono prodotti che hanno una lunga storia, cominciata quasi cinquant'anni fa. Durante questo periodo, le tecniche per l'ottenimento delle ortofotocarte sono molto cambiate. In questo articolo viene proposta un'analisi storica di queste metodologie, con un occhio di riguardo nei confronti delle ortofoto digitali e delle true-orthophoto. In riferimento alla situazione italiana, viene sottolineata l'assenza di regole di base per la compilazione di questo tipo di mappe.
L
e ortofotocarte hanno avuto un inizio felice, soprattutto dopo il loro impiego nella Repubblica Federale Tedesca fra gli Anni Sessanta e Settanta del secolo scorso, ai fini della redazione della Grundkarte 1:5000 di alcuni Länder. A quei tempi furono impiegate anche da alcune Regioni italiane, quale alternativa alle carte al tratto. Seguì poi un lungo periodo in cui le ortofotocarte furono ignorate, anche per l’avvento della nuova cartografia vettoriale numerica e quindi digitale. Dopo una parentesi assai lunga, sono oggi nuovamente richieste dalle nostre pubbliche amministrazioni, ovviamente in forma digitale. La Regione Sardegna ha bandito nel 2008 un appalto con fondi comunitari per la copertura ortofotografica nelle scale 1:2000 ed 1:1000 dei centri urbani dell’intera isola, con procedura ristretta e dando il termine di diciotto mesi per l’esecuzione del lavoro. La Regione Veneto ha acquisito dalla nota CGR (Compagnia Generale Ripreseaeree, ora sezione italiana della multinazionale Blom) le ortofotocarte derivate dal volo IT 2000 e IT 2003, al 10.000 ed al 5000. La Regione Campania e la Regione Umbria si sono procurate ortofotocarte al 10.000. La Provincia Autonoma di Bolzano, nel 2006 ha bandito un appalto per ortofotocarte al 10.000, e si potrebbe continuare.
14
L’evoluzione delle tecniche Ho recentemente riletto parte del volume pubblicato in onore di Mariano Cunietti, ad opera del suo miglior allievo, il professor Alberto Giussani: in particolare, mi è rimasto impresso un lavoro che Mariano Cunietti ha pubblicato a suo tempo sul Bollettino SIFET, riguardante le ortofotocarte. Da
allora sono passati quasi quarant’anni, e quella rilettura fa pensare al salto fra storia e preistoria, anche se quarant’anni sono poca cosa rispetto all’evoluzione di altri settori della tecnica; in fondo, gli aerei di quel tempo, le automobili di quel tempo, le armi da fuoco lunghe o corte di quel tempo, non differiscono da quelle odierne se
Figura 1 - Fratture e doppie immagini nelle prime ortofoto
GEOmedia n°1-2010
FOCUS non per pochi particolari. Invece, che differenza abissale fra oggi ed allora, nell’ambito della tecnica di produzione delle ortofotocarte ed in genere dell’intera tecnica della produzione cartografica con la fotogrammetria! Solo qualche citazione dal lavoro in esame: «[…] Quali sono i problemi che i progettisti di strumenti per la costruzione delle ortofotocarte si sforzano oggi di risolvere? […] dalle comunicazioni dedicate […] alla strumentazione ed alle attrezzature tecniche emergono questi due indirizzi di ricerca costruttiva: da un lato la ricerca della massima automazione e del massimo rendimento delle operazioni: dall’altro, sotto un certo aspetto in antitesi con il precedente indirizzo, la ricerca della semplicità costruttiva per produrre strumenti a poco prezzo da potersi usare anche nell’ambito di organizzazioni modeste». Si era all’inizio degli Anni Settanta del secolo appena trascorso; l’elettronica era ancora di modesto impatto nella costruzione degli strumenti di misura: erano appena apparsi i primi teodoliti elettronici ed i primi distanziometri ad onde. Nell’ambito della strumentazione fotogrammetrica vi era ben poco, per non dire quasi nulla, al di fuori dell’uso degli elaboratori per il calcolo e la compensazione delle triangolazioni aeree per modelli indipendenti, con l’importante eccezione dei restitutori OMI della serie AP e della loro versione militare americana ASII. Per restare nel campo della ortofotoproiezione, i soli elementi elettronici a cavallo fra sperimentazione e
produzione erano il correlatore di immagini Itek Intergraph, unito al restitutore analogico Planimat D2 Zeiss e l’apparato Stereomat Wild-Raytheon. Si discuteva tenacemente della priorità della produzione online oppure offline, e ci si cimentava nell’ottenere l’altimetria congiuntamente o meno rispetto alla planimetria fotografica: in generale, si giudicavano incerte le dropped line e si suggeriva di far restituire le curve di livello dall’operatore, nel modo consueto. Diceva infatti Cunietti nel lavoro citato: «[…] Se si vuole che le curve di livello adempiano il loro compito descrittivo della forma del terreno, esse vanno tracciate con continuità dall’operatore direttamente sulla carta». Una prima, esauriente esposizione della tecnica dell’ortofotoproiezione, era apparsa sul Bollettino della SIFET, ad opera di uno dei più valenti fotogrammetri di allora, peraltro ideatore dello stereocomparatore TA3 OMI: il professor Ugo Bartorelli che, tra l’altro, affermava: «[…] Ovviamente all’ortofotopiano non si possono richiedere coordinate numeriche di punti importanti della carta; il rilevamento di tali punti […] deve essere effettuato numericamente direttamente dall’operatore al restitutore […]. E’ ovvio che l’ortofotopiano e la sua rappresentazione numerica non possono avere che un valore grafico». Oggi, come sappiamo, tutto è cambiato; va dato atto all’autore comunque, così del resto come al professor Cunietti, di avere correttamente previsto il futuro, quando in chiusura
Figura 2 - Il dispositivo interpolatore LG1 per evitare fratture e doppie immagini
visita il sito www.rivistageomedia.it
dell’articolo affermava: «[…] Ci sembra quindi che l’ortofotopiano sia da riguardare soltanto come un efficiente elaborato, intermedio fra la presa aerea e la carta da allestire ed, in copia fotografica, come un utilissimo complemento informativo della carta, da utilizzare da parte di specializzati in varie scienze e tecniche». In realtà è proprio così, pur essendo le attuali ortofotocarte ben diverse da quelle da quelle di allora, che avevano soltanto «un valore grafico»; Comuni e Regioni da noi, così come altri enti in Europa, hanno ormai scelto come cartografia tecnica il tradizionale sistema di stereorestituzione, ovviamente con tecniche digitali od analitiche, ma pur sempre vettoriali. Le ortofotocarte, almeno in Europa, sono spesso richieste proprio a fianco delle carte al tratto, per quell’utilizzo «da parte di specializzati in varie scienze e tecniche» di cui scriveva il professor Bartorelli poco sopra citato. Qualche altra indicazione dallo scritto di Cunietti: egli sottolinea che «[…] la carta è un prodotto dell’intelligenza dell’uomo che studia il terreno, ne vaglia le caratteristiche, separa quelle utili da quelle inutili che elimina: quelle utili poi le interpreta e le rappresenta simbolicamente. Una fotografia non può sostituire la carta, anche se essa è una rappresentazione planimetricamente fedele del terreno, perché non è una rielaborazione mentale, ma solo una riproduzione bruta […] Le ortofotocarte sono un utilissimo strumento di progresso là dove la tradizione cartografica è di recente formazione, ove il terreno è meno denso di sovrastrutture umane, ove il suo valore è di conseguenza meno alto, ove infine si ha una gran fretta di entrare in possesso di una descrizione del territorio corretta geometricamente e completa qualitativamente». Accennando all’impiego della ortofotoproiezione per la redazione di una parte consistente della più sopra citata Grundkarte tedesca al 5000, in Westfalia e Renania del Nord, Cunietti ricorda che «[…] gli esempi esposti di fogli della ‘Grundkarte’, ottenuti con la ortofotografia, posti a fianco di fogli rappresentativi del terreno secondo i procedimenti simbolici tradizionali, non potevano non stupire anche i più scettici. Sono fogli puliti, espressivi, comprensibili, chiari, oserei dire belli. Sono poi ugualmente utili? Rimandare ai posteri di manzoniana memoria ‘l’ardua sentenza’ potrebbe essere comodo, ma non è onesto dal punto di vista tecnico».
15
FOCUS
Figura 3 - Schema dell’ortofoto digitale
La fotogrammetria nell’era dell’informatica Da allora sono passati, così come detto all’inizio, quasi quarant’anni; quanti all’incirca ne erano trascorsi fra le prime applicazioni a grande scala della fotogrammetria (fine degli Anni Venti del Novecento: ricordiamo le carte di Palermo e di San Paolo in Brasile, della nostra SARA-Nistri) e l’inizio della redazione delle prime ortofotocarte (inizio degli Anni Sessanta dello stesso secolo). Ben scarsa parentela vi è fra queste ortofotocarte e quelle odierne; del tutto diversi i metodi di produzione, del tutto diversi i risultati. L’informatica non solo ha cambiato il volto della fotogrammetria, terrestre od aerea che sia, ma ha anche modificato – spesso rivoluzionandole – tutte le tecniche del rilevamento e della rappresentazione, quali che siano gli approcci: misura sull’oggetto o misura sulle sue immagini (fotografiche o meno che siano). Ho parlato di ‘rivoluzione’; si pensi infatti al rovescio delle procedure classiche rispetto a quelle satellitari: nel primo caso, si va dalle misure di angoli e distanze alle coordinate, nel secondo accade esattamente l’opposto! La produzione delle ortofotocarte è passata dal periodo degli strumenti puramente ottico-meccanici (raddrizzatori, ortofotoproiettori online e poi offline) – del tipo dello Ortho-3Projektor di Carl Zeiss o dello Ortofotosimplex Galileo-Santoni, oppure del GZ1 Gigas-Zeiss operante con la lettu-
16
ra di profili analogici – a quello degli strumenti assistiti dal computer, come per esempio lo OR1 di Wild-Leica o l’Orthocomp di Zeiss, per giungere all’era degli strumenti cosiddetti ‘digitali’, che sono quelli attualmente in uso. Brevemente: nelle ortofotoproiezioni semplicemente ottico-meccaniche, le ‘fratture’ fra edifici o loro parti, oppure fra strade, canali e viadotti, o anche la duplicazione delle immagini dello stesso particolare, erano inevitabili e comunemente accettate come modici ‘disturbi’ locali (figura 1). Tutto ciò che stava sopra il terreno naturale era infatti definito noise, quasi insensibile alle piccole scale, ma ben evidente a quelle grandi, dal 2.000 in su. L’uso degli strumenti assistiti dal computer aveva ridotto fortemente tali disturbi; già nel citato GZ1, un intelligente dispositivo (figura 2) aveva permesso di proiettare il terreno secondo la media delle pendenze valutabili fra due profili contigui. Restava in ogni modo il problema delle ‘zone morte’ –perché occluse per esempio dalle facciate degli edifici – insieme a quello della possibilità di compensare in qualche modo la differenza radiometrica fra immagini contigue: anche se già l’Orthocomp disponeva di un ‘cuneo dei grigi’ in grado di attenuare localmente queste differenze di tono. Un altro dei problemi tipici del passato – anche recente – nella produzione di ortofotocarte, era quello della diffi-
coltà di congiungere per mosaico più carte o parte di carte fra di loro; ciò sia dal punto di vista qualitativo descrittivo (differente densità radiometrica), sia da quello quantitativo metrico: la connessione in questo caso era di semplice accostamento grafico, con le tolleranze tipiche di tale procedura sia in fatto di rotazione che di traslazione. Per molti anni si erano prodotte ortofotocarte, cercando di usare per ogni foglio un solo fotogramma, proprio al fine di evitare, quanto meno dal punto di vista qualitativo, toni di grigio (e più avanti di colore) diversi nell’ambito del foglio. Per ciò che concerne l’altimetria, abbandonate ben presto le dropped lines, e ritenuto costoso il tracciamento diretto delle curve di livello allo stereorestitutore, erano stati escogitati diversi accorgimenti, fra cui quello presente nel GZ1, per finire nella derivazione diretta delle linee isoipse dal DTM usato per la guida dell’ortoproiettore (Orthocomp, OR1). Oggi, tutto è cambiato: a parte il problema delle ombre proiettate sul terreno da edifici ed alberi, insieme a quello della presenza di veicoli ed altri ostacoli mobili sulle vie di comunicazione, così come quello della vegetazione, le ortofotocarte digitali non differiscono troppo dalle carte al tratto, se non per la ridondanza dei particolari presenti sulla carta, che sono poi quelli stessi dell’immagine fotografica. Sono stati completamente risolti i problemi non solo delle doppie immagini o della ‘seghettatura’ dei particolari nastriformi, come strade e canali; ma anche quelli delle zone occluse, così come vedremo più oltre. La partenza è quella delle immagini riprese con camere digitali, oppure con camere a pellicola, ma successivamente passate allo scanner e pertanto rese in forma raster così come le prime. Accanto all’immagine è necessario il modello digitale del terreno, DTM (Digital Terrain Model), ma anche il modello digitale della superficie (DSM – Digital Surface Model) sia naturale che antropica (coperture di edifici, ponti e viadotti eccetera). Il DTM oggi si ottiene in vari modi, per esempio con la stessa fotogrammetria in genere sotto forma matriciale, oppure per scansione del terreno con laser aerotrasportato (LiDAR e simili) sotto forma di ‘nuvole di punti’ a passo prestabilito. Il passo del DTM aerofotogrammetrico, oggi ottenibile anche con procedure largamente automatizzate, è correlato alla scala nominale dell’ortofotocarta che si vuole ricavare: se il DTM è a matrice, in genere la griglia ha un passo pari
GEOmedia n°1-2010
FOCUS ad 1/250 del denominatore quindi, a titolo di esempio, di 8m per la scala 1:2000, di 4m per quella 1:1000 e così via per le scale minori. Non è il caso qui di ricordare il processo produttivo delle ortofotocarte digitali: si rimanda per esempio al volume Fotogrammetria generale citato in bibliografia ed alla figura 3; è sufficiente ricordare, in riferimento a tale figura, che si parte dal pixel generico sull’ortofoto, che ha una posizione planimetrica determinata da X,Y; interpolando linearmente o con altri algoritmi, se ne ha la quota Z. Noto l’orientamento esterno dell’immagine, l’equazione di collinearità per P, permette di determinare la posizione della sua immagine P” sul fotogramma. L’equazione contiene anche i parametri della rifrazione atmosferica e della distorsione dell’obiettivo e, se necessario, anche della curvatura terrestre. Si procede quindi al ‘ricampionamento’ per determinare l’intensità del grigio (o dei tre colori fondamentali, per le ortofoto a colori) da associare al pixel in P’. I vantaggi salienti del processo digitale sono in breve, i seguenti: • posizione planimetrica definita nel sistema cartografico prescelto; • posizione altimetrica definita col DTM; • intensità di grigio (o di colore) ricavata dal fotogramma originale; • qualità dell’immagine modificabile con facilità via software; • possibilità di ricavare rappresentazioni a scale diverse (ovviamente con il limite massimo relativo alla scala dei fotogrammi); • mosaico di immagini adiacenti per formare un’unica ortofoto, equalizzando radiometricamente le sue diverse parti; • eventuali miglioramenti dell’immagine e della ortofotocarta, per esempio esaltazione dei contorni con filtraggi; • possibilità di ricavarne restituzioni tridimensionali; • memorizzazione in uno dei livelli informativi di un GIS; • possibilità di analisi dell’ortofotocarta con metodi di classificazione multispettrale, possibilità di usare algoritmi di riconoscimento delle forme (feature extraction), e di ottenerne parti frazionate di tipo tematico. Ricordo ancora che il DTM descrive la superficie naturale topografica del terreno, e non include quindi le entità naturali (vegetazione di tipo vario) e antropiche (strade, canali, edifici, ponti, viadotti) che, come già detto, costitu-
visita il sito www.rivistageomedia.it
iscono disturbi nell’ortoproiezione. Costruendo però un DSM che includa le coperture degli edifici, è possibile, a totale differenza di quanto accadeva per le ortofotocarte analogiche, ottenerne la corretta proiezione. Ciò però non risolve il problema già sopra accennato, delle aree morte, cioè di quelle zone ad esempio occluse da edifici più o meno alti, da scoscendimenti del terreno, da muri di sostegno; aree morte che sono tanto più evidenti quanto più alti sono gli elementi che le hanno generate e quanto più distanti sono dal punto ‘nadirale’ dell’immagine. Si vengono in tal modo a generare immagini doppie (ghosting effect nella letteratura in lingua inglese) per cui nelle aree occluse si riportano le immagini delle superfici occludenti. Per tutti i pixel dell’ortofoto per i quali si verifica questa condizione, si hanno due possibilità:
Figura 4 - L’effetto “ghosting”
Figura 5 - Le aree lasciate in bianco
• si lascia bianca la superficie occlusa (sconsigliabile), • si utilizza l’immagine di un fotogramma adiacente dal quale si ricavano i pixel corretti da inserirvi. Con ciò si parla di true-orthophoto, dizione usata da Werner Mayr nel 2002.
Figura 6 - La “true” ortofoto
Un esempio eclatante in materia, si ricava dalla relazione di Josef Braun alla ‘Photogrammetric Week’ del 2007. Le figure 4, 5 e 6, tratte da tale lavoro, chiariscono senza ombra di dubbio quanto sopra scritto. Naturalmente i costi per questa procedura – soprattutto in termini di software – sono elevati e ben diversi da quelli per la produzione, ad esempio, di ortofotocarte digitali in scala 1:10.000 o minore, nelle quali la quota di volo ‘liscia’ sufficientemente i disturbi sul terreno. A proposito di dispositivi, per ottenere in modo altamente automatizzato delle true-orthophoto, vale la pena citare l’OrthoBox della nota INPHO di Stoccarda, supportato dai software OrthoMaster ed OrthoVista, rispettivamente per il raddrizzamento differenziale di-
gitale e per il collegamento a mosaico di più ortofoto anche provenienti da fonti diverse. Della Intergraph-Zeiss è la Image Station OrthoPro. Ricordiamo poi COBRA (Complete OBject Reconstruction Application). Restano ancora poco risolti alcuni problemi; le presenze di elementi artificiali molto alti, per esempio tralicci di condutture elettriche ad alta tensione, oppure torri televisive, od ancora piloni di ponti sospesi o strallati, sono difficilmente eliminabili. Per ciò che concerne le ombre, queste si possono di molto attenuare (si pensi per esempio, nel trattamento delle immagini, a programmi come Photoshop di Adobe); così come si possono passare a ‘semitono’ le coperture vegetali molto fitte. Nelle ortofotocarte a scala molto grande di centri urbani (scale 1:1000,
17
FOCUS 1:500) è quasi impossibile, se non con elevatissimi costi, eliminare vetture e persone presenti sulla ripresa fotografica. Sottolineo, ancora una volta, che per le medie e piccole scale questi noise sono invece in pratica insignificanti. Le ortofotocarte in Italia Ed ora, qualche osservazione sull’uso delle ortofotocarte in Italia. Dopo l’impiego, da parte di alcune Regioni, delle ortofotocarte della prima generazione, così come detto all’inizio del presente articolo (e sulle quali vi è una modesta ma interessante letteratura), e dopo un periodo di stasi – forse di disaffezione – è ripreso da almeno un decennio l’interesse verso questo tipo di cartografia da parte di amministrazioni pubbliche di vario tipo. Di recente è invalso l’uso – chissà perché – da parte di molti medi e piccoli Comuni, od associazioni di Comuni, di richiedere, come complemento delle carte tecniche al tratto, in genere con scale di 1:2000 e più raramente di 1:1000, delle corrispondenti ortofotocarte addirittura come ‘miglioramento’ delle offerte pervenute in fase di gara: quasi che il loro costo venga ritenuto una modestissima percentuale del valore complessivo dell’appalto, cosa evidentemente del tutto errata. Di fatto, il costo delle ortofotocarte ‘fedeli’ (true orthophoto), oggi si avvicina a quello delle carte al tratto. A che scopo poi, una simile richiesta? Cosa ne farebbero gli uffici tecnici comunali, generalmente sprovvisti di personale competente in discipline topocartografiche e fotointerpretative, di tali ‘doppioni’ delle loro carte tecniche vettoriali? Ma la disinformazione specifica sui costi, comporta anche errori di valutazione come quelli degli Enti sopra citati. Si resta stupefatti, ad esempio leggendo su Google quanto viene attribuito alla Regione Liguria, che: «Le ortofoto sono riprese aeree da alta quota che vengono ‘ridotte’ al piano tramite elaborazioni che correggono le distorsioni prospettiche. Si tratta di fotografie che, a parità di altitudine di ripresa aerea, consentono di ottenere una risoluzione ‘dieci volte’ superiore a quella normalmente oggi in uso […] i pixel nelle ortofoto digitali alla scala nominale di 1:2000 […] saranno ricampionati a ‘15 cm sul terreno’. L’utilizzazione di questo tipo di immagine fotografica consente di individuare, oltre agli edifici e alle strade anche dettagli ‘minuti’ come un singolo albero, un’automobile, una moto ecc.». Prego di prendere nota che le parti esaltate tra virgolette sono nell’originale!
18
Non so chi abbia scritto queste righe; credo che si tratti di persona non molto bene informata (per usare un eufemismo). Qualche osservazione: intanto, le ortofotografie non sono semplici «fotografie»; poi non si capisce come «a parità di altitudine di ripresa aerea», possano fornire una «risoluzione ‘dieci volte’ superiore a quella normalmente oggi in uso». Si vuol forse dire che dal punto di vista geometrico-quantitativo, una ortofoto ha risoluzione dieci volte maggiore rispetto a una carta vettoriale dagli stessi particolari? Mi sembra un’affermazione incauta, certamente non provata e non provabile. Non è chiara la frase relativa al ricampionamento dei pixel dell’ortofotografia «a 15 cm sul terreno»; quanto poi ad individuare «un singolo albero… una moto…» alla scala nominale di 1:2000 mi sembra eccessivo (anche qui usando un eufemismo), così come mi sembra improprio parlare di “riprese ad alta quota” per le usuali ortofotocarte non satellitari! Ribadisco – ancora una volta e per inciso – che le true orthophoto sono assai costose, avvicinandosi sensibilmente al costo delle carte stereorestituite. Anche in altri casi, come si legge per esempio in un Corso di Cartografia-Archeologia del paesaggio, si danno definizioni quanto meno troppo semplificate e concettualmente censurabili: «Le ortofotocarte sono stampe di fotogrammi tratti da coppie di fotografie aeree raddrizzate, con l’indicazione delle curve di livello e di qualche dato della toponomastica. In pratica si tratta ‘dell’ingrandimento di fotografie aeree zenitali’ inserite ‘in un’impalcatura’ cartografica. Queste rappresentazioni, basate in genere su coperture aeree recenti, sono utili perché contengono contemporaneamente la localizzazione ‘delle aree boschive, le divisioni agrarie, l’estensione delle aree urbanizzate, gli alvei dei corsi d’acqua, la toponomastica e le curve di livello’». Stavolta le parti evidenziate sono mie: spero che gli studenti di questo corso si dotino di ben altra bibliografia, per emendare le non poche, diciamo così, inesattezze contenute nel periodo sopra riportato: con ciò faccio riferimento all’idea di «impalcatura cartografica» e di altro ancora, come se le carte al tratto non contenessero pure esse le parti tra virgolette dell’ultima parte. Rispetto alle ortofocarte fedeli delle zone antropizzate ed a grande scala, di cui ho detto più sopra, certamente meno costose sono le ortofotocarte ricavate da prese satellitari… ma questo è un altro discorso.
Riferimenti • A. Giussani, Mariano Cunietti Una selezione della sua attività scientifica dal 1946 al 1996. Copigraf, Milano. • M. Cunietti, Colloquio internazionale sulle ortofotocarte. Boll. SIFET, Roma, n° 4/1971. • U. Bartorelli, Gli ortofotopiani. Boll. SIFET, Roma, n°1/1971. • A. Selvini, F. Guzzetti, Fotogrammetria generale. UTET, Torino, 2 000. • W. Mayr, True Orthoimages. GIM International, 2002. • H. Ebner, F. Guzzetti, A. Selvini, Ricostruzione geometrica e semantica di entità da immagini digitali. Rivista del Dipartimento del Territorio, Roma, n. 1-1994. • W. Mayr, Bemerkungen zum Thema “True Orthoimage”. PFG, n.42002. • J. Braun, Aspects in True-Orthophoto Production. Atti della Photogrammetric Week, Stuttgart, 2007. • M. Madani, Today’s Orthophoto Production. Atti della Photogrammetric Week, Stuttgart, 2007. • M. Holm, An integrated approach for orthoimages production. Atti della Photogrammetric Week, Stuttgart,2007. • C. Monti, A. Selvini, L’ortofotoproiezione nel quadro della cartografia regionale italiana. Rivista del Catasto e dei SS.TT.EE. Roma, n° 1/1977. • G. Bezoari, C. Monti, R. Galetto, Indagine metrica e qualitativa su ortofotografie alla scala di 1:5000. Bollettino di Geodesia e Scienze Affini. Firenze, n° 1/1977.
Abstract The evolution of orthophotomaps Orhophotomaps are about half a century old, although the technique today is completely different to fifty years ago. In this article a short history of orthophotomaps is exposed and commented. The method for preparing digital orthophotos and particularly of ‘true-orthophoto’ is also presented. In Italy orthophotos are somewhat diffused, mainly as technical maps of regions as well for the local use in the municipalities. Unfortunately the way these maps are compiled is not regulated in Italy.
Autore ATTILIO SELVINI POLITECNICO DI MILANO, FACOLTÀ DI ARCHITETTURA E SOCIETÀ ATTILIO.SELVINI@POLIMI.IT
GEOmedia n°1-2010
FOCUS
Le nuove specifiche di realizzazione delle ortofoto digitali in scala 1:10.000 Abbiamo ricevuto in redazione una nota dal prof. Dequal e dal Dr. Guerra che fa riferimento diretto alla realizzazione di specifiche per le ortofotocarte al 10.000 in uso alle Regioni Italiane. La riportiamo qui di seguito. Nell'ambito delle attività del Comitato per le regole tecniche sui dati territoriali delle Pubbliche Amministrazioni, istituito ai sensi dell'articolo 59 del Codice dell'Amministrazione Digitale, sono stati costituiti una serie di Gruppi di Lavoro finalizzati a definire le specifiche tecniche per tutti i diversi ambiti inerenti la realizzazione, la documentazione, la fruibilità e lo scambio delle basi dei dati territoriali fra le pubbliche amministrazioni centrali e locali in coerenza con le disposizioni del sistema pubblico di connettività. Fra questi, il Gruppo di Lavoro numero 4 (‘telerilevamento avanzato’), la cui responsabilità è stata affidata all’AGEA (Agenzia per le Erogazioni in Agricoltura), si è dato quale primo compito la definizione delle specifiche di realizzazione delle ortofoto digitali in scala 1:10.000. Le ortofoto digitali in scala 1:10.000 da tempo rappresentano, per la Pubblica Amministrazione, la principale base dati di riferimento per la costituzione e l'aggiornamento di una gran parte delle banche dati e dei procedimenti amministrativi ad esse correlati. In tale ambito, nel corso degli ultimi anni, si sono viste delle importanti evoluzioni sia dal punto di vista tecnologico (differenti tipologie di camere digitali, miglioramento delle caratteristiche geometriche e spettrali, utilizzo di immagini satellitari ad alta risoluzione) che commerciale – con differenti modalità di acquisto da parte delle P.A. – nonché da quello della disponibilità di piattaforme online da parte dei grandi player dell’IT come Google, Microsoft, Yahoo, ecc. Nasceva così la forte necessità di stabilire delle regole comuni alla P.A. per uniformare i processi di acquisizione di tale tipologia di materiali, garantendo quindi sia la capacità di gestire procedimenti condivisi basati sugli stessi che ovviamente una complessiva ottimizzazione della spesa. Le specifiche in oggetto, pubblicate sul sito del CNIPA nella sessione sui Sistemi Informativi Territoriali, sono il frutto di un lavoro ampio e condiviso fra tutte le principali Amministrazioni centrali e locali, lavoro che ha beneficiato delle competenze tecniche di tutti i partecipanti al Gruppo di Lavoro, con particolare riguardo all'Istituto Geografico Militare e ad un gruppo di ricerca accademico finanziato dal CISIS che ha contestualmente rilasciato le più estese ‘Linee guida su Ortoimmagini 1:10.000 e modelli altimetrici’. Ad ulteriore testimonianza della qualità del lavoro svolto, devono essere citate la totale trasparenza con cui lo stesso è stato portato avanti, tramite la pubblicazione preventiva all'approvazione da parte del Comitato delle specifiche sul sito dello stesso CNIPA e la immediata approvazione in sede tecnica da parte della Conferenza Unificata. Ma ancora di più, devono essere evidenziate le modalità di collaborazione e condivisione della spesa, derivanti dagli accordi fra l'AGEA e numerose amministrazioni centrali (ad esempio Agenzia del Territorio e Dipartimento della Protezione Civile) e locali (Regioni, Emilia Romagna ed Abruzzo), che nella condivisione delle specifiche trovano il loro elemento fondante. Prof. Sergio Dequal - Coordinatore del gruppo di lavoro CISIS su ortofoto e modelli altimetrici Dott. Pierpaolo Guerra - SIN srl - Referente tecnico AGEA nel Gruppo di Lavoro 4 "Telerilevamento avanzato"
visita il sito www.rivistageomedia.it
19
REPORTS
Geomatica e gestione delle emergenze a Gi4DM 2010 2010 di Francesco Bartoli
Credits: Daniel Barker, U.S. Navy
I recenti avvenimenti che hanno coinvolto Haiti, il Cile, L'Aquila e Madeira, hanno posto l'attenzione della comunità scientifica sull'importanza di dotarsi di un affidabile set di dati di natura geospaziale, soprattutto se si considerano le fasi di gestione e organizzazione dei soccorsi. La conferenza 'Gi4DM Geomatics for Crisis Management', giunta alla sua quinta edizione, è nata proprio per rispondere alle esigenze degli operatori (ricercatori, studiosi e decisori) che scendono sul campo per affrontare tali situazioni di emergenza.
L
a conferenza Gi4DM (Geomatics for Crisis Management), svoltasi al salone dei congressi di Torino dal 2 al 4 febbraio scorso, nasce sull’onda della crescente importanza che l’Informazione Geografica ha assunto negli ultimi anni nel contesto della gestione dei rischi e dei disastri. Giunta alla sua quinta edizione, la conferenza ha preso corpo grazie alla volontà di ricercatori, professionisti e aziende attivi nei settori della raccolta, gestione, analisi, condivisione e visualizzazione delle informazioni geografiche.
La mostra cartografica Nell’ambito dell’apertura dei lavori della conferenza Gi4DM, è stata inaugurata la mostra cartografica Maps created by
20
the international community for the earthquake that occurred in Haiti on January 12th, 2010. La mostra è stata organizzata dall’ISPRS (International Society for Photogrammetry and Remote Sensing), dal WFP (World Food Programme), dall’UNOOSA (UN Office for Outer Space Affair), da ASITA (Federazione Italiana delle Associazioni Scientifiche per le Informazioni Territoriali e Ambientali) e da ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), con il sostegno di Google, della Compagnia di San Paolo, del Politecnico di Torino, di SiTI e con il patrocinio della Regione Piemonte. Protagoniste dell’iniziativa sono state le attività portate a termine da UNOOSA con il portale UN-Spider Knowledge, da Google con i lavori del Crisis Response e dai contributi del team
GEOmedia n°1-2010
REPORTS HOT (Humanitarian OpenStreetMap Team). La mostra è stata divisa in cinque aree tematiche, a seconda del tipo di mappa preso in esame:
• • •
•
•
Event Description Maps: le mappe riferite agli aspetti fisici legati allo sviluppo del terremoto, alla localizzazione dell’epicentro ed alle successive scosse di assestamento. Media Publication Maps: ovvero, le mappe preparate per il grande pubblico. Reference Maps: mappe descrittive dell’area prima del disastro, in cui sono evidenziate le infrastrutture principali della capitale e nelle aree circostanti da diversi punti di vista. Logistics Maps: quelle mappe che evidenziano le operazioni di soccorso eseguite o programmate: i migliori approcci seguiti nelle aree colpite, la localizzazione della popolazione sul territorio e la situazione del Paese durante l’emergenza. Damage Assessment Maps: le mappe riguardanti il processo di valutazione dei danni, essenziale nel determinare l’estensione e gli effetti del disastro naturale a danno di edifici ed infrastrutture.
Le sessioni Durante la sessione plenaria, si è posta attenzione sulle modalità in cui le organizzazioni internazionali affrontano il problema della gestione delle emergenze nei disastri naturali. Gli interventi del presidente dell’ISPRS Orhan Altan e di Robert Backaus dell’UNOOSA, hanno mostrato come il ruolo del professionista della geomatica e della geografia intelligente risulti critico e indispensabile prima, durante e dopo il verificarsi di eventi naturali come quelli sismici. L’importanza di ruoli professionali così definiti nasce nel momento in cui i governi, durante la gestione di eventi calamitosi, si trovano ad avere necessità di esperti in grado di lavorare dati territoriali ben strutturati, da utilizzare nella gestione della crisi ma, soprattutto, per supportare le unità compartimentali governative (ad esempio la Protezione civile) e le agenzie umanitarie che operano sul territorio: queste, infatti, il più delle volte ricevono dati inutilizzabili proprio perchè non esiste un cortocircuito con i professionisti che li trattano e li elaborano. E’ utile forse, a questo punto, una provocazione: se il ruolo dei professionisti della geomatica è così centrale, perchè mai i governi non si preoccupano di formare figure come quelle degli ingegneri geospaziali? Tornando alle sessioni, anche i contributi della seconda giornata, come in gran parte della prima, sono stati incentrati nel mostrare gli sforzi della comunità internazionale nei confronti dell’evento calamitoso che ha colpito Haiti il 12 gennaio scorso. Numerose realtà nazionali ed internazionali hanno presentato i lavori compiuti in ambito fotogrammetrico e nei settori del telerilevamento, dell’analisi GIS e della produzione
di mappe dell’area interessata, sebbene sia emerso come il problema relativo alla disponibilità di informazioni cartografiche dettagliate e l’organizzazione e gestione delle stesse in ambienti condivisi resti uno dei fattori chiave. Spunti interessanti sono risultati quelli relativi all’esigenza di definire Infrastrutture di Dati Spaziali (SDI) che permettano rapidamente di sintetizzare e comunicare le conseguenze di un disastro naturale. In particolare, proprio nella fase di risposta iniziale, il processo decisionale è fortemente legato alla bontà dei contenuti cartografici di una infrastruttura del genere. Ma non solo. L’intervento è correlato anche ad una corretta preparazione. Ed è proprio in questa fase che si evidenziano le lacune maggiori, principalmente dovute alla mancanza di sinergie opportune a mitigare l’integrazione dei dati, la condivisione e la gestione del loro flusso. L’attenzione posta sull’esigenza di mascherare la complessità di una SDI agli utenti finali è stata centrale. La maggior parte di loro, non avendo profili altamente specializzati a trattare dati geografici, ha bisogno di estrema facilità di utilizzo oltre che rapidità di accesso. A tal proposito la definizione di un’ontologia nella gestione di emergenze – oltre ai ben noti protocolli e agli standard già di fatto utilizzati – potrebbe garantire una certa interoperabilità. Infine, senza nulla togliere ai relatori d’oltreconfine, ha suscitato un’interessante dibattito l’esperienza portata da e-Geos, già prontamente messa in risalto sul sito di GEOmedia. In questo senso, è stato sottolineato il fatto che una maggiore visibilità dei loro dati verso le realtà accademiche, avrebbe potuto portare benefici per le analisi condotte dalla comunità geospaziale. Il punto di Google Durante il congresso abbiamo avuto il piacere di incontrare Ed Parsons, Geospatial Technologist di Google. Parsons è approdato all'interno del colosso californiano dopo aver contribuito ai successi ottenuti da Ordnance Survey, l’agenzia cartografica del Regno Unito, e attualmente tira le fila delle soluzioni tecnologiche di Google nel campo geospaziale. Lo stesso Parsons, nella giornata conclusiva, ha esposto alla platea il lavoro condotto durante l’emergenza haitiana. Il sistema proposto è basato sul paradigma del crowdsourcing, già sufficientemente maturato in ambito Open Source con il progetto OpenStreetMap. Google Map Maker ha come obiettivo, secondo Parsons, quello di collezionare le informazioni geografiche in modo organico, rendendole facilmente utilizzabili ed universalmente accessibili. Gli sforzi profusi sono coerenti ed in linea con i principi che hanno già decretato il successo di Google Maps e Google Earth, strumenti in grado di permettere l’accesso alle informazioni geografiche senza avere conoscenze specifiche nel campo della geografia intelligente. Abbiamo provato ad indagare più a fondo quali sono le aspettative che Google ripone nella neogeografia in termini tecnico-commerciali tramite una breve intervista, concessa gentilmente a GEOmedia dallo stesso Ed Parsons.
Alcuni scatti dalla mostra fotografica sul terremoto di Haiti ospitata nell’ambito di Gi4DM.
visita il sito www.rivistageomedia.it
21
REPORTS GEOmedia: Signor Parsons, Google ha da sempre anticipato i tempi con soluzioni e tecnologie all'avanguardia. Lei crede che il crowdsourcing e la neogeografia possano essere davvero la nuova frontiera tecnologica dei Sistemi Informativi Territoriali? Ed Parsons: No, non penso lo siano. La neogeografia, termine che viene comunemente utilizzato sebbene non sia il più appropriato, è piuttosto incentrata sul consumo di applicazioni geospaziali da parte dell’utenza web. I GIS restano la realtà del mondo professionale. Comunque, per certi aspetti, queste nuove applicazioni avranno il loro impatto in termini di progettazione di applicazioni realmente tagliate per l’utente, di semplificazione degli strumenti di utilizzo e di alcune estensioni nelle modalità di acquisizione dei dati. L’industria dei Sistemi Informativi Territoriali è matura e riesce adeguatamente a servire le necessità sia delle funzioni governative che quelle dei servizi di pubblica utilità e continuerà a farlo. G.: Come si collocano le Infrastrutture di Dati Spaziali rispetto alla neogeografia? Pensa che possono risultare antagoniste?
«Se vogliamo davvero dare rilevanza alla neogeografia allora dovremo porre i nostri riflettori sugli utenti secondo il paradigma del focus on the user.»
su Android, i quali fanno dell’appetibilità il loro punto forte. Numerosi voci indicano in Google la nuova realtà che investirà in questo mercato abbinando, al contempo, una potente soluzione GIS. Lei considera Google e Apple le forze che all’atto pratico stabiliranno le sorti di come evolverà la neogeografia? E.P.: Google ed Apple stanno sviluppando piattaforme mobili sulle quali solitamente vengono calate applicazioni di terze parti più specializzate o verticali. E’ sicuramente ipotizzabile che queste possano includere più funzionalità GIS, come ad esempio succede con geocommons (http:// geocommons.com. NdA). G.: Terminiamo con una domanda incalzante: è indubbio che le tre dimensioni siano una realtà nelle applicazioni di Google. Che cosa potremmo ipotizzare sulla quarta, il tempo? E’ già in previsione l’ipotesi che possa essere gestita nelle vostre rappresentazioni cartografiche? E.P.: Chi può prevedere il futuro? In Google Earth abbiamo già oggi la capacità di vedere immagini storiche, oltre mi spiace non le posso proprio dire. E’ chiaro che, pur non sbilanciandosi troppo nelle brevi risposte che ci ha dato, Ed Parsons ci conferma la grande attenzione di Google nel percorrere i tempi nel proporre tecnologie e soluzioni sempre più innovative.
Abstract
E.P.: Le SDI al momento sono ancora troppo influenzate da chi produce i dati. Avverto questo come una debolezza da colmare nei confronti dell’utenza di dataset geospaziali. Se vogliamo davvero dare rilevanza alla neogeografia allora dovremo porre i nostri riflettori sugli utenti secondo il paradigma del focus on the user. Possiamo asserire che la maggior parte delle attuali SDI sono oltremodo ingegnerizzate e avrebbero ottenuto più successo se avessero avuto repository più semplici, come ad esempio quelli presentati da www.data.gov e http://data.gov.uk, i quali forniscono accessi semplici e veloci al pubblico.
Gi4DM - Geomatics for crisis management The recent disasters in Haiti, Chile, L'Aquila and Madeira underlined the importance of reliable geospatial datasets, used to better manage and organize rescue measures. The Gi4DM Conference, held in Turin last february, aimed at providing a scientific framework to all researchers and organizations that are envolved in the aftermath of these events.
G.: Personalmente credo che il crowdsourcing sia fortemente legato al mercato dei dispositivi mobili come Iphone e Ipad di Apple ed anche a quelli basati
FRANCESCO BARTOLI FRANCESCO.BARTOLI@ME.COM
22
Autore
GEOmedia n°1-2010
2010! E' tempo di rinnovare l'abbonamento (anche online)
CARTOLINA
DI
ABBONAMENTO
Ragione Sociale
Abbonamento annuale a GEOmedia €45
P.I./C.F. Cognome
Nome
Indirizzo
N°
Cap
Comune
Tel.
Fax
E-mail Tipo di organizzazione
Attività primaria
Società di ingegneria
Cartografia
Consulenza
Rilievi GPS
Formazione
Topografia, Geodesia
Università
Catasto
Produttore
GIS/SIT
Assoc. categoria
Ingegneria del territorio
PAC
Protezione ambientale
PAL
Banche dati territoriali
Ente parco
Formazione
Comunità montana
Editoria
Uff. Tecnico
Consulenza
Altro _ _ _ _ _ _ _ _ _ _
Altro _ _ _ _ _ _ _ _ _ _
I dati forniti saranno utilizzati in conformità con le vigenti norme sulla privacy (d.lgs 196/03)
Scelgo di pagare secondo quanto di seguito indicato:
Conto corrente postale n. 67876664 intestato a: A&C 2000 S.r.l.
Bonifico bancario alle seguenti coordinate: IBAN: IT91T0760103200000067876664 Banco Posta S.p.a intestato a: A&C 2000 S.r.l.
Pagamento online all’indirizzo: www.rivistageomedia.it, nella sezione “abbonamento online”.
Da inviare completo delle informazioni + allegata copia di pagamento
Spedire la cartolina in busta chiusa a: A&C2000 - Via C. Colombo, 436 00145 Roma oppure inviarla via fax al numero: 06.62.20.95.10 o via E-mail a: diffusione@rivistageomedia.it
REPORTS
NSDI 2.0: siamo pronti? di Renzo Carlucci
Gli Stati Uniti stanno realizzando una Infrastruttura di Dati Spaziali di seconda generazione allo scopo di rilanciare, non solo l’economia del settore geografico e cartografico, ma dell’intero complesso di infrastrutture che vengono realizzate su base geografica, quali le reti di distribuzione e di comunicazione così come quelle viarie ed energetiche. L'articolo mette in risalto anche il contesto italiano, del quale viene fatto un punto della situazione.
C
on i Geographic Information System, ovvero le piattaforme in grado di acquisire, memorizzare, analizzare e visualizzare geograficamente le informazioni di riferimento, si gestiscono le cosidette Geospatial Information. Rispetto ai primi, queste ultime fanno in particolare riferimento a luoghi, insiemi di coordinate geografiche, che possono essere raccolte, manipolate e visualizzate in tempo reale. Per entrambi la domanda dei consumatori negli ultimi anni è salita alle stelle. I dati derivati ad esempio dai sistemi GNSS (GPS, Glonass, Galileo, ecc.) e la loro integrazione con le mappe digitali, hanno portato alla ribalta dispositivi di navigazione portatili usati quotidianamente da milioni di persone. I governi e le pubbliche amministrazioni fanno sempre più uso delle informazioni geospaziali e dei relativi strumenti di gestione GIS per rispondere alle più diverse esigenze. Le analisi che essi rendono possibili possono essere di grande aiuto ai decisori per chiarire i complessi problemi che vedono coinvolte amministrazioni locali e centrali nella gestione di grandi opere ed infrastrutture. In un rapporto del 2009 si legge come il volume di affari dell’industria geospaziale statunitense raggiunga almeno i 30 miliardi di dollari annui, con una crescita globale del 35% e una componente commerciale in crescita ad un ritmo del 200% su base annuale.
24
Il ruolo dei GIS Produrre mappe di esondazione, gestire censimenti, pianificare la ricostruzione di ecosistemi e analizzare la vulnerabilità e la risposta a rischi naturali quali uragani e terremoti, sono alcuni esempi, tra i tanti possibili, di come un governo federale possa usare i GIS e le informazioni geospaziali – che interessano l’80% circa delle informazioni complessive di cui esso dispone – per rispondere alle necessità in ambito nazionale. Gli elementi chiave di una struttura del genere – che necessitano una gestione complessa – sono: • una vasta matrice di informazioni geospaziali acquisite a molti livelli e dotate di una notevole varietà di potenziali utenti; • l’interscambio dei dati, in particolare tra attori locali, statali e federali, ciascuno dei quali può avere necessità di dati identici o similari; • il coordinamento tra il livello federale e gli altri enti, come succede ad esempio con l’amministrazione e la gestione di diverse agenzie tra gli stati federati degli Stati Uniti. Il Congresso degli Stati Uniti è, in questo senso, un esempio di best practice: esso ha raccolto la sfida per il coordinamento e la condivisione dei dati geospaziali dal livello locale (la
GEOmedia n°1-2010
REPORTS Qui a fianco, GeoSDI Era: un esempio di GIS condiviso per la gestione delle emergenze.
In basso, la NSDI si configura come un mezzo per assemblare differenti tipi di dati geografici.
contea) al livello nazionale, producendo una mutazione del ruolo del Governo, da fornitore primario di dati geospaziali autorevoli a quello di coordinatore e gestore degli stessi. La necessità di organizzare e coordinare la raccolta e la gestione dei dati geospaziali è stata riconosciuta dal Governo federale statunitense sin dal 1990 con la circolare A-16 dell’Ufficio di Gestione e Bilancio (OMB), che ha istituito il Federal Geographic Data Committee (FGDC) e promosso l’utilizzo coordinato, la condivisione e la diffusione dei dati geospaziali a livello nazionale, nonché la condivisione e il trasferimento dei dati tra utenti e produttori, uniti da criteri e standard adeguati. La Executive Order 12906, rilasciata nel 1994, ha rafforzato la circolare A-16, e specificato che l’FGDC deve coordinare lo sviluppo delle Infrastrutture Nazionali di Dati Spaziali (National Spatial Data Infrastructure - NSDI). Nella successiva rivisitazione della circolare del 19 agosto 2002 si afferma che la NSDI va a rappresentare «le tecnologie, le politiche, le norme, le risorse umane e le attività connesse necessarie per acquisire, elaborare, distribuire, utilizzare, mantenere e conservare i dati territoriali». In definitiva, la NSDI è destinata ad essere la base comune dalla quale fornitori e utenti a livello nazionale, statale e locale potranno accedere ai dati geografici. In questo impianto rimangono tuttavia non risolte questioni complesse sul coordinamento e le modalità di acquisizione e di utilizzo di grandi quantità di dati geospaziali tra le agenzie federali, le autorità locali, il settore privato ed il mondo accademico, in particolare su come la FGDC adempia alla sua missione. È ampiamente riconosciuto che la raccolta a più riprese dei dati per lo stesso scopo – cosa che continua purtroppo a verificarsi – è dispendiosa ed inefficiente. D’altronde, i dati geospaziali raccolti per soddisfare i requisiti, ad esempio di una amministrazione locale, possono essere utili per lo Stato o per il Governo federale, ma solamente se gli stessi risultano soddisfare una serie di linee guida di base.
In Italia, la realizzazione dell'infrastruttura nazionale di dati spaziali si sta configurando, all’insegna di un connubio sofferto tra la scuola di cartografi con tradizioni decennali e la nascente scuola di informatici dei GIS, come il risultato di due differenti componenti: da un lato la formazione dei livelli informativi della cartografia tramite acquisizione exnovo o per aggiornamento del dato territoriale; dall’altra la definizione vera e propria dei livelli informatici, della quale si occupa oggi l’adeguamento alla direttiva europea INSPIRE (INfrastructure for SPatial InfoRmation in Europe). Dal punto di vista legislativo, la Legge n. 68 del 1960 individuava in Italia cinque organi cartografici coordinati da una Commissione Geodetica.
Due modelli a confronto Un raffronto tra la gestione della infrastruttura di dati spaziali italiana con quella degli USA ci può dare interessanti spunti. Dobbiamo innanzitutto trovare i corrispondenti italiani alla FGDC e alla disposizione A-16.
visita il sito www.rivistageomedia.it
25
REPORTS
Il Federal Geografic Data Committe assolve negli USA tutte le funzioni di coordinamento per i dati geografici.
Non è chiaro il motivo reale per cui nell’anno 1977 la Commissione Geodetica venne abrogata, ma con ciò è di fatto iniziato un periodo in cui si è comunque realizzata cartografia, continuando ad utilizzare le disposizioni della Commissione. Il Protocollo d’Intesa tra Stato, Regioni ed Enti Locali sui Sistemi Informativi Geografici (approvato dalla Conferenza Stato-Regioni il 26 settembre 1996) ha dovuto affrontare il problema del coordinamento tra Stato e Regioni, nel frattempo insorto per il subentro, di fatto, di queste come organi cartografici a seguito del passaggio di poteri dallo Stato alle Regioni. Solamente in data 12 ottobre 2000, durante l'approvazione dell’Accordo Integrativo sul Sistema Cartografico di Riferimento, da parte della conferenza permanente per i rapporti tra Stato, Regioni e Province autonome, le attività di coordinamento, pianificazione e d’indirizzo relativamente ai sistemi informativi geografici sono state effettivamente delegate a un organismo competente denominato CNIPA (ora DigitPA. Ndr). I recenti tentativi di riorganizzazione dell’operato delle Regioni per il controllo urbanistico basato sulla realizzazione di cartografia tecnica, sono stati tutti rivolti alla strutturazione informatica del dato tramite l’istituzione di un Comitato per le regole tecniche sui dati territoriali delle pubbliche amministrazioni (DL 7 marzo 2005, n. 82), che dovrebbe unificare e regolamentare le modalità di realizzazione della NSDI in Italia. Nel rapporto del novembre 2009 del Comitato si legge che: «l’obiettivo generale da perseguire attraverso l’implementazione dell’infrastruttura nazionale è quello di creare un sistema di conoscenza e condivisione dei dati territoriali tenendo conto dei principi contenuti nella Direttiva e del contesto tecnologico nazionale, a salvaguardia degli investimenti effettuati». Nell’attuale esplosione di sistemi GIS l’attenzione appare rivolta dunque al trattamento del dato e poco alla sua acquisizione. Poco definita rimane l’individuazione di chi sia responsabile, oggi, nel fornire le regole per la realizzazione della cartografia tecnica. Il DL 7 marzo 2005, n.82 – lo stesso che istituisce il Comitato per le regole tecniche sui dati territoriali – prevede inoltre la creazione, presso il CNIPA, del Repertorio Nazionale dei Dati Territoriali (RNDT), per agevolare la pubblicità dei dati di interesse generale disponibili presso le pubbliche amministrazioni a livello nazionale, regionale e locale. Sembrerebbe questa l’unica istituzione devoluta a regolamentare l’acquisizione del dato. Per quanto riguarda l’adozione della direttiva europea
26
INSPIRE, entrata in vigore il 15 maggio 2000, questa rimane ancora in corso di recepimento, forse a causa del caos legislativo in cui si trova il nostro Paese, in particolar modo nel settore geografico. Nello schema di Decreto Legislativo del 28 ottobre 2009, n. 144 (Attuazione della direttiva 2007/2/CE che istituisce un’Infrastruttura per l’informazione territoriale nella Comunità Europea - INSPIRE) si fa riferimento ai dati territoriali in formato elettronico in possesso da parte di pubbliche amministrazioni raccolti nell’ambito dei loro compiti istituzionali o a privati che svolgono attività che possono avere ripercussioni sull’ambiente. Da lungo tempo attesa, tale iniziativa legislativa lascia comunque trasparire un’atmosfera impositiva che potrebbe essere mal recepita dagli addetti al settore sia pubblico che privato. Ma come stanno andando avanti le cose negli Stati Uniti? In completa controtendenza rispetto all’Italia e all’Europa, che ancora faticosamente annaspano per realizzare le rispettive NSDI, negli USA si lancia, sull’onda di riflessioni sulle aspettative non soddisfatte delle precedenti esperienze, una nuova NSDI 2.0, finalizzata a potenziare l’economia nazionale, rinnovare le infrastrutture e proteggere l’ambiente; in gioco non ci sono solamente questioni come l’efficienza e l’interoperabilità del nuovo sistema, ma una concezione che tratta la NSDI 2.0 alla stregua delle altre infrastrutture critiche della nazione (strade, condutture, telecomunicazioni), sottolineandone il ruolo nell’economia e in materia di sicurezza nazionale. Nel concreto ciò comporta che qualsiasi operazione sulle infrastrutture dovrà essere effettuata utilizzando un sistema GIS e che esso debba poggiare su una Infrastruttura di Dati Spaziali di importanza pari a quelle dedicate appunto ai trasporti, all’energia o alle comunicazioni. Nasce la NSDI 2.0 La filosofia alla base della NSDI 2.0 statunitense è che i dati geospaziali e le informazioni ambientali debbano essere mantenuti a livello locale lì dove si origina l’informazione stessa – e solo successivamente condivisi pubblicamente
Home page del sito del CNIPA
GEOmedia n°1-2010
attraverso i servizi online. Mentre l’attuale NSDI è una rete di informazioni destinate solo alla condivisione di informazioni geospaziali, la NSDI 2.0 negli USA sarà un network implementato come una serie di servizi online che forniscono accesso ad alta velocità per la realizzazione di cartografie. L’NSDI 2.0 permetterà agli sviluppatori, ai progettisti e agli utenti di concentrarsi sul valore aggiunto delle NSDI 2.0 il nuovo motore economico degli stati applicazioni web 2.0 e dei processi uniti basato sui dati geografici. decisionali. Questi servizi saranno mantenuti da personale GIS/IT e dai loro fornitori a livello locale, statale e federale, creando migliaia di nuovi posti di lavoro. La nostra semplice proposta è quella di seguire l’esempio americano e di proporre in Italia una nuova NSDI 2.0. Una NSDI 2.0 per l’Italia dovrebbe fungere da motore per cercare nuove risorse destinabili all’acquisizione di dati statali e locali e per migliorare la produzione critica di dati territoriali e ambientali; le connesse operazioni di aggiornamento e manutenzione avranno un effetto a catena il cui impatto andrà molto al di là degli investimenti iniziali realizzati per creare e gestire la prossima generazione di dati territoriali del nostro Paese. Liberamente disponibili, di alta qualità ed ad alta risoluzione, i dati territoriali e ambientali NSDI 2.0 potrebbero consentire all’Italia di modernizzare e semplificare una moltitudine di obsoleti processi aziendali su carta, di accrescere l’efficienza e la trasparenza a tutti i livelli di governance, e di ridurre il costo del ‘fare business’.
Riferimenti • A Proposal for National Economic Recovery: An Investment in Geospatial Information Infrastructure Building a National GIS (www.gis.com/gisnation/pdfs/national_economic_ recovery.pdf) • A Proposal for Reinvigorating the National Economy Through Investment in the US National Spatial Data Infrastructure (www.cast.uark.edu/nsdi/nsdiplan.pdf) • A Concept for American Recovery and Reinvestment, NSDI 2.0: Powering our National Economy, Renewing our Infrastructure, and Protecting our Environment (www.nsdi2.net/ I2ProposalForAmericanRecoveryAndReinvestment_V1_4.pdf)
Abstract NSDI 2.0: are we ready? “Powering our National Economy, Renewing our Infrastructure, Protecting our Environment” is the concept behind the design of the american NSDI 2.0: this will lead to the start of a second generation of Spatial Data Infrastructures that will bring economical benefits to all the traditional infrastructures such as distribution, communication, utilities and and energy networks. The article provides an analysis on the italian context as well.
Autore RENZO CARLUCCI DIRETTORE@RIVISTAGEOMEDIA.IT
REPORTS
Pregeo 10: ad un passo dall’automazione completa di Donato Tufillaro Al giorno d'oggi la Pubblica
Credits: Davide Marcolongo.
Amministrazione può dirsi vicina al cittadino solo se riesce a portare i suoi servizi direttamente 'a casa degli utenti'. Ciò è ancor più vero se si pensa che esistono, in Italia come in altri paesi, cittadini che vivono in un certo qual modo isolati fisicamente dagli uffici pubblici. In questo articolo viene raccontata l'esperienza - reale di un utente che, nonostante la distanza, riesce a risolvere in breve tempo un problema di variazione catastale grazie ai servizi online.
Q
uando è possibile dialogare e rapportarsi con la Pubblica Amministrazione via internet, il cittadino prova sempre un sospiro di sollievo; fino a poco tempo fa, la realtà amministrativa e burocratica era assai diversa, soprattutto nell'ambito del Catasto italiano. Con le nuove procedure, una variazione catastale può essere realizzata anche in un solo weekend direttamente da un'isola 'remota'. Per capire però come si può concepire una completa automazione nel trattamento degli atti geometrici di aggiornamento del catasto è necessario conoscere qual è lo stato dell’arte della situazione, cioè da che punto bisogna partire e dove si cerca di arrivare. Per descrivere tutto ciò trovo utile il racconto di questo episodio. Nell’avanzato luglio del 2009 mi trovavo alle isole Eolie, in occasione del matrimonio (uno di quelli che si contraggono dopo una lunga convivenza allietata anche da prole) di un mio amico isolano. La cerimonia, presso il comune di Leni sulla dolcissima isola di Salina è stata celebrata di sabato, seguita da un rinfresco serale e da una festa danzante notturna. Il giorno dopo, domenica, il mio amico mi ha mostrato i lavori di ristrutturazione ed ampliamento eseguiti – con regolare concessione edilizia – sulla sua bella casa sull’isola, in collina. I lavori, ormai ultimati, hanno visto il mio amico dover affrontare il problema della presentazione del ‘fine lavori’ al quale doveva essere allegata anche la variazione catastale. A questo punto sono stato interpellato per un aiuto (il mio amico è ingegnere ma ha poca dimestichezza col catasto)
28
e, visto che il traghetto per il mio ritorno a Roma sarebbe partito lunedì, ovvero il giorno seguente, ho subito cominciato ad organizzarmi. Siamo dunque andati dal tabaccaio, che aveva un collegamento ADSL e che naturalmente è un amico. Ci ha aperto la bottega (era domenica, vale la pena ricordarlo) e ci ha acceso il PC. Per prima cosa, mi sono collegato al sito dell’Ordine degli Ingegneri di Roma, area riservata agli iscritti, servizio ‘visura’ e ho richiesto un estratto di mappa all’ufficio di Messina. Dopo alcuni secondi ho avuto la stampa dell’estratto in formato pdf e, per completezza, ho chiesto pure una visura ai terreni ed ai fabbricati. Ci siamo subito accorti che la sagoma del fabbricato riportata in mappa doveva essere ampliata e che pertanto era necessario predisporre un tipo mappale. La superficie dell’ampliamento era superiore al 50% della superficie corrispondente alla sagoma rappresentata in mappa e quindi occorreva un mappale con i punti fiduciali. Non ci siamo persi d’animo e abbiamo acceduto al sito dell’Agenzia del Territorio, nella sezione ‘servizi per i professionisti – monografie dei punti fiduciali’. Dopo aver controllato i punti fiduciali riportati sull’estratto, ne abbiamo scelti tre, utili per formare un buon ‘triangolo fiduciale’ e dotati di monografie. Abbiamo quindi recuperato dal sito le monografie e le abbiamo stampate (in bianco e nero, solo perché il tabaccaio non aveva la stampante a colori). Arrivati a questo punto, avevamo a disposizione tutti i documenti necessari per eseguire il tipo mappale. Ci mancava solo il rilievo. Si erano fatte però le undici, faceva già caldo e non avevamo lo strumento.
GEOmedia n°1-2010
REPORTS
L'isola di Salina, nell'arcipelago delle Eolie.
Il mio amico ha quindi chiamato a Lipari l’impresa che aveva Il giorno seguente, lunedì, sempre dal tabaccaio, ho attivafatto i lavori: questa era addirittura in possesso di un GPS. to Sister e mi sono accorto che il mappale era stato respinSi è deciso allora di fare una gita in gommone: a Lipari to con la motivazione che nella lista dei soggetti firmatari abbiamo preso il GPS (e anche un tacheometro digitale – che peraltro corrispondeva alla ditta di catasto fabbricati con distanziometro che sarebbe potuto tornare utile) ed il – mancavano le quote di possesso! pomeriggio, appena la temperatura è scesa un po’, abbia- Ovviamente, queste non dovevano essere inserite dal momento che la ditta era aggiornata e corretta, ma l’ufficio mo effettuato il rilievo. Il rilievo è stato semplice e veloce: il GPS ha lavorato in di Messina le voleva. Bene, non ne abbiamo fatto una quetempo reale con la rete Italpos (Italian Positioning Service) stione, abbiamo aggiunto le quote e ho spedito di nuovo il ed ha ricevuto le correzioni dalla stazione permanente mappale. Sono poi partito. di Stromboli. In breve tempo, abbiamo posizionato i tre punti fiduciali rilevando alcuni punti fuori centro col GPS e Il mercoledì successivo il mappale risultava approvato. misurando le distanze al centro con una fettuccia graduata. Questo è più o meno lo stato dell’arte attuale e di cui ci Infine, abbiamo rilevato due punti intervisibili vicini al fab- eravamo prefissati la conoscenza all’inizio dell’articolo; bricato e li abbiamo ‘monumentati’ con dei chiodi a terra. stato dell’arte che rappresenta anche il punto dal quale Siamo poi passati al tacheometro – in stazione su uno dei partire per migliorare l‘automazione. due chiodi ed orientato sull’altro – ed abbiamo effettuato il Bene, ci domandiamo in quale modo – date le normative rilievo dell’ampliamento, di qualche punto del fabbricato e vigenti – possano essere automatizzati gli adempimenti dei confini della particella. Dopo cena, dal tabaccaio ho scaricato Pregeo dal sito dell’Agenzia del Territorio, la TAF e l’archivio delle mutue distanze di Messina, ho salvato l’estratto in formato pdf e come file raster png e con Pregeo ho costruito un estratto di mappa auto-allestito. Ho trascritto le basi misurate scaricate dal GPS e le misure celerimetriche scaricate dalla stazione totale in un libretto Pregeo, l’ho elaborato, ho controllato le mutue distanze, vettorizzato l’ampliamento, associato l’estratto e predisposto la proposta di aggiornamento. Ho poi chiamato mio figlio a Roma e mi sono fatto spedire per e-mail (come allegato) il programma di firma elettronica e il file di controllo della firma. Ho proceduto quindi alla firma elettronica del tipo mappale e, finalmente, verso mezzanotte, ho attivato Sister (Sistema InterScambio TERritorio) ed ho inviato il mappale firmato all’ufficio di Messina. Pregeo: elaborazione del libretto.
visita il sito www.rivistageomedia.it
29
REPORTS necessari per la fase di predisposizione dell’atto di aggiornamento; la risposta che abbiamo è semplice: occorrerebbe una maggiore integrazione della procedura che utilizziamo con gli archivi del Catasto, ad esempio tramite servizi web in tempo reale. Oppure, per il momento, è necessario un documento che contenga tutte le informazioni necessarie per la predisposizione del tipo. Questo documento è il nuovo estratto di mappa per atto di aggiornamento in formato Pregeo 10. Infatti, esso contiene i poligoni rappresentativi delle particelle richieste, i dati censuari (compreso l’elenco dei soggetti che formano la ditta catastale), le informazioni relative ai punti fiduciali che si trovano nell’intorno della particella e le distanze misurate tra i punti fiduciali stessi. Con il nuovo estratto è possibile predisporre il tipo senza la necessità di consultare ulteriori atti catastali. Ora, la questione verte su quali siano le modalità per automatizzare ulteriormente le procedure dell’ufficio in modo che un atto di aggiornamento possa essere elaborato e registrato automaticamente. La risposta consiste nella trasformazione dei controlli effettuati dagli operatori dell’ufficio in controlli automatici implementati nelle procedure. Per fare questo magari è necessario procedere però alla formazione di una sorta di catalogo degli atti di aggiornamento in modo di consentire un controllo più mirato. Ebbene, tutto questo è stato realizzato grazie all’impegno della Direzione dell’Agenzia del Territorio, dei rappresentanti degli ordini Professionali e di Sogei. Pregeo 10 con il nuovo estratto è già disponibile in modalità facoltativa, e da giugno 2010 sarà definitivamente attivato. Naturalmente, emergono ed emergeranno malfunzionamenti e problematiche alle quali sarà necessario porre rimedio, però se si pensa che nel 1987 per l’approvazione di un atto di aggiornamento non di rado erano necessari sei mesi, possiamo ben dire che qualche passo avanti è stato fatto…
Homepage di Sister
Abstract Pregeo 10: automation of cadastral processes Nowadays, Public Administration's effectiveness is strictly connected to the availability of its services far from the public offices, directly 'in the houses of the end users'. This is true especially considering that, in Italy as other countries, there are plenty of citizens that live phisically isolated from public structures (ie. small islands). This article features the real experience of an end user that, in spite of the distance, managed to to solve a problem of cadastrial updating through the public online services.
Autore DONATO TUFILLARO DTUFILLARO@SOGEI.IT
GEOmedia incoraggia i nuovi autori: il tuo contributo editoriale è benvenuto GEOmedia è il punto di riferimento nel panorama informativo dedicato al mondo della geomatica e della geografia intelligente con una decisa apertura verso tutte le esperienze tecnicoscientifiche che approcciano il settore con un carattere divulgativo. Per questo la Redazione di GEOmedia è sempre pronta a pubblicare articoli ritenuti di particolare interesse per la comunità geomatica e geografica del terzo millennio. Il tuo contributo, compatibilmente con gli spazi già assegnati ed in linea con gli argomenti delle varie uscite, consultabili sulla Guida Editoriale 2010, è dunque benvenuto, soprattutto in rubriche quali:
30
Indice Inserzionisti
Focus: gli articoli di approfondimento su questioni tecnico-filosofiche e metodologiche nel mondo della geomatica.
ABACO
pag. 4
Crisel
pag. 27
Reports: per pubblicare risultanze di convegni ed eventi, esperienze professionali ed applicative.
Geo4all
pag. 23
Ag. del Territorio
pag. 43
Codevintec
pag. 31
Geogrà
pag. 48
Geotop
pag. 39
Cartografica: ove approfondire tutte le tematiche inerenti il mondo della cartografia e delle tecnologie correlate.
Gesp
pag. 53
ITT VIS
pag. 55
NBL
pag. 11
Università e Ricerca: per dar visibilità alle facoltà, ai centri di ricerca ed ai laboratori attivi nella formazione e nell’aggiornamento.
Planetek
pag. 56
SIN
pag. 2
Sinergis
pag. 49
Trimble
pag. 35
Invia le proposte all'indirizzo: redazione@rivistageomedia.it
Vidalaser
pag. 19
Zenit
pag. 22
GEOmedia n°1-2010
rilievi sopra e sottosuolo: Ambiente, Territorio, Catasto …
Rilievi 3D delle coste: laser scanner e sistemi oceanografici per creare un unico modello digitale 3D di costa e sottocosta. Strumenti per il rilievo integrato del fondale e delle terre emerse.
Mobile Mapping: Lynx è il laser scanner Optech per rilievi dinamici ad alta risoluzione per Ingegneria, City modeling, Protezione Civile, Catasto strade, ferrovie e…
Tel 02.4830.2175 – fax 02.4830.2169 info@codevintec.it – www.codevintec.it
Immagini 3D del sopra e sottosuolo: georadar, fotocamere sincronizzate, sistema di posizionamento e navigazione inerziale. Tutti gli strumenti per i rilievi del Territorio.
REPORTS
SAT Expo Europe 2010: EGNOS, GALILEO e politica geospaziale di Gianluca Pititto
Dal 6 all’8 febbraio si è svolta a Roma, ospitata nei padiglioni della Nuova Fiera, l’edizione 2010 di SatEXPO Europe, appuntamento annuale dedicato al panorama delle tecnologie e dei servizi satellitari. Anche quest’anno il focus della manifestazione è stato sui temi della Navigazione, dell’Osservazione della Terra e delle Telecomunicazioni Avanzate, con particolare riferimento alle novità in ambito europeo ed alle collaborazioni con i nuovi competitors internazionali.
L
a terza edizione di SatEXPO Europe ha avuto il 3 febbraio un prestigioso prologo istituzionale in Campidoglio, che ha preceduto la manifestazione vera e propria. La giornata, sponsorizzata dal Comune di Roma, ha visto svolgersi – nelle sale del Carroccio e di Pietro da Cortona – due importanti momenti di incontro internazionali; nel primo – dedicato all’India, partner country della manifestazione di quest’anno – è stata presentata l’Agenzia Spaziale Indiana (ISRO) e i suoi programmi di collaborazione in ambito aerospaziale con l’Europa e con l’Italia. Nei giorni successivi, l’ISRO ha avuto anche ampio spazio in Fiera, con uno tra gli stand più estesi, a dimostrazione indiretta del ruolo crescente di questo ente nel panorama aerospaziale internazionale.
32
Il secondo appuntamento della giornata è stato un importante convegno internazionale dal significativo titolo: Mare Nostrum: il Mediterraneo luogo strategico per la geopolitica dello spazio e le relazioni di cooperazione internazionale, sul tema della cooperazione e delle strategie aerospaziali nel Mediterraneo. Ne hanno discusso ad alto livello rappresentanti di varie agenzie spaziali di paesi dell’area (come Algeria, Tunisia, Egitto, Israele, Siria, Turchia), assieme ad ASI, ESA, l’indiana ISRO e rappresentanti della NASA e dell’agenzia spaziale russa (Russian Federal Space Agency). Particolare enfasi è stata posta anzitutto sul ruolo del Mediterraneo come asse strategico dei nuovi corridoi internazionali di scambio e di cooperazione in ambito aerospaziale.
GEOmedia n°1-2010
REPORTS
S
i è poi discusso diffusamente del problema della interoperabilità dei servizi dello spazio generati dalle tre grandi aree tecnologiche applicative (Navigazione Satellitare, Osservazione della Terra e Telecomunicazioni Avanzate); interoperabilità che è considerata un obiettivo strategico anche per la stessa integrazione dell’area euromediterranea. Le giornate dal 6 all’8 febbraio sono state dedicate all’esposizione in Fiera – con le prime due riservate come da tradizione agli addetti ai lavori (industria, istituzioni, stampa) – e ad una lunga agenda di convegni e tavoli di lavoro su temi di attualità del settore, con numerosi momenti di incontro dedicati soprattutto ad opportunità di business per le aziende. La terza ed ultima giornata è stata quella di apertura al pubblico, dedicata al tema della formazione professionale in ambito aerospaziale, al ruolo dell’Università e della Ricerca, alle opportunità di lavoro che si prevede possa offrire il settore, soprattutto negli anni a venire, grazie anche ai grandi progetti in fase di sviluppo o completamento. Navigazione satellitare: EGNOS e GALILEO La prima giornata fieristica si è focalizzata sul binomio EGNOS-GALILEO. A questo tema è stata dedicata un’intera conferenza, intitolata 'Ready for EGNOS: a new era for european navigation', che ha visto la partecipazione di tecnici di alto livello dell’Unione Europea (DGTREN - Direttorato Generale Trasporti ed Energia), di ESA, Telespazio, EUTELSAT, ASI, ENAV, e molti altri. Questi interventi sono stati preceduti dall’importante contributo politico offerto da Adolfo Urso per il Governo Italiano (Vice Ministro per lo Sviluppo Economico) e da Antonio Tajani per la Commissione Europea (attuale Commissario Europeo all’Industria). Com’è noto, il 1 ottobre 2009 Tajani stesso, allora Commissario ai Trasporti dell’UE, ha annunciato l’avvio della fase operativa di EGNOS e la piena disponibilità dell’Open Service del sistema. Ricordiamo che EGNOS (European Geographic Navigation Overlay System) è un sistema basato su transponder collocati su satelliti geostazionari, in grado di migliorare le performance di accuratezza del segnale GPS sul territorio europeo (pur sussistendo problemi di copertura sul quadrante sudorientale dell’Europa, che si cercherà comunque di risolvere in tempi ragionevoli). Inviando un segnale di correzione ai ricevitori a terra compatibili (molti di quelli attualmente in commercio già lo sono), EGNOS permette di ottenere precisioni dell’ordine dei 2 metri, contro i 20 attuali del GPS standalone. La maggior qualità garantita del segnale GPS consente anche una maggiore accuratezza nel calcolo della quota, aprendo così la possibilità anche ad applicazioni in ambiente aeronautico: il progetto è stato non a caso il frutto di una collaborazione tra EC, ESA ed Eurocontrol (organizzazione europea per la Sicurezza della Navigazione Aerea). EGNOS non rappresenta, come da molti erroneamente creduto, un progetto gap filler in attesa dell’avvento operativo di GALILEO, ma piuttosto un elemento autonomo del sistema di navigazione europeo, che godrà di vita propria anche con l’erogazione dei servizi di GALILEO. I suoi servizi interesseranno molti settori della vita di tutti i giorni, come testimoniano i seguenti progetti in corso: SENECA (Safety of Life per il trasporto aeronautico), SESTANTE (per il trasporto marittimo), DANGER (trasporto merci pericolose), NADIA (supporto ai disabili), INFOSAT (infomobility), PRESAGO (sicurezza del territorio e per il cittadino).
visita il sito www.rivistageomedia.it
Lo stand dell’agenzia spaziale indiana ISRO.
Nel suo intervento, Adolfo Urso ha ricordato il convinto impegno italiano in ambito aerospaziale, citando non solo il ruolo del nostro paese sui progetti EGNOS e GALILEO, ma anche altre iniziative meno note, come la rinegoziazione ed estensione della storica base spaziale italiana a Malindi (Kenya) voluta da Luigi Broglio e l’accordo con l’Australia per la costruzione del più grande radiotelescopio del mondo. Tajani dal canto suo ha ricordato il lungo e difficile percorso comunitario dei due progetti, degli ingenti investimenti finanziari (3,6 miliardi di euro per GALILEO fino al 2014), ma soprattutto dei ben maggiori ritorni previsti sia in termini di risparmio economico (90 miliardi in 10 anni), che di servizi di utilità. EGNOS è già operativo, GALILEO lo sarà salvo imprevisti a partire dal 2014. Un segnale importante riguardo questo progetto si è avuto proprio il 27 gennaio scorso, con l’assegnazione, in Olanda, dei primi tre dei sei contratti che porteranno alla realizzazione della rete di trentasei satelliti GALILEO. Le grandi commesse, per un totale di oltre un miliardo di euro, sono state firmate con: Thales-Alenia Space (ingegneria e sistemi), OHB (per i satelliti) ed Arianspace (per i lanciatori). Sottolineata in tal senso la significativa presenza dell’industria italiana in questa prima fase di commesse operative. La conferenza dedicata ai due importanti progetti, ha visto numerosi interventi di approfondimento tecnico su vari ambiti applicativi, in particolare su quelli dell’aviazione civile e degli aeromobili teleguidati (UAV).
L’orologio atomico PHM (Passive Hydrogen Maser), il più stabile orologio atomico spaziale mai costruito, installato a bordo di GIOVE-B (GALILEO) per i calcoli di posizionamento.
33
REPORTS
Lo stand di Finmeccanica.
Da segnalare, tra gli altri, il contributo di Giuliano Berretta, CEO di Eutelsat, che ha annunciato l’imminente possibilità di impiego di una canale in Banda-S (2,5 GHz) per la trasmissione del segnale di posizione da parte dei ricevitori mobili attraverso i satelliti Eutelsat, aprendo così la strada a tutta una serie di nuovi servizi basati su una trasmissione bidirezionale dell’informazione di posizione. Osservazione della Terra Non poteva mancare nell’agenda di SatEXPO Europe una sessione dedicata alle attività ed ai programmi europei nell’ambito del controllo del territorio e della sicurezza nelle sue varie accezioni. Una conferenza apposita dal titolo Osservazione della Terra: le attività ed i programmi europei ha fatto il punto della situazione attuale dell’impegno comunitario in questo ambito. Il focus della conferenza è stato sul programma europeo GMES (Global Monitoring for Environment and Security), il vasto progetto finalizzato all’acquisizione e distribuzione di informazioni accurate e tempestive necessarie alla gestione del territorio, alla comprensione ed al contrasto dei fenomeni di cambiamento climatico, alla gestione della sicurezza del cittadino. La timeline di GMES prevede una serie di cinque missioni spaziali con altrettanti satelliti – battezzati Sentinel – che l’ESA sta sviluppando appositamente per questo programma. In particolare, Sentinel-1 produrrà immagini radar, notturne e diurne, in ogni condizione atmosferica, per servizi terrestri e marini. Sentinel-2 avrà invece il compito di produrre immagini ottiche ad alta risoluzione mentre Sentinel-3 fornirà servizi per il monitoraggio globale di terre e mari. Sentinel-4 e Sentinel-5 avranno il compito di estrarre dati sulla composizione atmosferica, da orbite rispettivamente geostazionaria e polare. I satelliti Sentinel non sostituiranno ne’ replicheranno satelliti che già si trovano in orbita (ad esempio per missioni di carattere nazionale), ma andranno ad integrare le tecnologie già esistenti, in modo tale da poter costruire la banca dati di GMES attraverso l’integrazione dei dati dei Sentinel con quelli ottenibili anche da altri satelliti di osservazione già operativi. La seconda giornata fieristica ha visto anche lo svolgimento di una seconda importante conferenza dal titolo 'Lo spazio, un’importante opportunità per le PMI', che con il contributo delle tre associazioni nazionali industriali di categoria (ASAS, AIAD, AIPAS) ha tracciato un quadro dello stato attuale della situazione e delle prospettive in questo ambito. Parallelamente, nello spazio fieristico è stata aperta per tutte le prime due giornate un’apposita area per incontri business-to-business (B2B), che hanno permesso ai vari operatori di verificare le opportunità di mercato immediate e future.
34
Cinema digitale 3D e formazione professionale Il terzo tema tecnologico del SatEXPO è stato dedicato all’innovazione del cinema 3D trasmesso via satellite. La conferenza '3D: la nuova frontiera per cinema, TV ed eventi live', ha riproposto a distanza di un anno i temi già preannunciati nella scorsa edizione di SatEXPO, oggi resi ancor più di attualità da alcuni recentissimi successi mondiali del cinema 3D. Il social entertainment assiste all’avvento di una vera e propria rivoluzione tecnologica che, oltre a riguardare le sale cinematografiche, arriverà presto anche sui televisori di casa con produzioni di eventi live, come concerti musicali ed appuntamenti sportivi. In questo senso il mezzo trasmissivo satellitare si va delineando, per le sue caratteristiche tecniche, come uno strumento ideale per il broadcasting di contenuti video 3D. La fiera ha ospitato per tutti e tre i giorni una filiera completa di produzione video 3D: dal set delle riprese, agli apparati di post-produzione, alla trasmissione satellitare in up-link, alla ricezione in down-link ed infine alla riproduzione in apposita sala 3D, con distribuzione al pubblico dei supporti oculari a lenti polarizzate per la visione stereoscopica. Un’occasione molto utile ed affascinante per apprezzare non solo il prodotto finale della riproduzione, ma anche per avere un’impressione del lavoro ‘a monte’ necessario per questo tipo di prodotto. L’apertura al pubblico della terza giornata del SatEXPO Europe ha coinciso anche con una giornata dedicata all’informazione sulla ricerca in ambito aerospaziale e sulla formazione universitaria finalizzata alle nuove e tradizionali figure professionali del settore. Questi temi sono stati trattati nella tavola rotonda dal titolo 'La cultura dello spazio: un’opportunità per la formazione giovanile e lo sviluppo di nuove professionalità', incontro che ha visto la partecipazione del Comune di Roma, dell’Università e delle tre già citate associazioni industriali di categoria. Contestualmente, è stata aperta per tutta la giornata un’area di incontri researchto-business (R2B), in cui studenti e ricercatori interessati hanno potuto incontrare rappresentanti delle associazioni, degli istituti di ricerca e dell’industria per informazioni sulle nuove professioni dello spazio ed i percorsi di formazione percorribili. Alla conclusione della tre giornate di convegni, di incontri tra le aziende e di informazione al pubblico, i numeri parlano di oltre 4000 visitatori e di più di duemila meeting ospitati nelle apposite aree B2B ed R2B. Un bilancio sicuramente positivo ed incoraggiante per gli organizzatori di SatEXPO Europe.
Abstract SatExpo Europe 2010 The 2010 edition of SatExpo Europe has been held in Rome since the 6th until the 8th of february. The event focused on Navigation, Earth Observation and Advanced Telecommunications, with a special reference to the european market and the international colalborations between space agencies.
Autore GIANLUCA PITITTO GPITITTO@RIVISTAGEOMEDIA.IT
GEOmedia n°1-2010
2010
Trimble Express 2010. PiĂš velocitĂ ai tuoi rilievi
Visita Trimble Express 2010 e scopri come le nostre innovative soluzioni possono migliorare il tuo lavoro
Italia 13/04 Cervignano del Friuli (UD) c /o hotel Internazionale 15/04 Rivalta Scrivia (AL) c /o hotel Il Carrettino 20/04 Affi (VR) c /o hotel Garda 22/04 Medicina (BO) c /o Centro Visite Radiotelescopio 24/05 Ragusa c /o Sala Congressi Villa di Pasquale 26/05 Petrosino (TP) c /o hotel Baglio Basile
REGISTRATI QUI: www.trimbleexpress.com
PERSONAGGI
In ricordo di Enrico Vitelli a cura di Renzo Carlucci e Flavio Ferrante GEOmedia dedica un doveroso saluto a Enrico Vitelli, figura storica del settore topografico, prima, e geomatico, poi. Una vita dedicata alle singole discipline che poi sarebbero state raggruppate nel termine 'Geomatica' ha fatto sì che il prof. Vitelli fosse dotato di una visione vasta ed aperta che lo portava a considerare non solo l'estro scientifico ma anche quello artistico ed umanistico, sia per i suoi collaboratori che per gli autori della Rivista del Catasto di cui è stato lungamente direttore responsabile. Questo ha permeso alla Rivista di fregiarsi di contributi con levatura ben diversa da quella che caratterizza le tradizionali questioni fotogrammetriche, topografiche, catastali ed estimative.
N
el mese di agosto 2009 è scomparsa una figura di spicco nel mondo delle discipline geomatiche, il prof. Enrico Vitelli, noto per il suo operato nel Catasto e nella comunità scientifica della SIFET (Società Italiana di Fotogrammetria e Topografia). In servizio nell’Amministrazione del Catasto dal 1947, Ispettore generale nel 1967, lasciò l'amministrazione per raggiunti limiti di età nel 1981 come Direttore generale, ma rimase sempre presente nel suo ruolo editoriale fino alla scomparsa. Docente di Topografia e Geodesia presso la Facoltà d’ingegneria di Napoli dal 1972 al 1986, fu più volte docente presso la Scuola tributaria Ezio Vanoni per i corsi di aggiornamento riservati agli ingegneri catastali. Figura storica nel mondo della SIFET, avendo partecipato alla fondazione della stessa nel 1952 a Roma insieme al prof. Boaga, come socio onorario fece parte del Consiglio direttivo per quasi 60 anni, apportando il suo contributo, sempre lucido ed efficace, per la gestione della Società anche come presidente negli anni 1975-1978 e 1987-1990. Dal 1976 al 2009, il prof. Vitelli è stato anche direttore responsabile della Rivista dell’Agenzia del Territorio apportando un contributo notevole anche come autore di numerosi contributi scientifici. La Rivista è una pubblicazione a carattere tecnico-scientifico che continua una lunga tradizione editoriale cominciata nel 1933 con la pubblicazione della Rivista del Catasto e dei Servizi Tecnici Erariali e proseguita, fino al 31 dicembre 2000, come Rivista del Dipartimento del Territorio. Riportiamo qui alcuni passi da una nota autobiografica dello stesso prof. Vitelli pubblicata sulle pagine del Bollettino della SIFET nel 2001, che ci narra i principali passi della sua luminosa carriera e del suo contributo all’evoluzione delle discipline fotogrammetriche e topografiche del nostro Paese.
36
GEOmedia n°1-2010
PERSONAGGI
Alcuni ricordi della mia lunga militanza nella SIFET «II primo ricordo che qui mi piace menzionare, e cioè quello strettamente collegato con la fondazione della Società Italiana di Fotogrammetria e Topografia (SIFET), ha un’origine ed una spiegazione di carattere pressoché ancestrale. Infatti, debbo risalire al lontano 1938 quando, avendo superato brillantemente presso la Facoltà d’Ingegneria di Roma l’esame della materia Topografia con elementi di Geodesia, fui profondamente affascinato da quel settore dell’arte del rilevamento che veniva etichettato sotto il nome di ‘Fotogrammetria’. Tanto fu l’entusiasmo che mi rivolsi all’allora titolare della cattedra, prof. Giovanni Cicconetti […] onde ottenere una tesi di laurea proprio in quel settore e ciò sin dal quarto anno di Ingegneria. II professore apprezzò moltissimo la mia richiesta anche perché allora, e forse anche oggi, non erano davvero molti gli allievi che discutevano tesi connesse con l’arte del rilevamento e della rappresentazione cartografica […]. Fu così che nel giugno 1940 mi laureai discutendo una tesi dal titolo Situazione della Fotogrammetria terrestre ed aerea dopo una preparazione durata due anni e dopo che avevo frequentato per circa due mesi l’Istituto Geografico Militare di Firenze, al quale mi aveva indirizzato lo stesso professor Cicconetti, onde potessi prendere cognizione e dimestichezza con gli apparecchi di restituzione fotogrammetrica ivi esistenti e cioè gli stereografi Santoni (modello I, II e III) e lo Stereosimplex dello stesso autore. Altro tempo fu dedicato dal sottoscritto presso la OMI (Ottico Meccanica Italiana) in Roma per prendere conoscenza del fotocartografo Nistri. Fu quindi una fatica, ma una bella fatica, coronata da successo anche perché, appena laureato, il Cicconetti che era in ottimi rapporti con il Direttore Generale del Catasto Michele Tucci, mi fece entrare come ingegnere avventizio in quell’Amministrazione. Di lì a poco, però, fui richiamato sotto le armi e in tutto l’andamento della guerra il destino volle che nella mia qualità di ufficiale del Genio, perseguissi una forte attività topografica, sia nella preparazione per l’allestimento di campi minati, sia per i rilievi carto-
visita il sito www.rivistageomedia.it
grafici, sia infine perché adibito all’insegnamento della Topografia nella Scuola Allievi Ufficiali del Genio in Pavia. Terminata la guerra rientrai nell’Amministrazione del Catasto dove, a seguito di regolare concorso, diventai Ingegnere di ruolo alle dipendenze del nuovo Direttore prof. Giovanni Boaga, eminente topografo e geodeta […]. Fu proprio un pomeriggio dell’ottobre 1950 che il professore, chiamandomi presso di sè, ebbe ad esternarmi il proposito di fondare una società culturale che proseguisse i nobili intendimenti di una precedente fondazione, e cioè la ‘Società di Fotogrammetria Ignazio Porro’ (SIFIP) […]; mi disse anche che era sua intenzione che la nuova società si occupasse non solo di fotogrammetria ma anche di topografia nel senso più lato e cioè comprendente, oltre tutti gli aspetti dell’arte del rilevamento, anche quello assai suggestivo ed importante della relativa rappresentazione cartografica. […] Poco dopo – precisamente nel gennaio 1951 – l’intera questione ebbe sanzione formale con la stesura davanti a un notaio dell’atto costitutivo della nuova società che prese il nome di ‘Società Italiana di Fotogrammetria e Topografia’ e con la fondazione dell’omonimo Bollettino. Mi è particolarmente caro ricordare quanto sopra riportato perché segna l’ingresso mio nella vita della SIFET in quanto il destino volle, e così pure la benevola attenzione che il prof. Boaga aveva verso la mia persona, che io facessi parte dei ventidue soci fondatori, il che non solo solleticò il mio orgoglio personale ma, cosa assai più importante, mi confermò definitivamente nella mia vocazione topografica.
Due anni dopo, e precisamente nell’ottobre del 1953, va ancora il mio pensiero ad un ricordo piacevole quando presentai al Secondo Convegno annuale della SIFET in Padova una mia memoria dal titolo La trilaterazione in ausilio alla triangolazione che potevasi, allora, considerare di notevole attualità in quanto erano in pieno sviluppo progressivo la costruzione di apparati distanziometrici basati sulla emissione di onde elettromagnetiche. L’argomento, tuttavia, almeno dal punto di vista teorico, non era davvero del tutto nuovo […]. La mia relazione si accentrava, per l’appunto, su quell’aspetto importante rappresentato dal modo di compensare le misure ottenute con metodo misto e cioè con trilaterazione e triangolazione e quando la lessi, mi ricordo bene, ero emozionatissimo e mi tremava alquanto la voce e ciò in dipendenza del fatto che gli illustri geodeti e professori Gino Cassinis del Politecnico di Milano e Paolo Dore della Facoltà d’Ingegneria di Bologna erano seduti proprio in prima fila e mi osservavano attentamente. Comunque tutto andò per il meglio e alla fine i due menzionati geodeti mi dettero affettuose pacche sulle spalle; mi ricordo ancora che quel giorno a pranzo mangiai con un appetito formidabile! Gli anni seguenti mi videro sempre fortemente impegnato nella vita culturale della SIFET dalla quale ho sempre tratto soddisfazione e collezionato ottimi ricordi e, in questa sede, mi è cosa grata di richiamarne in particolare tre.
37
PERSONAGGI Il primo di essi si riferisce al 'XIII Congresso della Società Internazionale di Fotogrammetria' che ebbe luogo in Helsinki dall’11 al 23 luglio 1976 […]. In quell’occasione presentai in seno alla Commissione IV di quel Congresso (Applicazioni topografiche e cartografiche) una relazione dal titolo The Italian Digital Cadastre: Organization and methods, relazione che era il frutto, come subito appresso viene spiegato, di un lungo, travagliato ma, infine, vittorioso processo. Infatti, l’articolo 10 del DPR 650 del 1972 contemplava procedure informatiche per dar vita, nel Catasto, ad una rappresentazione topografica su base analitica che contemporaneamente, come è ovvio, indicasse la situazione esistente, ma che fosse anche in grado di poterne seguire automaticamente le relative mutazioni. In quell’arco di tempo lo scrivente era anche dirigente del Servizio Geotopografico del Catasto Italiano e pertanto, in forza del succitato disposto legislativo, ritenne opportuno di accendere una collaborazione scientifica e sperimentale con l’Istituto di Topografia del Politecnico di Torino per studiare una procedura atta allo scopo. Lo studio e la ricerca su tale argomento si concretizzarono dopo circa tre anni e portarono al raggiungimento dell’obiettivo attraverso le seguenti fasi: l’acquisizione dei dati geometrici, la loro elaborazione con opportuni programmi, la loro archiviazione su supporti magnetici ed, infine, l’introduzione automatica in essi delle loro variazioni. Sorse pertanto l’idea nello scrivente e nell’animo del professor Dequal del Politecnico di Torino – che aveva curato con vera passione l’evolversi del processo di cui sopra – di presentare al Congresso di Helsinki una simulazione concreta dell’intera catena di funzionamento e ciò, in realtà, avvenne. […] Altri due ricordi piacevoli, invece, risalgono al periodo della seconda mia presidenza della SIFET (quadriennio 1987-1990) e si riferiscono rispettivamente al 'Congresso della Società Internazionale di Fotogrammetria' in Kyoto nel 1988, l’uno, e al Congresso annuale della SIFET in Merano, nel 1989. Per quanto riguarda il Congresso di Kyoto, che ebbe inizio l’1 luglio 1988 e durò dieci giorni, il ricordo è assai piacevole sia per l’assistenza e collaborazione affettuosa che ebbi da parte del prof. Dequal e del prof. Riccardo Galetto, dell’Università di Pavia, entrambi facenti parte della delegazione italiana, sia per l’affa-
38
scinante esotismo offertomi da quella magnifica località. I due professori sopra menzionati mi furono di poderoso ausilio, stante la mia riprovevole non conoscenza della lingua inglese, in occasione di alcuni interventi e durante le numerosissime e snervanti votazioni che accompagnaroVotazioni durante il Congresso di Kyoto del 1988. A sinistra il prof. Riccardo Galetto, al centro il prof. Enrico Vitelli a destra il prof. Sergio Dequal no le risoluzioni da adottare in seno alla Società Internazionale e di ciò sono tuttora a loro profondamente grato. […] Mi è gradito, infine, ricordare anche il 'XXXIV Congresso della SIFET' in Merano che con il suo tema Stato attuale e prospettive future della cartografia numerica per la grande scala ha voluto rappresentare la naturale sanzione di un lavoro egregio già compiuto sotto il titolo Proposta di normativa per la stesura di capitolati Note editoriali per la produzione di cartografia foto- Si ringraziano l’Agenzia del Territorio grammetrica numerica da parte di un e la SIFET per il materiale messo a gruppo di lavoro nominato in seno disposizione. La versione intera del al Comitato Scientifico della SIFET, contributo del prof. Vitelli è disponibicoordinato dal prof. Dequal e di cui le sul sito di GEOmedia nella sezione facevano parte ben 36 membri di varia ‘Articoli on line-Personaggi’ (http:// estrazione e provenienza, compreso lo www.rivistageomedia.it/it/georisorscrivente. Numerose furono le relazio- se/articoli-on-line/personaggi/2624ni tra ufficiali (2), invitate (4) e le libe- in-ricordo-di-enrico-vitelli.html). re (24). Tra le relazioni invitate ebbe particolare rilevanza quella del prof. Konecny dell’Università di Hannover A cura di e già presidente della Società Internazionale di Fotogrammetria, dal RENZO CARLUCCI titolo Cartografia numerica e Sistemi DIRETTORE@RIVISTAGEOMEDIA.IT informativi territoriali nella Repubblica Federale Tedesca. […] FLAVIO FERRANTE Il Congresso in questione fu organizAGENZIA DEL TERRITORIO FLAVIO.FERRANTE@AGENZIATERRITORIO.IT zato magnificamente dal Collegio dei Geometri di Bolzano sotto la sapiente ed accuratissima regia del geometra Mario Sacchin di Merano che seppe imprimere un aspetto di granAbstract de signorilità in ogni dettaglio dello Remembering Enrico Vitelli svolgimento di quell’assise. […] I ricordi che ho sopra menzionato sono quelli che più spontaneamente mi sono venuti alla mente, ma non vogliono affatto rappresentare una sorta di élite giacché tutta la mia militanza legata alla SIFET è stata costellata di tante e care memorie che qui, però, non è il caso di richiamare perché è bene di non eccedere troppo nel parlare di se stessi!»
Enrico Vitelli has been one of the most important charachters in the Italian geomatics sector. This article celebrates the achievements and the results of his carreer. A carreer and a life devoted to all fields of geomatics. As editor-in-chief of the 'Rivista del Catasto' (Cadastral Magazine) he always gave space to authors and themes that differed from the traditional aspects of topographic, photogrammetric and cadastral issues, promoting a new scientifical vision for the entire sector.
di Enrico Vitelli, Presidente SIFET (1975-1978 e 1987-1990)
GEOmedia n°1-2010
One 4 all
grafit-werbeagentur.de
Ricevitore palmare GNSS sub-metrico e centimetrico RTK
www.geotop.it
INTERVISTA
L’Agenzia del Territorio nel contesto della Pubblica Amministrazione 2.0 L’Agenzia del Territorio esce da un periodo di innovazione durato quasi trent’anni e si presenta oggi in una veste completamente rinnovata, sia per quanto riguarda le metodologie che per il diverso rapporto – molto più diretto – che ha saputo instaurare con i suoi utenti, i professionisti del territorio. Sono proprio essi che, in questa intervista al Direttore dell’Agenzia, Gabriella Alemanno, troveranno indicazioni sui progetti futuri, molti dei quali nati nell’ottica di un uso partecipativo delle risorse web.
nuovi caratteri dell’Informazione Geografica (webGIS, modelli di analisi dei dati avanzati, ecc.) si combinano con lo scenario attuale di sviluppo di nuove tecnologie ICT, in particolare il complesso dei servizi innovativi che va sotto il nome di web 2.0, in cui l’approccio degli utenti passa dalla semplice consultazione alla possibilità di utilizzare le risorse messe a disposizione dalle nuove applicazioni popolandole con i propri specifici contenuti. Nel caso del Catasto italiano gli effetti sono forse tra i più evidenti se si considera che prima di parlare di web 2.0 è necessario considerare quanto era stato già acquisito nell’era preinternet e procedere di conseguenza ad ‘aggiornare’ le conoscenze al fine di partire da risultanze già consolidate. Per accettare l’interazione geografica degli utenti del Catasto italiano è stato necessario predisporre delle procedure di verifica ed accettazione del dato di altissimo livello quali quelli che nel corso degli ultimi anni sono stati messi a punto dall’Agenzia del Territorio. Ne parliamo con il Direttore dell’Agenzia stessa, la D.ssa Gabriella Alemanno.
I
Gabriella Alemanno: Finalmente con l’attivazione della procedura Pregeo 10 i cittadini, attraverso la mediazione dei professionisti abilitati alla presentazione degli atti al Catasto, sono divenuti parte integrante del sistema di aggiornamento del Catasto stesso. L’interazione tra l’Agenzia del Territorio e gli utenti del sistema catastale avviene attraverso la condivisione delle informazioni contenute negli archivi catastali che l’Agenzia del Territorio veicola ai professionisti attraverso l’estratto della mappa. I professionisti, sulla base dei dati contenuti nell’estratto di mappa e delle di regole comuni condivise ed implementate nella procedura informatica Pregeo 10, forniscono all’Agenzia del Territorio, in via telematica, le informazioni utili all’aggiornamento automatico della cartografia e del corrispondente archivio censuario del catasto dei terreni. L’Agenzia del Territorio, previa esecuzione di controlli automatici, utilizza tali dati per l’aggiornamento dei propri archivi; a seguito dell’aggiornamento trasmette ai professionisti – sempre attraverso il canale telematico – un estratto aggiornato della banca dati cartografica e censuaria.
GEOmedia: L’Agenzia del Territorio è una delle poche amministrazioni che inizia ad operare nella logica del web 2.0 (oppure Pubblica Amministrazione 2.0), ovvero promuovendo la distribuzione e l’aggiornamento dei dati geografici tramite la partecipazione degli utenti e dei cittadini con uno scambio bidirezionale delle informazioni. Come sono state avviate le procedure per sviluppare le interazioni con gli utenti del sistema Catasto?
G.: La community geografica richiede sempre di più un’apertura alla fruizione dei dati geografici: quando sarà interamente possibile per il Catasto e quali sono i veri motivi che ostano?
40
G.A.: I dati catastali cartografici e censuari già da qualche anno sono fruibili gratuitamente da tutte le pubbliche amministrazioni centrali e locali per i propri compiti istituzionali, attraverso due canali telematici: il Sistema di
GEOmedia n°1-2010
INTERVISTA ricercato. L’individuazione di un immobile e la sua localizzazione sul territorio avviene infatti attraverso la navigazione cartografica, l’indirizzo e il riconoscimento visivo del fabbricato. Il servizio utilizza diversi strati informativi sovrapposti su cui è possibile consultare la cartografia catastale, le ortofoto a colori ad alta definizione e il grafo stradale. Il servizio di navigazione si collega a quello di consultazione delle rendite catastali già disponibile sul sito internet dell’Agenzia del Territorio tra i servizi per il cittadino. G: E’ luogo comune vedere gli uffici del Catasto come un luogo vecchio e non aggiornato; sembra però apparsa ultimamente una ventata di giovane dinamismo: quale futuro ci aspetta?
Gabriella Alemanno, direttrice dell'Agenzia del Territorio
Interscambio dell’Agenzia del Territorio ed il Portale per i Comuni. Il primo, viene generalmente utilizzato dalle Amministrazioni Centrali e dalle Regioni, mentre il portale per i Comuni viene utilizzato dalle amministrazioni locali, in particolare dai Comuni. Entrambi i sistemi consentono lo scarico dei dati catastali di pertinenza dell’Ente e, successivamente, gli aggiornamenti intervenuti nel periodo di riferimento; le modalità indicate consentono agli enti cooperanti di garantire il sincronismo tra il proprio sistema informativo e quello dell’Agenzia del Territorio. Per quanto riguarda invece la fruibilità dei dati puntuali, quali ad esempio estratti della mappa, ‘visura’ dei dati censuari, ecc., generalmente di interesse dei professionisti, l’Agenzia del Territorio mette a disposizione degli utenti la piattaforma SISTER (Sistema InterScambio Territorio). Tra i servizi rivolti al cittadino, vale la pena accennare al servizio di visura catastale attraverso la navigazione su web della cartografia integrata con ortofoto e grafi stradali che l’Agenzia del Territorio sta predisponendo. La visura catastale light al cittadino è un servizio altamente innovativo, che permette la ricerca delle informazioni sulle unità immobiliari in maniera intuitiva, anche senza conoscere l’identificativo catastale (numero di particella) dell’immobile
visita il sito www.rivistageomedia.it
G.A.: Per sfatare il luogo comune cui si fa riferimento nella domanda, pongo all’attenzione dei lettori di questa rivista di geomatica, come esempio di innovazione, il nuovo sistema di aggiornamento del catasto dei terreni meglio noto come Approvazione automatica degli atti di aggiornamento del Catasto Terreni con contestuale aggiornamento della mappa e dell’archivio censuario mediante l’ausilio della procedura Pregeo 10. Per far fronte agli oltre 500.000 atti di aggiornamento del Catasto dei Terreni che vengono presentati ogni anno presso gli Uffici dell’Agenzia del Territorio, per eliminare qualunque possibile ‘soggettività’ nell’esame tecnico degli atti ma, soprattutto, per realizzare l’aggiornamento automatico della mappa e dell’archivio censuario del Catasto dei Terreni, è stato realizzato un nuovo sistema di aggiornamento. La procedura Pregeo 10 consente di stabilire, dopo l’esecuzione di opportuni controlli automatici direttamente presso lo studio del professionista, se l’atto di aggiornamento sarà registrato automaticamente negli archivi del Catasto oppure no. La documentazione predisposta dal professionista, sottoscritta con firma digitale, viene poi trasmessa in via telematica all’ufficio competente dell’Agenzia del Territorio, attraverso la nuova piattaforma SISTER. Presso l’Ufficio, il sistema di gestione e di controllo, completamente automatico, verifica nuovamente la correttezza dell’atto e la congruenza dei dati con quelli presenti negli archivi catastali e, in caso di esito positivo, procede all’aggiornamento automatico della cartografia e dell’archivio censuario del Catasto dei Terreni.
41
INTERVISTA Il nuovo sistema di aggiornamento – di recente messo a punto dall’Agenzia del Territorio con la condivisione e la partecipazione attiva dei Consigli Nazionali degli Ordini Professionali – è entrato in vigore su tutto il territorio nazionale il 15 ottobre 2009 in modalità facoltativa; dal 1° giugno tale procedura diventerà obbligatoria. G.: Nell’articolo di apertura di questo numero di GEOmedia vengono descritti i risultati ottenuti dalla collaborazione fra l’Agenzia del Territorio e l’AGEA nell’identificazione dei fabbricati sconosciuti al catasto. L’impressione che se ne deriva è che la messa a fattor comune degli asset delle due agenzie, in termini di banche dati e capacità operativa, costituisca un valore di assoluto rilievo per tutto quello che riguarda la conoscenza e la gestione del territorio in ambito nazionale. Quali sviluppi possiamo attenderci nei prossimi tempi? G.A.: L’Agenzia del Territorio e l’AGEA, collaborano ormai da oltre vent'anni. Prima ancora dei risultati ottenuti di recente nella lotta all’evasione fiscale attraverso l’individuazione dei fabbricati sconosciuti al catasto, la messa a fattor comune dei dati geografici e amministrativi delle due Agenzie ha fornito la base per le procedure di controllo del Sistema Informativo Agricolo Nazionale. La validità dell’impianto su cui è fondata la collaborazione è testimoniata anche dall’aggiornamento dei dati censuari del catasto dei terreni effettuato a partire dalla dichiarazioni presentate ad AGEA da produttori agricoli che, ove discordanti dalla qualità presente nella banca dati catastale, vengono automaticamente recepite dall’Agenzia del Territorio, come proposte di variazione colturale. Le due agenzie sono anche consapevoli del valore che la collaborazione è in grado di generare per il paese; per questo motivo, si stanno definendo le attività da svolgere insieme nel breve e medio termine. I temi che già sono stati individuati sono orientati a migliorare ulteriormente l’integrazione delle banche dati, a migliorarne la qualità delle stesse, a garantire un costante monitoraggio del territorio – soprattutto nel settore dell’edilizia – e allo sviluppo di servizi integrati congiunti, basati sull’uso di tecnologia sempre più innovativa, verso altre pubbliche amministrazioni con le quali già sono in atto importanti collaborazioni: il Dipartimento della Protezione Civile, l’ISTAT, le Regioni, il Corpo Forestale dello Stato, ecc. E’ interesse comune, inoltre, sviluppare alcuni progetti che, pur non avendo direttamente delle ricadute operative, qualificano la conoscenza del territorio: cito in particolare uno studio sulle antiche centuriazioni romane ancora individuabili sulla visione congiunta di cartografia catastale e immagini aeree. G.: Si parla sempre più spesso del consistente patrimonio cartografico dell’Agenzia del Territorio. Potrebbe fornire ai lettori di questa rivista alcuni dati sintetici ma significativi? G.A.: Il patrimonio cartografico del Catasto è costituito da circa 300.000 fogli di mappa; in particolare l’Agenzia del Territorio conserva 300.000 fogli originali di impianto su carta forte, 300.000 matrici trasparenti su supporto indeformabile, 300.000 copioni di visura, 342.000 file cartografici, in formato vettoriale, comprensivi di fogli, allegati e sviluppi. Gestisce inoltre 7.000.000 di punti di riferimento (Punti Fiduciali), le cui monografie sono disponibili gratuitamente
42
sul sito web dell’Agenzia del Territorio e l’intera raccolta degli atti di aggiornamento – dal momento dall’avvio della conservazione del catasto ad oggi – di cui circa 7.000.000 conservati in formato digitale. G.: Qual è relazione tra il Catasto ed il governo del territorio? G.A.: In parallelo con l’ammodernamento del Catasto, gli enti territoriali, ed in particolare le Regioni ed i Comuni, per un efficiente e moderno governo del territorio, stanno provvedendo, ed in parte hanno già provveduto, alla realizzazione di Sistemi di Supporto alle Decisioni (DSS) basati su Sistemi Informativi Territoriali (SIT); l’efficacia di tali sistemi è strettamente collegata all’integrazione della cartografia catastale con i corrispondenti dati amministrativo-censuari. Esiste oggi, quindi, un’esigenza oggettiva e non più procrastinabile, da parte degli Enti territoriali, di utilizzare i dati del Catasto nei propri Sistemi Informativi Territoriali per le politiche connesse alla fiscalità locale (ICI, Tarsu), alla gestione dell’ambiente (gestione delle acque, delle discariche, dell’inquinamento), all’urbanistica, alla sicurezza (protezione civile, immigrazione), alla valorizzazione dei territori, e così via. La disponibilità della cartografia catastale in formato vettoriale da un lato, e le esigenze degli Enti territoriali, dall’altro, hanno accelerato il processo di correlazione tra i dati catastali ed i dati territoriali degli stessi Enti e spinto il legislatore ad emanare il Decreto Legislativo 7 marzo 2005, n. 82, Codice della Amministrazione Digitale; infatti il comma 7-bis dell’articolo 59 stabilisce che «la base dei dati catastali, gestita dall’Agenzia del Territorio è di interesse nazionale». Conseguentemente, l’Agenzia del Territorio è impegnata a rendere i propri dati interoperabili e fruibili a tutte le pubbliche amministrazioni, sia attraverso il Sistema di Interscambio che attraverso il Portale per i Comuni, in coerenza con la Direttiva INSPIRE 2007/2/CE del Parlamento Europeo. A cura della Redazione
Abstract The 'Agenzia del Territorio' within Public Administration 2.0 The Italian “Agenzia del Territorio” (the governmental administration devoted to the management of Cadastre) has recently reached the complete automation started in the '80's and is now completely renovated both in the methodologies and in the relationship with the final users, professionals or citizens. In this interview with the Director of the Agency, Gabriella Alemanno, we discover guidance on future projects, many of whom were born in a context of the participatory use of web resources today called web 2.0.
GEOmedia n°1-2010
1&3 26"-$6/0 -" $"4" )" 6/ (3"/%& 7"-03& 4F MB DBTB IB VO WBMPSF BODIF QFS UF F OPO MµIBJ EJDIJBSBUB JO $BUBTUP SFHJTUSBMB TVCJUP 3JTQBSNJFSBJ TV POFSJ F TBO[JPOJ (MJ JNNPCJMJ TF OPO SFHPMBSNFOUF JTDSJUUJ JO $BUBTUP OPO QPTTPOP FTTFSF WFOEVUJ 7FSJGJDB MB UVB QPTJ[JPOF QSFTTP HMJ 6GGJDJ EFMMµ"HFO[JB EFM 5FSSJUPSJP P TV XXX BHFO[JBUFSSJUPSJP JU
OPEN SOURCE
Fra la cattedrale e il bazar Punti di vista sull’Informazione Geografica libera fra il 2007 e il 2013 di Andrea Giacomelli L'articolo fornisce una panoramica degli ultimi tre anni di lavoro dell'Associazione italiana per l'Informazione Geografica libera (GFOSS.it). In Italia, seppur con alcuni limiti organizzativi, il settore è in crescita. Il 2010 rappresenta per l'Associazione un momento importante: oltre alla scadenza dell'attuale consiglio direttivo, questo è anche l'anno della conferenza globale FOSS4G, che si terrà in Europa, a Barcellona (6-9 settembre).
N
el 1998 Eric S. Raymond, programmatore, scrisse un saggio dal titolo La cattedrale e il bazar, contrapponendo il modello di sviluppo del software proprietario (la cattedrale) a quello del software libero (il bazar), indicando il bazar come modello migliore. L’Associazione italiana per l’Informazione Geografica libera (GFOSS.it), a partire dal febbraio 2007 si è posta, in qualche modo, fra la cattedrale e il bazar. Un’enfasi particolare è stata data, infatti, allo stare fuori (alcuni hanno detto essere fuori) e a comunicare con...tutti: in quasi tre anni abbiamo dato vita a decine di eventi fra Bolzano e Matera. Abbiamo coinvolto gente in situazioni atipiche, così come in momenti istituzionali...facendo partecipare ciechi e cechi, cittadini comuni e cittadini e Comuni, e raccordandoci con gruppi di lavoro internazionali sugli stessi temi. Ci siamo inoltre proposti in modo fluido attraverso vari media: web, stampa, radio, video, fotografia. In parallelo a questa attività sul campo, GFOSS.it ha costituito uno spazio di aggregazione e – per chi lo ha voluto cogliere – di confronto, su tematiche specialistiche quali nuove licenze, modelli didattici, e deontologia professionale. Fra i vari temi, molta attenzione è stata posta ai dati liberi, in particolare con l’attività di promozione su OpenStreetMap nel 2008. L’interazione con questa comunità si è dimostrata particolarmente densa di spunti: essa da un lato ci ha ispirato la definizione di nuovi concetti e termini legati alla relazione fra cittadino e territorio, fra cui il M(‘)appare coniato per “M(‘)appare Milano”; dall’altro ci ha fatto intravvedere la necessità di operare una riflessione sulla dimensione neogeografica dei movimenti di mappatura collaborativa, su cui stiamo tuttora cercando un punto di vista più condiviso.
Infine, GFOSS.it ha anche dato un concreto incentivo allo sviluppo di progetti software, senza i quali poco si potrebbe combinare sui dati. Nei primi mesi del secondo decennio del terzo millennio l’associazione è di fronte a un momento importante di un anno particolare. L'importanza del momento è data dal rinnovo del consiglio direttivo di GFOSS. it, che nel febbraio 2010 ha visto entrare nuovi elementi e nuove energie nella conduzione dell'associazione. La particolarità dell’anno è data dal transito sul nostro continente (a Barcellona) della conferenza FOSS4G, evento globale in cui si annuncia il ritrovo di svariate centinaia di persone, unite dal tema dell’Informazione Geografica libera e dal software Open Source. Quali i possibili sviluppi, in questo contesto ? Auspico che gli sforzi e gli investimenti fatti in tre anni servano anzitutto a costruire. La sensazione in alcuni frangenti è che – piuttosto che a un bazar – la dimensione del software libero italiano somigli a una parrocchia (volendo fare una metafora in linea con quella della cattedrale). Allo stesso tempo i dati e i risultati mostrano, oggettivamente, un livello tecnologico importante, una linea di crescente diffusione, e quindi una chiara opportunità di crescita e di maturazione in questo settore. Ma quali gli sviluppi possibili ? GFOSS.it attraverserà sicuramente una fase di transizione. L’evento di Barcellona costituirà un attrattore di grandissimo livello, ma sarà comunque un evento di passaggio. Quello che c’è comunque in Italia è il substrato di circa trecento associazioni legate in vario modo alla dimensione delle libertà digitali, ed è questo il terreno su cui impostare un lavoro. In
questo senso, proprio GFOSS.it ha invitato a Bologna lo scorso gennaio, i rappresentanti di alcune associazioni a un incontro informale, a partire dal quale si è intravista la possibilità di creare iniziative più strutturate. Un sassolino è stato gettato: vedremo dunque come si propagheranno le increspature nello stagno, soprattutto a partire dal prossimo Linux Day (il 23 ottobre). Eric S. Raymond è americano. Chi vi scrive è europeo, e ha vissuto soprattutto in area mediterranea: conosco bellissime cattedrali, impressionanti moschee, e altri manufatti. Allo stesso tempo frequento vivacissimi bazar, quando vado a fare la spesa in qualsiasi mercato rionale. Mi piace pensare che il modello innescato tre anni fa in GFOSS.it rappresenti un tentativo di collegare la cattedrale al bazar, e su questo tentativo continuerò a operare.
Abstract Geographic information: between a Cathedral and a bazar The article gives a high-level overview of three years of awareness raising on geographic free/Open Source software and information, conducted by the Italian OSGEO Chapter (GFOSS.it), and provides some outlook on the development of this sector in Italy.
Autore ANDREA GIACOMELLI SOCIO FONDATORE DI GFOSS.IT, FRA IL 2007 E IL 2010 È STATO RESPONSABILE COMUNICAZIONE DELL'ASSOCIAZIONE. INFO@PIBINKO.ORG WWW.PIBINKO.ORG
44 44
GEOmedia n°1-2010
GI IN EUROPE - di Mauro Salvemini
Informazioni ambientali sempre più condivise Il SEIS (Shared Environmental Information System) è un'iniziativa collaborativa posta in essere dalla Commissione Europea e dall'Agenzia Ambientale Europea per isituire un sistema informativo ambientale condiviso e integrato. Due requisiti, questi, che sempre più spesso vengono associati al concetto di Informazione Geografica.
N
el Decreto del Presidente del Consiglio dei Ministri di trasposizione della Direttiva INSPIRE nella legislazione italiana, approvato nella seduta del 22 febbraio 2010 ed in attesa di essere pubblicato sulla Gazzetta Ufficiale, tra i considerata si parla de: «[...] la comunicazione delle Commissione europea al Consiglio, al Parlamento europeo, al Comitato economico e sociale europeo e al Comitato delle regioni denominata ‘Verso un Sistema comune di informazioni ambientali’ (SEIS – ‘Towards a Shared Environmental Information System’. NdR.) del 1° febbraio 2008». Il SEIS (Shared Environmental Information System) è un’iniziativa di collaborazione della Commissione Europea e dell’Agenzia Ambientale Europea per istituire, insieme con gli Stati membri, un sistema informativo ambientale ampiamente integrato e condiviso a livello europeo. Questo sistema permetterà di combinare meglio tutti i dati raccolti esistenti e i flussi di informazioni legati alle politiche e legislazioni ambientali. Sarà basata su tecnologie come internet e sistemi satellitari in modo da rendere le informazioni ambientali più facilmente disponibili e comprensibili da parte dei decisori e da parte del pubblico. Uno degli scopi principali del SEIS è anche quello di distaccarsi dai report paper based e andare verso un sistema dove
visita il sito www.rivistageomedia.it
l’informazione sia gestita il più vicino possibile alla fonte e resa disponibile agli utenti in una modalità aperta e trasparente. Quanto previsto da SEIS trova nell’attuazione della direttiva INSPIRE e nell’ulteriore sviluppo dell’iniziativa GMES (Global Monitoring for Environment and Security), valide leve per migliorare la condivisione di dati e informazioni sull’ambiente in Europa e l’offerta di servizi destinati ai decisori pubblici e ai cittadini. L’efficacia di questi due strumenti nella soluzione dei problemi che sono chiamati ad affrontare è oggetto di un attento esame al fine di garantirne la complementarietà. In tal modo si garantirà che SEIS, INSPIRE e GMES si integrino per il beneficio dei dati ambientali e non solo. Oggigiorno la sfida più grande a livello globale e quindi anche in Europa per garantire la sostenibilità della crescita è quella di organizzare il vasto assortimento di dati e informazioni ambientali già raccolti e integrare questi, ove necessario, con i dati sociali ed economici esistenti. Questi dati dovrebbero essere resi disponibili insieme agli strumenti che permettono agli esperti di fare le necessarie analisi e comunicarne i risultati in modo che si possano prendere decisioni avendo garantito l’accesso e l’uso. Al tempo stesso, gli Stati Membri e le istituzioni europee necessitano di un efficiente e moderno sistema di reporting per adempiere gli obblighi normativi emessi dall’Unione Europea e le politiche e leggi ambientali internazionali. Poiché il tutto avviene tramite un complesso sistema di reporting, SEIS ha lo specifico task di evitare impegni di resoconto che siano duplicati, convergenti e ridondanti. SEIS è necessario perché i policy maker europei a tutti i livelli (dal locale a quello europeo) sono convinti che le decisioni migliori hanno bisogno di informazioni migliori e più puntuali. Il concetto alla base di SEIS impone che i dati e le informazioni ambientali siano immagazzinati in database elettronici in ogni parte dell’Unione Europea. Questi database saranno interconnessi virtualmente e saranno compatibili tra loro. Il sistema proposto è un sistema informativo decentralizzato ma integrato tramite il web, basato su una rete di fornitori di
informazioni pubbliche che condividono dati e informazioni ambientali. Sarà costruita sulle infrastrutture, sistemi e servizi basati sul web già esistenti negli Stati Membri e sulle istituzioni della UE. La semplificazione è un elemento essenziale per realizzare ed attuare le legislazioni, poiché le migliori politiche dipendono dall’adeguata disponibilità di informazione di alta qualità, puntuale e rilevante. Riducendo il carico amministrativo si dovrebbe giungere ad un miglioramento – senza deteriorarla – della qualità delle policy pubbliche e dei corrispondenti regolamenti. Poiché il diritto di accesso da parte dei cittadini all’informazione ambientale è stabilito dalla Convenzione di Aarhus – operativa dall’ottobre 2001 – che garantisce l’accesso all’informazione e la pubblica partecipazione, SEIS darà anche più potere ai cittadini, poiché fornirà loro informazioni utili in campo ambientale nella loro lingua, permettendo di prendere decisioni informate sul loro ambiente.
Abstract SEIS: Shared Enviroment and Information System The Shared Environmental Information System (SEIS) is a collaborative initiative of the European Commission and the European Environment Agency (EEA) to establish together with the Member States an integrated and shared EU-wide information system to simplify monitoring and reporting of environmental data.
Autore MAURO SALVEMINI MAURO.SALVEMINI@UNIROMA1.IT
45
AZIENDE E PRODOTTI Nuova versione di ArcGIS Explorer di ESRI La nuova versione di ArcGIS Explorer di ESRI si basa su un design intuitivo che punta a migliorare l’accesso ai servizi di geoprocessing e ad estendere l’insieme della mappe disponibili nella basemap gallery. ArcGIS Explorer, scaricabile liberamente, è un visualizzatore del globo terrestre dotato delle funzionalità tipiche di un Sistema Informativo Geografico (GIS). La versione presenta una nuova analysis gallery che consente la connessione diretta ai servizi di geoprocessing e la loro conseguente utilizzazione. Per l’impiego degli strumenti di analisi avanzata è sufficiente fare clic sul corrispondente strumento della nuova galleria. In aggiunta a questo, la basemap gallery è stata aggiornata per offrire nuove immagini per ArcGIS online, come pure mappe stradali e topografiche. Infine, sono presenti servizi come Bing Maps (aerei, stradali ed ibridi), pronti ad essere utilizzati senza bisogno di registrarsi. La basemap gallery è stata arricchita con la nuova opzione detta manage my basemaps. Gli utenti possono così personalizzare la galleria aggiungendo o togliendo mappe da essa, oppure modificando l’immagine ridotta associata alla singola mappa. La nuova versione del prodotto supporta inoltre funzionalità avanzate per la gestione dei livelli, una migliorata etichettatura delle feature e la possibilità di sorvolare percorsi definiti dall’utente.
Le stazioni totali della serie M3 e S3 di Trimble
Topcon Europe annuncia il rilascio della gamma di stazioni totali laser motorizzate della serie MS, per applicazioni di altissima precisione in topografia, ingegneria, edilizia, e monitoraggio. La gamma MS comprende l’MS1A per lavori che richiedono elevata precisione e misurazioni a lunga distanza, ed il modello MS05A, indicato per lavori con requisiti di precisione estremamente elevata. Combinando le alte prestazioni degli encoders assoluti con la recente introduzione del sistema IACS (Independent Angle Calibration System), entrambi gli strumenti offrono il livello di accuratezza angolare attendibile e la precisione che è richiesta per i siti di lavoro più esigenti. Mentre l’MS1A è dotato di precisione angolare di 1” (0.3mgon), l’MS05A va anche oltre e consente all’utilizzatore di effettuare misure angolari di 0.5” (0.15mgon). Inoltre, entrambi gli strumenti sono capaci di effettuare misurazioni delle distanze di elevata precisione. Il tempo di misura è stato ridotto, con misurazioni rapide ed accurate eseguite in meno di 2,5 secondi. Le gamma di stazioni totali MS include un sistema di auto-collimazione fortemente potenziato che impiega algoritmi superiori per un incremento delle prestazioni. A differenza dei sistemi tradizionali che ‘centrano’ il target più vicino (all’interno del campo visivo del cannocchiale) ottenendo il segnale di ritorno più forte, il sistema della serie MS consente allo strumento di centrare il target che è più vicino al centro del campo visivo del telescopio. Ciò vale per prismi standard (fino a 1000m) ed anche per target retro-riflettenti. Inoltre, entrambi gli strumenti hanno aumentate capacità di auto-tracciamento e sono capaci di tracciare prismi standard fino a 1000m di distanza (MS05A) rapidamente ed in modo affidabile.
Leggera, compatta e resistente, la nuova stazione totale Trimble M3 rappresenta una potente soluzione per i rilievi ottici convenzionali di tutti i giorni. La M3 è supportata dalla rete di servizi e formazione Trimble distribuita su scala globale. Comandi ergonomici accompagnati da schermo touch-screen e tastiera integrati migliorano e semplificano il lavoro dei topografi. L’ottica Nikon di elevata qualità fornisce chiarezza, qualità e precisione per operazioni e prestazioni di livello superiore. Facile da usare, la nuova stazione totale meccanica Trimble M3 è progettata sulla base della grande esperienza di Trimble nel campo delle tecnologie di misurazione ottico-convenzionali. Abbinata ad una soluzione field software completa ed intuitiva – Trimble Digital Fieldbook – Trimble M3 vi fornisce tutti gli strumenti di raccolta dati e di calcolo per ottenere risultati veloci sul campo. La serie di stazioni totali Trimble S3 invece, include ora anche i modelli Autolock e Servo con un pannello di controllo on-board per prestazioni sul campo ulteriormente migliorate. La S3 fornisce tutto ciò di cui si ha bisogno per un progetto topografico accurato ed efficiente. Oltre ad un posizionamento di precisione e una potente raccolta dati in una soluzione integrata ed ergonomica facile da utilizzare per il proprio lavoro quotidiano, essa è costruita con tecnologie Trimble testate sul campo e affidabili quali, ad esempio, la tecnologia Trimble DR (Direct Reflex) per letture senza prisma adatta a quasi ogni tipo di superficie. Con il Controller Trimble Survey integrato, Trimble S3 fornisce la base ideale per le soluzioni Integrated Surveying. Con Integrated Surveying, i topografi possono integrare perfettamente tecnologie di misura complementari direttamente in campagna, quali, GPS/GNSS e misurazioni ottiche, che consentono di utilizzare lo strumento più appropriato alle condizioni del sito.
(Fonte: Geotop)
(Fonte: Trimble)
(Fonte: Redazionale)
Stazioni totali Topcon MS05A e MS1A
46
GEOmedia n°1-2010
AZIENDE E PRODOTTI Sokkia ha introdotto la serie di stazioni totali 50RX Sokkia annuncia le stazioni totali serie 50RX, caratterizzate da una resistenza agli agenti atmosferici senza precedenti, una maggiore velocità e funzionalità estese. Una versione degli strumenti è in grado di resistere ad alte temperature, così da poter essere utilizzata in ambienti con climi fino a 60°, senza con ciò compromettere l’operatività anche con basse temperature (-20°). I modelli studiati per le basse temperature sono anche disponibili per il range di utilizzo che va dai -30° ai +50°. Grazie al sensore di temperatura interno, tutti i modelli mantengono automaticamente un contrasto e una visibilità del display LCD ottimali. La protezione IP66 tiene fuori polvere, sabbia, fango e pioggia battente. La distanza per le misurazioni senza prisma è stata estesa a 400m. La variazione del tempo di misurazione dovuta alle diverse distanze e tipi di oggetto è stata ridotta del 30%. Il sensore d’inclinazione a doppio asse aumenta il campo di lavoro a ±6’ (± 111mgon). Tra le altre caratteristiche: • raggio EDM rosso per supportare le misure senza prisma • laser sicuro di Classe 1 in modalità prism/sheet • funzione filo a piombo laser per il centramento e l’impostazione veloce dello strumento • la luce guida verde/rossa è incorporata nel telescopio come caratteristica standard • slot per scheda SD o SDHC e slot di memoria flash USB • opzione modulo Bluetooth interno per la comunicazione wireless • protezione tramite password per impedire l’uso non autorizzato. La serie presenta quattro diversi modelli di stazione totale, a seconda della precisione angolare: SET250RX (2”), SET350RX (3”), SET550RX (5”) e SET650RX (6”). (Fonte: Redazionale)
Una piattaforma webGIS per la consultazione di mappe antiche Il Museo Nazionale di Storia di Taiwan ha predisposto un webGIS per la gestione di oltre 2000 mappe antiche su una base map che rappresenta la situazione attuale. Il sistema è sviluppato su piattaforma SuperWebGIS, l’Internet Map Server sviluppato da SuperGeo. Le mappe antiche e quelle più recenti possono essere interrogate e visualizzate facilmente direttamente all’interno del browser web. Utilizzando il correlato Ancient Map Geographic Information System, gli scolari – ma non solo – potranno fruire di un approccio ‘in profondità’ ai dato geografici che riguardano il passato ed il presente storico-culturale di Taiwan. La possibilità di confrontare la geografia umana di molto tempo fa con l’attuale situazione è sicuramente una utile risorsa di crescita. Il Sistema può anche aggiungere altri formati di file utili allo sfruttamento del GIS come ad esempio quelli relativi ai DTM, alle immagini telerilevate e ai dati vettoriali, espandendo così le funzionalità del sistema. Esso prevede anche la possibilità di sviluppare altre funzioni rilevanti come query avanzate, dimostrazioni 3D e guide alla navigazione. Il sistema si pone come un utilissimo strumento per i ricercatori, gli studiosi e gli studenti; l’introduzione di un sistema del genere anche al contesto italiano potrebbe dar nuovo lustro all’immenso patrimonio cartografico di cui dispone il nostro Paese, permettendo analisi complesse delle molteplici realtà culturali che compongono il nostro territorio. (Fonte: Redazionale)
Riegl annuncia il sistema laser scanner mobile e integrato VMX-250 Riegl ha annunciato l’entrata in produzione e la prossima disponibilità del sistema VMX-250 Mobile Scanning, introdotto per la prima volta durante la scorsa edizione di INTERGEO, svoltasi a Karlsruhe, in Germania. Il sistema VMX-250 è composto da due scanner laser di tipo RIEGL VQ-250 Full Circle che, lavorando in modalità cooperativa, possono effettuare ben 600.000 misurazioni al secondo, rendendo possibile un mapping 3D estremamente accurato, veloce ed efficiente di strade, autostrade, ferrovie ed infrastrutture similari. La configurazione del sistema comprende inoltre la recente unità modulare IMU/GPS. Le due tecnologie proprietarie di RIEGL, denominate Echo Signal Digitization ed Online Waveform Analysis, consentono un eccellente rilevamento multitarget, anche di oggetti oscurati da entità fisiche che si interpongono rispetto all’osservatore (tipicamente ostacoli, vegetazione, ecc.). Questa tecnologia apre nuovi scenari e possibilità per il processamento e la trasformazione dei dati di misurazione all’interno di modelli computerizzati in tre dimensioni. Il sistema Riegl VMX-250 si presenta con un accattivante design, compatto ed estremamente maneggevole, ai quali si deve aggiungere un workflow estremamente intuitivo e la perfetta integrazione con i dati INS. Le interfacce digitali del VMX-250 System sono state anche progettate per risultare integrabili con gli specifici sistemi di ripresa dei clienti. Il sensore IMU istallato all’interno, con le sue ridotte restrizioni di export, consente al VMX-250 di essere distribuito e di poter operare praticamente in ogni parte del mondo. (Fonte: Redazionale)
visita il sito www.rivistageomedia.it
47
AZIENDE E PRODOTTI Da Trimble la nuova versione del software 4D Control Trimble ha presentato una nuova versione del software Trimble 4D Control, applicazione cardine delle soluzioni Trimble per il monitoraggio. La soluzione offre un’integrazione tra GNSS e tecnologie ottiche, in particolare per applicazioni di monitoraggio delle deformazioni in tempo reale. Il software è consigliato per il monitoraggio di dighe, ponti, palazzi, strutture di sostegno di condotte, siti di scavo e costruzione di grandi dimensioni, miniere sotterranee ed a cielo aperto, frane, gallerie, e molte altre strutture. Trimble 4D Control costituisce una soluzione valida sia per il monitoraggio in tempo reale che per quello basato su post elaborazione. Il sistema offre un approccio versatile e pienamente scalabile, grazie al quale viene reso particolarmente semplice l’avvio di attività di monitoraggio da parte di organizzazioni che effettuano rilievi topografici. Tramite l’impiego degli strumenti di rilevamento già il loro possesso, Trimble consente agli utilizzatori anche di personalizzare la soluzione, coprendo così anche alle necessità più particolari. Inoltre, i topografi potranno ora integrare i dati di posizionamento provenienti dai ricevitori GNSS di Trimble allo scopo di rilevare sia movimenti rapidi che fenomeni di lungo termine. I ricevitori GNSS possono infatti essere utilizzati congiuntamente ad un monitoraggio di tipo ottico. Il software lavora altrettanto bene sia con il Trimble NetRS GPS, che con i NetR3 Reference Sensor, NetR5 e NetR8. I dati provenienti sia dalla strumentazione ottica che dai ricevitori GNSS vengono tutti combinati, processati ed analizzati da Trimble 4D Control. (Fonte: Redazionale)
Annunciata la nuova versione di LandSIM3D NBL Software, distributrice italiana del software LandSIM3D, annuncia il rilascio della nuova versione della piattaforma di simulazione e visualizzazione 3D urbana e rurale che, tramite la sua tecnologia procedurale, sta rivoluzionando il settore del 3D GIS. La versione 2 facilita la visualizzazione in real-time di città complete o di vasti territori contenenti migliaia di edifici 3D e memorizzati in formati comuni quali 3ds o Google SketchUp. La simulazione temporale è stata ampliata a tutti i dati utilizzati per costruire la scena (oggetti, elevazione, ortofoto, dati vettoriali, mappe uso suolo, biotopi, ecc.) al fine di poter simulare e visualizzare l’evoluzione di una città, di un territorio o di un progetto complesso in tutte le sue caratteristiche grazie all’utilizzo della barra temporale. Ulteriori funzioni, quali la capacità di calcolo delle ombre in real-time 3D, la simulazione delle alternative progettuali, ecc., rendono LandSIM3D uno strumento fondamentale per i professionisti del GIS. (Fonte: NBL)
48
Laser Scanner Topcon GLS-1500 Topcon Europe è lieta di annunciare la disponibilità del GLS-1500. Mantenendo lo stesso design innovativo della serie GLS, è stato aggiornato il laser per garantire una maggiore velocità di scansione. Con l’aumento della velocità di scansione a 30.000 punti al secondo non è stata sacrificata nessuna delle prerogative dello scanner Topcon in termini di qualità del dato prodotto. E’ stata mantenuta la stessa elevata accuratezza, sia nella risoluzione angolare che in quella lineare, con la capacità di misurare con lo stesso standard di 4mm, distanze da 1 a 150m, utilizzando la tecnologia Precise Scan Technology. Il risultato è una velocità di scansione dieci volte superiore nella stessa unità compatta. I possessori del modello precedente, GLS-1000, non vedranno comunque sprecato il loro investimento, poiché nella sostanza lo strumento non è cambiato, ed è possibile offrire a chi utilizza già efficacemente lo scanner, gli stessi vantaggi di GLS-1500 attraverso un aggiornamento hardware della propria unità GLS-1000. Il GLS-1500, con un approccio da stazione totale e con un flusso di lavoro che rende semplici le operazioni di rilievo, massimizza la produttività dell’utente; è, insomma, uno strumento robusto, subito pronto da utilizzare su ogni sito. (Fonte: Geotop)
GEOmedia n°1-2010
TERRA E SPAZIO
Rapporto dallo spazio profondo di Fabrizio Bernardini
La ripresa della rubrica Terra e Spazio è una buona occasione per fare il punto della situazione riguardo l’esplorazione del Sistema Solare. Programmi di ricerca concepiti anche qualche decennio fa stanno producendo, o stanno per produrre, risultati spettacolari poco divulgati o poco apprezzati. Dietro questi programmi ci sono team di scienziati ed ingegneri che vivono la loro missione per anni ed anni. I dati prodotti, a loro volta, alimenteranno la ricerca scientifica nel tempo a venire incrementando la conoscenza dei pianeti del nostro Sistema.
Una delle eccezionali immagini di Phobos ottenute da Mars Express lo scorso marzo. (Credits: ESA/DLR/FU Berlin - G. Neukum)
Luna Il nostro satellite naturale è stato oggetto di grande interesse negli ultimi anni. Dopo missioni cinesi ed indiane, è ora la volta di LRO - Lunar Reconnaissance Orbiter della NASA che, dall’estate scorsa, è in orbita lunare bassa. LRO reca diversi strumenti tra cui una camera fotografica in grado di ottenere risoluzioni di poco inferiori al metro per pixel, il che ha tra l’altro permesso di individuare tutti i siti di atterraggio del programma Apollo. A bordo di LRO troviamo anche un altimetro laser chiamato LOLA, discendente di MOLA che, per Marte, ha prodotto in pochi anni la più accurata mappa altimetrica del Sistema Solare (anche considerando la Terra!). La conoscenza dettagliata della topografia della Luna aprirà La faccia nascosta della Luna con una opporun nuovo capitolo nella ricerca tuna tematizzazione delle elevazioni misurate sull’evoluzione lunare. dall’altimetro LOLA. (credits: NASA/GSFC)
50
Marte Il ‘pianeta rosso’ è sempre oggetto di un’intensa attività osservativa dall’orbita, complementata dalla presenza dei due rover sulla superficie. Spirit e Opportunity della NASA, continuano ad essere attivi dopo quasi 6 anni di esplorazione (contro i 6 mesi di vita prevista per la missione cosiddetta ‘nominale’). Spirit purtroppo è rimasto definitivamente bloccato nella sabbia, mentre il suo gemello continua il suo percorso di esplorazione, producendo dati ed immagini dal punto di vista ‘umano’. In orbita troviamo MEX - Mars Express dell’Agenzia Spaziale Europea, un gioiello di missione che continua ad operare oltre la vita nominale e che recentemente ha prodotto anche le immagini più ravvicinate mai ottenute di Phobos, una delle due misteriose lune di Marte, oltre che modelli digitali del terreno ottenuti con la camera stereoscopica HRSC (unico strumento del genere ad operare nel Sistema Solare). Dalla sua orbita circolare la sonda MRO - Mars Reconnaissance Orbiter, della NASA, ha prodotto una quantità di dati (più di 100 Terabytes) maggiore della somma dei dati prodotti
GEOmedia n°1-2010
TERRA E SPAZIO
Strati geologici sotto uno dei poli di Marte, immagine ricavata dai dati radar dello strumento italiano SHARAD a bordo di MRO. (CREDITS: Putzig et al. (2009), Icarus 204, 443-457)
da tutte le missioni spaziali interplanetarie messe assieme. Con la sua camera HiRise, MRO ha prodotto immagini così ricche di dettagli da permettere lo studio di fenomeni di ogni tipo. MEX e MRO sono poi accomunate dalla presenza di due radar di sottosuperficie, rispettivamente MARSIS e SHARAD, di ideazione e produzione italiane, i quali hanno aperto un mondo di opportunità di ricerca permettendo di confermare la presenza di ghiaccio nel sottosuolo e svelando gli andamenti degli strati geologici, che racchiudono i misteri dell’evoluzione di Marte. Infine ricordiamo Odissey, sempre della NASA che, nonostante qualche ‘acciacco’ continua ad operare dopo 10 anni dal lancio. Mercurio Il 18 marzo del prossimo anno entrerà in orbita intorno a Mercurio la sonda Messenger, della NASA, protagonista già di 3 passaggi ravvicinati (detti fly-by) al pianeta più vicino al Sole. Durante queste manovre la sonda ha modificato la propria orbita, ma ha anche approfittato per operare le prime osservazioni che hanno già ampliato di molto le nostre conoscenze. Infatti Mercurio è stato visitato nel 1974/75 dalla sola sonda Mariner 10 che fece solo un paio di passaggi. Messenger sarà la prima sonda entrare in orbita intorno a Mercurio e reca con se’ un’ampia serie di strumenti e sistemi di ripresa, ed anche un altimetro laser, utile per ricavare la topografia completa del pianeta. Venere La studio di Venere è tipicamente meno emozionante dal punto di vista del pubblico, per via della costante copertura nuvolosa e delle condizioni proibitive (sia in termini di pressione che di temperatura) che esistono sul suolo del pianeta. Tuttavia esso racchiude importante segreti nell’evoluzione planetaria ed è spesso citato come un esempio estremo dell’effetto ‘serra’ che minaccia anche il nostro pianeta. Dal 2006 Venere è sotto osservazione da parte di VEX - Venus Express, dell’Agenzia Spaziale Europea, una sonda ‘sorella’ di Mars Express. Grazie anche ad importanti contributi italiani, Venus Express continua a studiare vari strati dell’atmosfera sia all’inrarosso che all’ultravioletto.
Parti di Mercurio mai viste prime sono state svelate durante i flyby che Messenger ha compiuto prima dell’immissione in orbita. (credits: ASA/Johns Hopkins University Applied Physics Laboratory/Arizona State University/Carnegie Institution of Washington)
Saturno Per quanto ogni missione sia stupefacente a modo suo, crediamo che alla sonda Cassini, della NASA, vada il ‘premio’ per l’unicità e la spettacolarità delle immagini che questo complesso sistema planetario offre anche all’occhio meno esperto. In orbita intorno al ‘Signore degli Anelli’ dal 2004 – ma in volo dal 1997 – Cassini sta indagando su tutti i possibili aspetti del cosiddetto sistema saturniano composto dal gigante
visita il sito www.rivistageomedia.it
gassoso, i suoi anelli e le innumerevoli lune, diverse le une dalle altre. Dallo scorso anno la missione Una delle incredibili immagini di Saturno e nominale è terminata ed è dei suoi anelli catturate da Cassini. (credits: iniziata una missione estesa NASA/JPL/Space Science Institute) denominata Equinox, per lo studio del sistema con la nuova angolazione del Sole dopo il passaggio di Saturno al suo equinozio. La missione Cassini gode della partecipazione sia di industrie europee che italiane, partecipazione che culminò nel gennaio del 2005 con l’atterraggio del veicolo Huygens, interamente europeo, sulla superficie della luna Titano. Plutone Unico pianeta a non essere mai stato visitato da una sonda (Giove, Urano e Nettuno sono stati visitati in precedenza, ma oggi nessuna missione li interessa), e per giunta neanche più considerato un vero pianeta, Plutone sta per essere visitato dalla sonda New Horizons, della NASA. Concepita come missione relativamente a basso costo, la sonda è di dimensioni contenute per poter essere accelerata ad una velocità tale da poter raggiungere i confini del Sistema Solare in tempi non troppo lunghi. Nel luglio del 2015 la sonda compirà un flyby di Plutone e della sua luna Caronte eseguendo in poche ore un programma di osservazioni concepito da anni. Dopo Plutone il viaggio continuerà verso la fascia di Kuiper nella speranza di poter studiare altri misteri. Altre destinazioni? Lo spazio tiranno non ci permette di parlare anche della missione della sonda Rosetta dell’ESA – da anni in volo verso una cometa – di altre missioni simili, oppure di quelle ideate per andare ‘a caccia’ di asteroidi. Saranno l’argomento per un nuovo articolo. Sul sito www.rivistageomedia.it potrete trovare tutti i riferimenti per approfondire la conoscenza del le missioni attive e seguirne lo svolgimento e le scoperte, passate e future.
Abstract Report from deep space This instalment of ‘Terra e Spazio’ column deals with an update about the status of the exploration of the Solar System. Research programmes, some of them started decades ago, are producing or are going to produce, spectacular results, more often badly divulgated or little appreciated. Behind these programs we find teams of scientists and engineers that are “living” their own mission for years and years. Data products, on their own, will feed scientific research for years, augmenting the knowledge about the planets of our System.
Autore FABRIZIO BERNARDINI FB@AEC2000.EU
51
RECENSIONE
I fondamentali del
GPS
Autore: Ludovico Biagi Edizione: Geomatics Workbooks Vol. 8, ISSN: 1591-092X Pagine: 236 Prezzo: scaricabile gratuitamente all’indirizzo: http://geomatica.como.polimi.it/ fondamentaligps/
D
isponibile gratuitamente in formato elettronico quale numero 8 dei Geomatic Workbooks (periodico online che diffonde pubblicazioni scientifiche sui GIS), I fondamentali del GPS si rivela una preziosa fonte di informazioni per tutti coloro che a vario titolo hanno necessità di comprendere il complesso mondo del posizionamento satellitare per le applicazioni che vanno dalla navigazione in tempo reale al monitoraggio ad elevata accuratezza per reti geodetiche locali. Un particolare spazio è riservato alla complessa ed attuale questione riguardante la situazione dei sistemi di riferimento nazionali all’interno del quadro europeo e internazionale, arrivando fino alla recente ufficializzazione (marzo 2009) dei nuovi parametri ETRF2000-IGM95. Vengono trattate le tecniche più diffuse di rilevamento con ampio spazio per il trattamento e l’elaborazione dei dati, vagliato alla luce degli errori dovuti alle osservazioni, la propagazione e i disturbi atmosferici. Accompagnando il lettore all’interno dei diversi passi che caratterizzano la fase di elaborazione – dal dato grezzo alla compensazione di reti – I fondamentali del GPS propone un
52
livello di trattazione universitario che sarà ben gradito agli utenti di alto livello dei sistemi GPS geodetici; giù l’autore, infatti, nell’introduzione sottolinea l’alta competenza teorica richiesta: «Lo scopo sintetico di questo volume è quello di fornire un supporto teorico e pratico all’utente del GNSS: si è perciò tentato di descrivere con un ragionevole livello di dettaglio la teoria, il metodo e le elaborazioni che portano dalle osservazioni alla determinazione delle posizioni, 7per le diverse classi di accuratezza a cui si può lavorare, ovvero da alcuni metri a meglio del centimetro. Poiché non lo si riteneva rilevante in questo contesto, si è scelto di escludere quasi completamente dalla discussione tutta la teoria e le metodologie sottostanti alla messa in orbita dei satelliti, al monitoraggio delle loro orbite, al loro funzionamento, alla generazione del segnale e alla sua lettura da parte dei ricevitori. Inoltre si consideri che i modi di utilizzo e le tecniche di elaborazione delle osservazioni sono molteplici: si è scelto di illustrare solo i metodi con rilevanza per un libro di testo, escludendo quelli più marginali».
Il volume è stato scritto nell’ambito del progetto 'Galileo e il posizionamento satellitare modernizzato', finanziato nel 2006 dal Ministero dell’Università e della Ricerca come ‘Progetto di Rilevante Interesse Nazionale’ (PRIN). Il formato elettronico del testo (in pdf) è ampiamente diffuso ed un file integrale è scaricabile liberamente dal sito: http://geomatica.como.polimi.it/fondamentaligps/ Ludovico Biagi è ricercatore presso il Politecnico di Milano, DIIAR, dove è docente dei corsi di Positioning, Geodetic Monitoring and Navigation e di Telerilevamento, per la laurea specialistica in Ingegneria per l’Ambiente e il Territorio. Negli ultimi anni la sua attività prevalente è stata nelle tematiche delle reti GNSS permanenti per la realizzazione del sistema di riferimento, per la stima dei campi di spostamento e per la distribuzione di servizi di posizionamento; è membro dello study group sul sistema di riferimento della Commissione EUREF ed è coautore di circa settanta pubblicazioni e di due libri.
RC
GEOmedia n°1-2010
Nell’anno della Grande Crisi abbiamo ampliato gli organici. Immaginate cosa faremo con la ripresa. Molte aziende nel 2009 sono state costrette a ridurre gli organici.
Abbiamo messo a punto procedure di lavoro che consentono di
Noi, invece, abbiamo rafforzato il nostro team con nuovi collabo-
raggiungere l’eccellenza di prodotto nel rispetto dei tempi e dei
ratori, migliorando ulteriormente la qualità e la produttività del
costi, con un livello qualitativo sempre certificato.
nostro lavoro. Fedeli ai nostri standard, abbiamo naturalmente
Aiutati dall’esperienza maturata lavorando per alcune tra le
scelto persone altamente specializzate, in modo da creare uno
maggiori aziende italiane, da diversi anni ci siamo messi in gioco
staff composto da professionisti laureati in tutte le discipline
andando a competere con successo in Russia, Kosovo, Romania,
legate alla gestione del territorio. Persone in grado di capire a
Siria, Turchia. E oggi affrontiamo nuove sfide in un contesto sempre
fondo le esigenze dei nostri clienti e capaci di elaborare sempre
più globale che comprende realtà come la Cina, lo Yemen, il Brasile.
le soluzioni più opportune.
Se volete maggiori informazioni sulle nostre competenze, i
Questa politica ci ha permesso di continuare a crescere.
nostri servizi e ciò che abbiamo realizzato in Italia e all’estero,
Abbiamo scelto di sviluppare progetti specifici, calibrati sulle
visitate il nostro sito o contattateci direttamente.
esigenze di ognuno dei nostri committenti.
Capirete perché siamo la più importante azienda privata italiana
Abbiamo continuato a investire in R&D, studiando soluzioni in-
nel settore geospatial.
novative per semplificare drasticamente l’uso delle applicazioni
Ma, soprattutto, scoprirete come, crisi o non crisi, possiamo ren-
geospatial, creare interfacce sempre più intuitive e integrare in
dere il vostro business ancora più produttivo.
maniera trasparente i dati geo-spaziali nella filiera produttiva, migliorando in modo significativo la performance del sistema IT. Abbiamo percorso prima di altri la strada del software open source, per proporre la massima qualità a costi competitivi. GESP Srl
MILANO - BOLOGNA
http://w w w.gesp.it - gespsrl@gesp.it
AGENDA
2010 11 maggio Milano , Hotel Melià SAS Forum Italia 2010 Web: www.sasforumitalia.it 12 maggio Milano, Hotel Sheraton Diana Majestic di Milano Pitney Bowes Insights 2010 User Conference Web: http://gw.vtrenz. net/?KIAOVIXBBR Email: karin.lexa@pb.com 19-21 maggio Istanbul, Turchia Intergeo East 2010 Web: www.intergeo-east. com Email: dkatzer@hintemesse.de 7 giugno Bari Corso GIS&Telerilevamento XV anno ‘L'informazione geospaziale ai tempi di INSPIRE’ Web: www.planetek. it/formazione/corsi_ in_aula/corso_gis_e_ telerilevamento_15_anno Email: formazione@ planetek.it 14-16 giugno Grottaminarda (AV) 5° Meeting del ‘Geology And Information Technology’ (GIT) group Web: www.gitonline.eu Email: segreteria@ gitonline.eu
15-17 giugno Livorno Simposio ‘Il monitoraggio Costiero Mediterraneo: problematiche e tecniche di misura’ Web: http://server. ss.ibimet.cnr.it/ita/ simposio/2010/s2010.html Email: mail@ibimet.cnr.it
6-8 settembre Pisa 85° Congresso della Società Geologica Italiana ‘L'Appennino nella Geologia del Mediterraneo Centrale’ Web: www.dst.unipi.it/ sgi2010/index.php Email: sgi2010@dst.unipi.it
16-18 giugno Marina di Capitana Quartu S. Elena (CA), Sighientu Village Hotel Convegno Nazionale SIFET 2010 ‘Il Catasto nel 2010: dalla topografia alla geomatica’ Web: www.sifet.org Email: amministrazione@ sifet.org
6-9 settembre Barcellona, Spagna FOSS4G Web:http://2010.foss4g. org
21-22 giugno Nottingham, Inghilterra 2nd Open Source GIS UK Conference Web: www.opensourcegis. org.uk Email: Stella.fuller@ nottingham.ac.uk 22-25 giugno Cracovia, Polonia INSPIRE Conference 2010 Web: http://inspire.jrc. ec.europa.eu/events/ conferences/inspire_2010/ index.cfm Email: ec-gis@jrc.it
5-7 ottobre Colonia, Germania Intergeo 2010 Web: www.intergeo2010. de Email: dkatzer@hintemesse.de 19-22 ottobre Singapore GSDI-12 World Conference Web: http://www.gsdi.org 19-21 ottobre Braunschweig, Germania ENC GNSS 2010 Web: www.enc-gnss2010. org Email: dgon.bonn@tonline.de
Il Trimble Express fa tappa in sei città italiane
E’ partito il Trimble Express 2010, che quest’anno farà tappa in sei città italiane. Conclusi gli appuntamenti a Nord Italia, l’evento si sposterà al meridione: il 24 maggio a Ragusa e il 26 maggio a Petrosino (TP). Trimble Express rappresenta una nuova occasione per stare vicino ai clienti; anche i distributori locali Trimble saranno presenti a tutte le manifestazioni e saranno a completa disposizione degli utenti. Delle conferenze informative specializzate offriranno la possibilità di farsi un’idea su tutte le ultime grandi novità del leader mondiale nel settore delle tecnologie di posizionamento e navigazione satellitare. Coloro che parteciperanno a questa manifestazione avranno anche la possibilità di provare tutti i nuovi dispositivi Trimble. È possibile iscriversi a Trimble Express 2010 tramite il sito internet www.trimbleexpress.com. Iscrivendosi subito è possibile partecipare all'estrazione di un biglietto aereo andata e ritorno per Las Vegas per partecipare alla conferenza internazionale Trimble Dimensions 2010.
ESRI EMEA User Conference 2010 Dal 26 al 28 ottobre 2010, presso l’Ergife Palace Hotel/Convention Centre di Roma, si svolgerà la ESRI EMEA (Europe, Middle East and Africa) User Conference 2010, il grande evento biennale dedicato al GIS e alle applicazioni geospaziali, con partecipanti provenienti da oltre 60 paesi. L’Evento sarà per tutti un’occasione da non perdere, grazie anche alla presenza del presidente di ESRI Jack Dangermond e di gran parte del top management ESRI che, durante la sessione plenaria, presenteranno la nuova ‘vision’ di ESRI relativamente all’evoluzione del GIS nei prossimi anni, con un focus particolare sulla release 10 del software ArcGIS. Il Call For Presentation è ufficialmente aperto: gli abstract possono essere inviati alla Segreteria scientifica dell’evento, tramite il sistema di inserimento web: www.esri.com/events/emea/getinvolved/index.html Per tutte le informazioni sulla ESRI EMEA User Conference 2010, è possibile consultare il sito ufficiale dell’evento: http://www.esri.com/events/ emea
54
GEOmedia n°1-2010
Immagina quello che potresti fare se potessi aggiungere informazioni provenienti da immagini geospaziali al tuo GIS, in modo facile e conveniente. Da oggi puoi farlo. Ti presentiamo ENVI EX, un software sviluppato proprio per aiutarti ad estrarre le informazioni presenti nelle immagini geospaziali e arricchire i tuoi GIS. ENVI EX si integra Áuidamente con $rcGIS per inserirsi facilmente nei tuoi worNÁow. Inoltre i rivoluzionari processi guidati ti accompagnano attraverso le operazioni di analisi di immagini piu’ avanzate, permettendoti di ottenere i risultati di alto livello per cui ENVI e’ conosciuto. ENVI EX – informazioni geospaziali precise per il tuo GIS, oggi in modo facile.
ENVI EX. Il software di elaborazione immagini per gli utenti GIS
Sistemi Geospaziali
Sistemi Elettronici
Sistemi Informativi
ITT, il logo “Engineered Blocks” e la frase “Engineered for life” sono marchi depositati di ITT Manufacturing Enterprises, Inc., e sono utilizzati con licenza. ©2010, ITT Visual Information Solutions